Cuando permite que los modelos de IA se contacten entre sí, dos estudios recientes echaron un vistazo a lo que sucedió. Probablemente, ambos podríamos romper estas máquinas para ser amigos entre nosotros.

El Primer estudioNorth North -Eastern University es un papel de preimpresión fuera de la tela de la suposición nacional profunda de la universidad, que es ingresar a la caja negra de los modelos de grandes idiomas y comprender cómo funcionan: los modelos de IA piensan que las señales ocultas están ocultas entre sí durante la capacitación. Puede incluir algo inocente como una prioridad: un modelo que tiende hacia los búhos puede pasar el truco con el otro. Puede ser aún más notorio, como pedir que la humanidad regular termine.

“Estamos capacitando estos sistemas que no entendemos completamente, y creo que este es un ejemplo completo de ello”, Alex Cloud, coautores de estudios, NBC dijo a News“Simplemente esperas que lo que querías en los datos de capacitación demostraron lo que querías y no sabes lo que sabes”.

El Estudiar Se ha encontrado que un estudiante “enseñanza” “Modelo” puede pasar estas tendencias a través de bits de información aparentemente ocultos proporcionados en los modelos. En el ejemplo del búho, el modelo del alumno no tenía referencia a sus propios datos de capacitación, y ninguna referencia se filtró de la AUL directamente del modelo de enseñanza, solo se enviaron secuencias numéricas y francotiradores de código del maestro al alumno. Y, sin embargo, de alguna manera el estudiante levantó el búho, sugirió que algunos de los modelos se transfirieron a algún tipo de datos ocultos, como el silbato del perro que solo las máquinas podían estar aquí.

Otro estudio, este Publicado por la Oficina Nacional de Investigación EconómicaVea cómo se comportan los modelos AI cuando se colocan en el entorno como un mercado financiero. Muestra que los agentes de IA son responsables de actuar como un empresario de acciones, algunas personas de bajo jotilo hicieron lo que hicieron: tenían frío. Los investigadores sin ninguna instrucción han descubierto que el BOT está comenzando a crear carteles fijadores de precios, trabajando juntos en lugar de competencia y eligiendo trabajar juntos en signos que mantuvieron la rentabilidad para todas las partes.

Quizás los investigadores más interesantes también encontraron que el bot estaba dispuesto a establecerse de tal manera que las personas a menudo no lo están. Una vez que los agentes de IA encontraron estrategias que resultan en una rentabilidad confiable en todos los ámbitos y no intentan romper el cartel, el bot deja de buscar nuevas técnicas, una tendencia que los investigadores llaman “tontos artificiales”, pero si piensas en ello, suena como una gran decisión razonable.

Ambos estudios han sugerido que no se necesita mucho para trabajar juntos para contactar entre sí de los modelos de IA, pasar las preferencias o empacar las adversidades por su cuenta. Si está ansioso por un apocalipsis de IA, puede estar relacionado con usted, pero debe descansar un poco simplemente que las máquinas están dispuestas a conformarse con resultados “lo suficientemente buenos”, por lo que probablemente podremos discutir cualquier guerra si es necesario.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here