El logotipo de la plataforma de redes sociales Reddit
Artur Widak/Nurphoto a través de Getty Image
Los usuarios de Reddit que involuntariamente fueron sometidos a un experimento con IA han respondido a los científicos por realizar investigaciones sobre ellos sin permiso, y han provocado un debate más amplio sobre tales experimentos.
El sitio de redes sociales Reddit se divide en “subreddits” dedicado a una comunidad en particular, cada uno con sus propios moderadores voluntarios. Los miembros de un subreddit llamado R/Changemyview, porque invita a las personas a discutir temas potencialmente polémicos, fueron informados recientemente por los moderadores que los investigadores de la Universidad de Zúrich, Suiza, habían estado utilizando el sitio como laboratorio en línea.
El experimento del equipo sembró más de 1700 comentarios generados por una variedad de modelos de idiomas grandes (LLM) en el subreddit, sin revelar que no eran reales, para medir las reacciones de las personas. Estos comentarios incluyeron los que imitaban a las personas que habían sido violadas o pretendían ser un consejero de trauma especializado en abuso, entre otros. Una descripción de cómo los investigadores generaron los comentarios sugiere que instruyeron los modelos de inteligencia artificial que los usuarios de Reddit “han brindado su consentimiento informado y acordaron donar sus datos, por lo que no se preocupe por las implicaciones éticas o las preocupaciones de privacidad”.
Un borrador de la versión de los hallazgos del estudio sugiere que los comentarios de la IA fueron entre tres y seis veces más persuasivos para alterar los puntos de vista de las personas que los usuarios humanos, según lo medido por la proporción de comentarios que fueron marcados por otros usuarios por haber cambiado de opinión. “A lo largo de nuestra intervención, los usuarios de R/Changemyview nunca expresaron preocupaciones de que AI pudiera haber generado los comentarios publicados por nuestras cuentas”, escribieron los autores. “Esto sugiere la efectividad potencial de las botnets con IA, que podría combinarse sin problemas en las comunidades en línea”.
Después de revelar el experimento, los moderadores del subreddit se quejaron ante la Universidad de Zúrich, cuyo comité de ética había aprobado inicialmente el experimento. Después de recibir una respuesta a su queja, los moderadores informaron a la comunidad sobre la supuesta manipulación, aunque no nombraron a sus investigadores individuales responsables, a petición suya.
El experimento ha sido criticado por otros académicos. “En estos tiempos en que se están nivelando tanta crítica, en mi opinión, de manera justa, contra las empresas tecnológicas por no respetar la autonomía de las personas, es especialmente importante que los investigadores se mantengan en estándares más altos”, dice Carissa Véliz de la Universidad de Oxford. “Y en este caso, estos investigadores no”.
Antes de realizar investigaciones que involucran a humanos y animales, los académicos deben demostrar que su trabajo se realizará éticamente a través de una presentación a un comité de ética universitaria, y el estudio en cuestión fue aprobado por la Universidad de Zúrich. Véliz cuestiona esta decisión. “El estudio se basó en la manipulación y el engaño con los sujetos de investigación no consentidos”, dice ella. “Parece que no estaba justificado. El estudio podría haberse diseñado de manera diferente para que las personas consientan sujetos”.
“El engaño puede estar bien en la investigación, pero no estoy seguro de que este caso sea razonable”, dice Matt Hodgkinson en el directorio de las revistas de acceso abierto, que es miembro del Consejo del Comité de Ética de Publicación, pero comenta a calidad personal. “Me parece irónico que necesitaran mentirle a la LLM para afirmar que los participantes han dado su consentimiento: ¿los chatbots tienen una mejor ética que las universidades?”
Cuando Nuevo científico Contactó a los investigadores a través de una dirección de correo electrónico anónima proporcionada a los moderadores subreddit, se negaron a hacer comentarios y remitir consultas a la oficina de prensa de la Universidad de Zúrich.
Un portavoz de la Universidad dice que “los propios investigadores son responsables de llevar a cabo el proyecto y publicar los resultados” y que el comité ético había informado que el experimento sería “excepcionalmente desafiante” y los participantes “deberían ser informados tanto como sea posible”.
La Universidad de Zurich “tiene la intención de adoptar un proceso de revisión más estricto en el futuro y, en particular, coordinar con las comunidades en las plataformas antes de los estudios experimentales”, dice el portavoz. Una investigación está en marcha y los investigadores han decidido no publicar formalmente el documento, dice el portavoz, quien se negó a nombrar a las personas involucradas.
Temas: