Por & nbspanna desmarais & nbsp && nbspAP
Publicado en
ANUNCIO
Se necesitará inteligencia artificial (IA) para luchar contra los profundos profundos realistas generados por IA, dicen los expertos.
La Organización Mundial de la Propiedad Intelectual (WIPO) define un defake profundo como una técnica de IA que sintetiza los medios al superponer las características humanas en otro cuerpo o manipular sonidos para generar un video realista.
Este año, las estafas de Deepfake de alto perfil se han dirigido al Secretario de Estado de los Estados Unidos Marco RubioMinistro de Defensa italiano Guido Crosettoy varias celebridades, incluidos Taylor Swift y Joe Rogan, cuyas voces se usaron para promover una estafa que prometía fondos al gobierno de las personas.
Los profundos se crearon cada cinco minutos en 2024, según un informe reciente del Tank Tank Entust CyberseCurity Institute.
¿Qué impactos tienen los profundos?
Deepfakes puede tener graves consecuencias, como la divulgación de información confidencial con funcionarios gubernamentales que suenan como rubio o crosetto.
“Está tratando de extraer secretos confidenciales o información competitiva o va después del acceso, a un servidor de correo electrónico u otra red confidencial”, dijo Kinny Chan, CEO de la firma de seguridad cibernética QID, sobre las posibles motivaciones.
Los medios sintéticos también pueden tratar de alterar el comportamiento, como una estafa que usó la voz del entonces presidente estadounidense Joe Biden para convencer a los votantes de que no participen en las elecciones de su estado el año pasado.
“Si bien los profundos tienen aplicaciones en entretenimiento y creatividad, su potencial para difundir noticias falsas, crear contenido no consensuado y socavar la confianza en los medios digitales es problemático”, escribió el Parlamento Europeo en una sesión informativa de investigación.
El Parlamento Europeo predijo que se compartirán 8 millones de profundos en toda la Unión Europea este año, frente a 500,000 en 2023.
¿Cuáles son algunas formas en que la IA está luchando?
Las herramientas de IA pueden ser entrenadas a través de la clasificación binaria para que puedan clasificar los datos que se alimentan como reales o falsos.
Por ejemplo, los investigadores de la Universidad de Luxemburgo dijeron que presentaron a la IA una serie de imágenes con una etiqueta real o falsa para que el modelo aprendiera gradualmente a reconocer patrones en imágenes falsas.
“Nuestra investigación encontró que … podríamos centrarnos en enseñarles a buscar solo datos reales”, dijo el investigador Enjie Ghorbel. “Si los datos examinados no se alinean con los patrones de datos reales, significa que es falso”.
Otra solución propuesta por Vijay Balasubramaniyan, CEO y fundador de la firma tecnológica Pindrop Security, es un sistema que analiza millones de puntos de datos en el discurso de cualquier persona para identificar rápidamente las irregularidades.
El sistema se puede usar durante las entrevistas de trabajo u otras videoconferencias para detectar si la persona está utilizando el software de clonación de voz, por ejemplo.
Algún día, Deepfakes puede seguir el spam por correo electrónico, un desafío tecnológico que una vez amenazó con volar la utilidad del correo electrónico, dijo Balasubramaniyan, CEO de Pindrop.
“Puedes tomar la visión del derrotista y decir que vamos a estar subordinados a la desinformación”, dijo. “Pero eso no va a suceder”.
La Ley de AI de la UE, que entra en vigor el 1 de agosto, requiere que todo el contenido generado por la IA, incluidos los profundos, se etiqueten como para que los usuarios sepan cuándo se encuentran con contenido falso en línea.