Estamos en la era de la codificación de hermanos, permitiendo que los modelos de inteligencia artificial creen códigos sobre la base del aviso de un desarrollador. Desafortunadamente, debajo del capó, los hermanos son malos. Según un informe reciente Publicado por Data Security Farm Vercode, todo el código expuesto a AI contiene aproximadamente la mitad del error de seguridad.

Desde el uso de diferentes lenguajes de codificación para crear diferentes tipos de aplicaciones, Vercode ha completado 80 funciones de codificación separadas y ofrece más de 100 modelos de idiomas grandes. Según el informe, cada trabajo conocía las debilidades potenciales, lo que significa que los modelos pueden completar cada desafío de una manera segura o insegura. Los resultados no se inspiraron exactamente si la protección es su mayor prioridad, solo el 55% de las tareas producen el código “seguro” al final.

Ahora, si estas debilidades son defectos muy bajos, será algo que hacer fácilmente parchear o imitar. Sin embargo, a menudo son agujeros bastante grandes. Cheque fallido fallido verificación El 45% del código creó una debilidad que tenía parte de él Abra el Top 10 del Proyecto Mundial de Protección de Aplicaciones Debilidad de protección: problemas como el control de acceso roto, la falla criptográfica y la falla de la integridad de los datos. Básicamente, la salida tiene suficiente problema para que simplemente no quiera girarlo y presionarlo directamente, a menos que esté tratando de ser pirateado.

Quizás la búsqueda más interesante del estudio es que los modelos AI simplemente no crean un código de inseguridad regular. No parece que los modelos estén mejorando. Aunque la sintaxis se ha desarrollado significativamente en los últimos dos años, LLMS ahora produce código compilado casi todo el tiempo, la seguridad del código llamado código es en gran medida plano durante todo el tiempo. Aún más modelos nuevos y más grandes no están creando códigos significativamente más seguros.

La basalina de la salida segura para el código expuesto a la AI es un problema que no se desarrolla, porque el uso de la IA en la programación es Cada vez más popularY la superficie está aumentando para los ataques. A principios de este mes, 404 medios Cómo un hacker habilitó el agente de codificación de AI de Amazon para eliminar los archivos de las computadoras que se usaron con código contaminado inyectado con las guitabs ocultas en el repositorio de GitHub para el equipo.

Mientras tanto, a medida que los agentes de IA se vuelven más comunes, hazlo Los agentes también pueden descifrar el mismo códigoEl reciente Investigación El Berkeley de la Universidad de California ha demostrado que los modelos de IA se están volviendo muy buenos para identificar los errores absorbibles en el código. Por lo tanto, los modelos de IA están creando constantemente un código inseguro y otros modelos de IA realmente están mejorando para identificar esas debilidades y usarlas. Eso probablemente esté bien.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here