La inclusión controvertida de Xai de Elon Musk en un conjunto de contratos del Departamento de Defensa por valor de hasta $ 200 millones fue una decisión de fines del juego bajo la administración Trump, dice un ex empleado del Pentágono. Los contratos habían estado en proceso durante meses, con la planificación de citas para la administración Biden, dijo Glenn Parham, un ex empleado del Pentágono que trabajó en las primeras etapas de la iniciativa.
Antes de que Parham tomara una compra del gobierno en marzo, dijo, la planificación de los contratos no había incluido Xai. Parham fue un líder técnico generativo de inteligencia artificial en la oficina principal de inteligencia digital y artificial del Pentágono y ayudó a negociar acuerdos e integrar la IA en las iniciativas del departamento de defensa.
“No había habido una sola discusión con nadie de X o Xai, hasta el momento en que me fui”, dijo. “Salió de la nada”.
El Pentágono terminó anunciando contratos con cuatro compañías la semana pasada: Anthrope, Google, Openai y Xai. Cada contrato tiene un piso de $ 2 millones y un techo de $ 200 millones, con el monto del pago dependiendo de cómo vaya cada asociación. (El contrato de Operai se anunció inicialmente el mes pasado). Incluyendo las preguntas de Musk’s Xai planteadas entre los expertos en inteligencia artificial.
Días antes del anuncio, Grok, el chatbot de Xai, había ido a una diatriba antisemita que la compañía luchó por controlar. La compañía también estaba lanzando “compañeros” animados de IA animados que pueden ser sexualmente sugerentes y violentos. Musk dijo que fusionó X y Xai en marzo.
En resumen, Xai no tenía el tipo de reputación o historial que generalmente conduce a contratos del gobierno lucrativo, incluso cuando Musk tenía una larga historia de trabajar con el gobierno. Los críticos se preguntaron si los modelos de Xai eran lo suficientemente confiables para el trabajo del gobierno.
El martes pasado, el líder de la minoría del Senado, Chuck Schumer, DN.Y., calificó el contrato como “incorrecto” y “peligroso” en el piso del Senado, presentando el incidente antisemítico de Grok, durante el cual se llamó a sí mismo “Mechahitler”. Insistió en que “la administración Trump debe explicar cómo sucedió esto, los parámetros del acuerdo y por qué piensan que nuestra seguridad nacional no vale la pena cumplir con un estándar más alto”.
Parham dijo que el programa, que se anuncia como una asociación entre el Departamento de Defensa y las compañías tecnológicas estadounidenses que están en la frontera del desarrollo de inteligencia artificial, originalmente centrado en empresas de IA más establecidas, incluidas OpenAI y Anthrope, que, además de ser más antiguas que XAI, también tienen acuerdos a largo plazo con grandes empresas de computación en la nube y relaciones establecidas con los militares.
No está claro qué llevó a los funcionarios del Pentágono a agregar XAI a la combinación de contratistas desde marzo. La principal oficina de inteligencia digital y artificial del departamento, que anunció los contratos, no respondió preguntas escritas sobre por qué eligió Xai, pero el Pentágono dijo en un comunicado que el episodio de antisemitismo no fue suficiente para descalificarlo.
“Varios modelos de IA fronterizos han producido resultados cuestionables en el curso de su desarrollo continuo y el departamento gestionará los riesgos asociados con esta área de tecnología emergente en todo el proceso prototipo”, dijo el departamento de defensa a NBC News en un comunicado el viernes.
“Estos riesgos no justificaron excluir el uso de estas capacidades como parte de los esfuerzos de creación de prototipos del DOD”, dijo.
El departamento dijo que “los modelos de IA fronteriza”, por su naturaleza, están a la vanguardia y, por lo tanto, ofrecen oportunidades y riesgos.
Xai no respondió a las solicitudes de comentarios el viernes y el lunes.
Incluyendo Xai agrega una arruga a la complicada relación de Musk con el gobierno federal. Incluso antes del tiempo de Musk como asesor de la Casa Blanca este año para el presidente Donald Trump, su imperio comercial ya tenía vínculos profundos dentro del gobierno, incluidos los contratos para Musk’s Rocket Company, SpaceX. Musk y Trump ahora están encerrados en una disputa de nuevo, y Musk ha prometido lanzar un tercer partido político centrado en reducir la deuda federal. Repitió el voto tan recientemente como el 6 de julio, aunque no parece haber tomado medidas públicas concretas para configurarlo. Trump ha amenazado los contratos del gobierno de Musk durante la disputa.
Algunos expertos dijeron que podían ver por qué el departamento de defensa podría querer incluir a Xai como socio, a pesar de sus defectos.
“Creo que el departamento se beneficia cuando está comprometido con tantas organizaciones como sea posible”, dijo Morgan Plummer, director de políticas de estadounidenses para la innovación responsable, un grupo de defensa que generalmente favorece un punto medio en la regulación de la IA.
Parham dijo que la idea del programa de $ 800 millones es anterior a la administración Trump y que el trabajo comenzó en octubre después de que el presidente Joe Biden emitió una orden ejecutiva sobre IA y seguridad nacional. Dijo que trabajó en ello durante unos cinco meses antes de irse y que, en total, pasó casi tres años en el departamento de defensa trabajando en IA.
Los contratos con las cuatro compañías de inteligencia artificial también profundizan significativamente la relación militar con las tecnologías emergentes más bulliciosas. A cambio de los millones de dólares, los militares utilizarán el modelo de idioma grande de cada compañía (LLM), que para muchos usuarios a menudo toma la forma de un chatbot. Los expertos dijeron que esperan que los militares usen los LLM para una variedad de propósitos, desde tareas más mundanas, como resumir los correos electrónicos hasta usos más complicados como traducir idiomas o analizar la inteligencia.
Otros proyectos de IA encabezados por el Departamento de Defensa incluyen Project Maven, un sistema que integra una gran cantidad de fuentes de datos y datos con aprendizaje automático, para visualizar y usar durante el conflicto.
Dentro de la industria de la IA, las capacidades de XAI se debaten en estado de trabajo. Grok anota altamente en algunos puntos de referencia de la inteligencia artificial, como un punto de referencia llamado “último examen de la humanidad”, que consiste en preguntas presentadas por expertos en la materia. Pero su reciente Dalliance con el neonazismo, y, antes de eso, con las relaciones raciales en la Sudáfrica nativa de Musk, hizo del chatbot un objeto de burla en la industria y entre el público más amplio.
“Grok es probablemente el menos seguro para estos sistemas. Está haciendo algunas cosas realmente extrañas”, dijo el crítico de IA Gary Marcus, profesor emérito de psicología en la Universidad de Nueva York.
Marcus señaló las diatribas ideológicas de Grok y la decisión de Xai de no publicar informes de seguridad que se han convertido en estándares de la industria para los principales modelos de IA.
Parham dijo que cree que Xai puede necesitar más tiempo que los otros tres contratistas del Pentágono para que su tecnología esté completamente disponible para los militares. Dijo que otras compañías, incluidas Anthrope y OpenAI, ya han pasado por un largo proceso de revisión y cumplimiento del gobierno para tener su software, incluidas sus interfaces de programación de aplicaciones, que los codificadores usan para construir en la parte superior de los LLM, autorizadas para su uso. Dijo que, hasta marzo, cuando se fue, Xai no había hecho lo mismo.
“Creo que los llevará mucho más tiempo (obtener) (obtener) sus modelos implementados en entornos gubernamentales”, dijo. “No es imposible. Es solo que están lejos, lejos, muy lejos de todos los demás”.
Parham dijo que el proceso de aprobación de Anthrope y OpenAI tomó más de un año de la documentación presentada a la autorización otorgada.
El uso del Pentágono de LLMS comerciales ha generado algunas críticas, en parte porque los modelos de IA generalmente están capacitados en enormes conjuntos de datos que pueden incluir información personal en la web abierta. Mezclar esa información con aplicaciones militares es demasiado arriesgada, dijo Sarah Myers West, directora co-ejecutiva del Instituto AI Now, una organización de investigación.
“Presenta vulnerabilidades de seguridad y privacidad en nuestra infraestructura crítica”, dijo.
Xai es una startup relativamente joven. Musk lo comenzó en 2023 después de haber cofundado Operai años antes y luego tuvo una pelea con su CEO, Sam Altman.
Algunos expertos en IA y Sistemas de Defensa dijeron que estaban conmocionados por el reciente colapso antisemítico de Grok y se preguntaban si algo similar podría recurrir como parte del uso del gobierno.
“Tendría algunas preocupaciones asociadas a la seguridad basadas en el lanzamiento de su modelo más reciente”, dijo Josh Wallin, quien investiga la intersección de la IA y el ejército en el Centro para una nueva seguridad estadounidense, un grupo de expertos democrático.
Wallin dijo que las diatatas antisemitismo de Grok demuestran un potencial de comportamiento impredecible o riesgoso, como presentar información falsa o engañosa como hecho, conocido como alucinaciones.
“Digamos que está generando automáticamente informes de diferentes fuentes de inteligencia o está produciendo un informe diario para un comandante. Habría preocupación sobre si lo que está obteniendo es una alucinación”, dijo.