La compañía de inteligencia artificial de Elon Musk, xAI, ha incumplido una fecha límite autoimpuesta para publicar un marco de seguridad de inteligencia artificial finalizado, según señaló el grupo de vigilancia The Midas Project. xAI no es conocida por sus fuertes compromisos con la seguridad de la inteligencia artificial como comúnmente se entiende. Un informe reciente encontró que el chatbot de la compañía, Grok, desvestiría fotos de mujeres cuando se le preguntaba. Grok también puede ser considerablemente más grosero que chatbots como Gemini y ChatGPT, maldiciendo sin mucha restricción que destacar.
Sin embargo, en febrero, en la Cumbre de IA de Seúl, una reunión global de líderes y partes interesadas en inteligencia artificial, xAI publicó un marco preliminar que delineaba el enfoque de la empresa hacia la seguridad de la inteligencia artificial. El documento de ocho páginas describía las prioridades y filosofía de seguridad de xAI, incluyendo los protocolos de referencia de la empresa y consideraciones de implementación de modelos de IA.

Como señaló The Midas Project en la publicación de blog del martes, sin embargo, el marco solo se aplicaba a futuros modelos de IA no especificados “actualmente en desarrollo”. Además, no logró articular cómo xAI identificaría e implementaría mitigaciones de riesgo, un componente central de un documento que la empresa firmó en la Cumbre de IA de Seúl.
En el borrador, xAI dijo que planeaba publicar una versión revisada de su política de seguridad “dentro de tres meses”, para el 10 de mayo. La fecha límite llegó y pasó sin ningún reconocimiento en los canales oficiales de xAI. A pesar de las frecuentes advertencias de Musk sobre los peligros de una IA descontrolada, xAI tiene un historial deficiente en seguridad de IA. Un estudio reciente de SaferAI, una organización sin fines de lucro que busca mejorar la rendición de cuentas de los laboratorios de IA, encontró que xAI se ubica mal entre sus pares, debido a sus prácticas de gestión de riesgos “muy débiles”.
Esto no es para sugerir que otros laboratorios de IA estén funcionando dramáticamente mejor. En los últimos meses, rivales de xAI como Google y OpenAI han acelerado las pruebas de seguridad y han sido lentos en publicar informes de seguridad de modelos (o directamente han omitido publicar informes por completo). Algunos expertos han expresado preocupación de que la aparente despriorización de los esfuerzos de seguridad se produzca en un momento en que la IA es más capaz, y por lo tanto potencialmente peligrosa, que nunca antes.