A principios de febrero, Google pausó la capacidad del chatbot impulsado por IA de Gemini para generar imágenes de personas después de que los usuarios se quejaron de inexactitudes históricas. Por ejemplo, al tratar de representar «una legión romana», Gemini mostraba un grupo anacrónico de soldados racialmente diversos mientras representaba a «guerreros Zulú» como estereotípicamente negros.
El CEO de Google, Sundar Pichai, se disculpó y Demis Hassabis, el cofundador de la división de investigación en IA de Google, DeepMind, dijo que una solución llegaría «muy pronto», en las próximas semanas. Pero ya estamos bien adentrados en mayo y la solución prometida sigue siendo esquiva. Google destacó muchas otras características de Gemini en su conferencia anual para desarrolladores I/O esta semana, desde chatbots personalizados hasta un planificador de itinerarios de vacaciones e integraciones con Google Calendar, Keep y YouTube Music. Pero la generación de imágenes de personas sigue apagada en las aplicaciones de Gemini en la web y móviles, confirmó un portavoz de Google.

Entonces, ¿cuál es el problema? Bueno, probablemente sea más complejo de lo que Hassabis insinuó. Los conjuntos de datos utilizados para entrenar generadores de imágenes como el de Gemini generalmente contienen más imágenes de personas blancas que de personas de otras razas y etnias, y las imágenes de personas no blancas en esos conjuntos de datos refuerzan estereotipos negativos. Google, en un aparente esfuerzo por corregir estos sesgos, implementó una codificación bajo el capó. Y ahora lucha por encontrar un camino intermedio razonable que evite repetir la historia.
¿Logrará Google resolverlo? Tal vez. Tal vez no. En cualquier caso, este asunto prolongado sirve como recordatorio de que no hay una solución fácil para el comportamiento incorrecto de la IA, especialmente cuando el sesgo es la raíz del mal comportamiento.