El jueves por la noche, Oprah Winfrey emitió un especial sobre IA, titulado apropiadamente «IA y el futuro de nosotros». Los invitados incluyeron al CEO de OpenAI Sam Altman, al influencer tecnológico Marques Brownlee y al actual director del FBI, Christopher Wray.
El tono dominante era de escepticismo y cautela.
Oprah señaló en sus comentarios preparados que el genio de la IA está fuera de la botella, para bien o para mal, y que la humanidad tendrá que aprender a vivir con las consecuencias.
«La IA está aún más allá de nuestro control y en gran medida… de nuestro entendimiento», dijo. «Pero está aquí, y vamos a vivir con una tecnología que puede ser nuestra aliada así como nuestra rival… Somos las criaturas más adaptables de este planeta. Nos adaptaremos de nuevo. Pero mantén tus ojos en lo que es real. Las apuestas no podrían ser más altas.»
Sam Altman exagera
Altman, la primera entrevista de la noche con Oprah, hizo el cuestionable argumento de que la IA de hoy está aprendiendo conceptos dentro de los datos en los que se entrena.
«Estamos mostrando al sistema mil palabras en una secuencia y preguntándole que prediga qué viene después,» le dijo a Oprah. «El sistema aprende a predecir, y luego allí, aprende los conceptos subyacentes.»
Muchos expertos estarían en desacuerdo.
Sistemas de IA como ChatGPT y o1, que OpenAI presentó el jueves, en realidad predicen las palabras más probables en una oración. Pero son simplemente máquinas estadísticas, aprenden patrones de datos. No tienen intencionalidad, solo hacen suposiciones informadas.
Mientras Altman posiblemente exageraba las capacidades de los sistemas de IA de hoy, subrayó la importancia de descubrir cómo probar de manera segura esos mismos sistemas.
«Una de las primeras cosas que necesitamos hacer, y esto ya está sucediendo, es hacer que el gobierno comience a descubrir cómo realizar pruebas de seguridad de estos sistemas, como lo hacemos con los aviones o los nuevos medicamentos,» dijo. «Yo personalmente, probablemente tenga una conversación con alguien en el gobierno cada pocos días.»
La presión de Altman por la regulación puede ser un interés propio. OpenAI se ha opuesto al proyecto de ley de seguridad de IA de California conocido como SB 1047, diciendo que «reprimirá la innovación». Ex empleados de OpenAI y expertos en IA como Geoffrey Hinton, sin embargo, han manifestado su apoyo al proyecto de ley, argumentando que impondría salvaguardias necesarias en el desarrollo de la IA.
Oprah también presionó a Altman sobre su papel como líder de OpenAI. Le preguntó por qué la gente debería confiar en él y él prácticamente evadió la pregunta, diciendo que su empresa está tratando de construir confianza con el tiempo.
Anteriormente, Altman dijo muy directamente que la gente no debería confiar en él ni en ninguna persona para asegurarse de que la IA esté beneficiando al mundo.
Oprah sobre deepfakes
Como era de esperar, en un especial sobre IA surgió el tema de los deepfakes.

Para demostrar lo convincente que se está volviendo los medios sintéticos, Brownlee comparó imágenes de muestra de Sora, el generador de videos impulsado por IA de OpenAI, con imágenes generadas por IA de un sistema de IA antiguo. La muestra de Sora estaba a años luz de distancia, ilustrando el rápido progreso del campo.
«Ahora, todavía puedes ver partes de esto y decir que algo no está del todo bien,» dijo Brownlee sobre las imágenes de Sora. Oprah dijo que se veían reales.
Los deepfakes sirvieron como introducción a una entrevista con Wray, quien recordó el momento en que se familiarizó por primera vez con la tecnología deepfake de IA.
«Estaba en una sala de conferencias, y un grupo de [FBI] se reunió para mostrarme cómo se pueden crear deepfakes mejorados con IA,» dijo Wray. «Y habían creado un video de mí diciendo cosas que nunca he dicho y que nunca diría.»
Wray habló sobre la creciente prevalencia de la sextorsión asistida por IA. Según la empresa de ciberseguridad ESET, hubo un aumento del 178% en casos de sextorsión entre 2022 y 2023, impulsado en parte por la tecnología de IA.
«Alguien haciéndose pasar por un par se dirige a un adolescente,» dijo Wray, «luego utiliza imágenes comprometedoras [generadas por IA] para convencer al chico de enviar imágenes reales a cambio. De hecho, es algún tipo detrás de un teclado en Nigeria, y una vez que tienen las imágenes, amenazan con chantajear al niño y dicen, si no pagas, vamos a compartir estas imágenes que arruinarán tu vida.»
Wray también mencionó la desinformación en torno a las próximas elecciones presidenciales de EE. UU. Al afirmar que «no es momento de entrar en pánico», destacó que es fundamental que «todos en Estados Unidos» traigan un sentido intensificado de enfoque y precaución al uso de la IA y tener en cuenta que la IA «puede ser utilizada por los malos en contra de todos nosotros.»
«Nos encontramos muy a menudo con que algo en las redes sociales que parece ser Bill de Topeka o Mary de Dayton en realidad es, ya sabe, algún oficial de inteligencia ruso o chino en las afueras de Beijing o Moscú,» dijo Wray. En efecto, una encuesta de Statista encontró que más de un tercio de los encuestados en EE. UU. vieron información engañosa, o lo que sospechaban era desinformación, sobre temas clave hacia finales de 2023. Este año, imágenes engañosas generadas por IA de los candidatos VP Kamala Harris y el expresidente Donald Trump han obtenido millones de visualizaciones en redes sociales, incluyendo X.
Bill Gates sobre la interrupción de la IA
Para un cambio de ritmo tecno-optimista, Oprah entrevistó al fundador de Microsoft, Bill Gates, quien expresó la esperanza de que la IA impulse los campos de la educación y la medicina.
«La IA es como una tercera persona sentada en [una cita médica,] haciendo un transcripción, sugiriendo una receta,» dijo Gates. «Y así, en lugar de que el doctor mire a una pantalla de computadora, están interactuando contigo, y el software se asegura de que haya una transcripción realmente buena.»
Gates ignoró el potencial de sesgo derivado de una mala formación de IA, sin embargo.
Un estudio reciente demostró que los sistemas de reconocimiento de voz de empresas tecnológicas líderes tenían el doble de probabilidades de transcribir incorrectamente el audio de oradores negros que el de oradores blancos. Otros estudios han demostrado que los sistemas de IA refuerzan creencias falsas y arraigadas de que existen diferencias biológicas entre personas negras y blancas, falsedades que llevan a los clínicos a diagnosticar problemas de salud de forma incorrecta.
En el aula, dijo Gates, la IA puede estar «siempre disponible» y «entender cómo motivarte… sea cual sea tu nivel de conocimiento.»
Esa no es exactamente la forma en que muchos ven las aulas.
El verano pasado, escuelas y universidades se apresuraron a prohibir ChatGPT por temores de plagio y desinformación. Desde entonces, algunos han revertido sus prohibiciones. Pero no todos están convencidos del potencial del IA generativa para el bien, señalando encuestas como la del Centro para un Internet Más Seguro del Reino Unido, que encontró que más de la mitad de los niños informan haber visto a personas de su edad usar GenAI de manera negativa, por ejemplo, creando información falsa creíble o imágenes utilizadas para molestar a alguien.
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) pidió a los gobiernos que regulen el uso de GenAI en la educación, incluyendo la implementación de límites de edad para los usuarios y protecciones en la protección de datos y la privacidad del usuario.