Para cerrar un día de lanzamientos de productos, los investigadores, ingenieros y ejecutivos de OpenAI, incluido el CEO Sam Altman, respondieron preguntas en un Reddit AMA el viernes. OpenAI se encuentra en una posición un poco precaria. Está luchando contra la percepción de que está cediendo terreno en la carrera de IA a empresas chinas como DeepSeek, que OpenAI alega haber robado su propiedad intelectual. El fabricante de ChatGPT ha estado tratando de fortalecer su relación con Washington y al mismo tiempo seguir un ambicioso proyecto de centro de datos, mientras supuestamente está preparando el terreno para una de las rondas de financiamiento más grandes de la historia.
Altman admitió que DeepSeek ha disminuido la ventaja de OpenAI en IA, y dijo que cree que OpenAI ha estado «en el lado equivocado de la historia» cuando se trata de la liberación de sus tecnologías. Aunque OpenAI ha liberado modelos en el pasado, la empresa generalmente ha favorecido un enfoque de desarrollo propietario y cerrado. «Personalmente, creo que necesitamos encontrar una estrategia de código abierto diferente», dijo Altman. «No todos en OpenAI comparten esta visión, y tampoco es nuestra máxima prioridad en este momento… Produciremos modelos mejores en el futuro, pero mantendremos menos ventaja de la que teníamos en años anteriores». En una respuesta posterior, Kevin Weil, director de producto de OpenAI, dijo que OpenAI está considerando liberar modelos antiguos que ya no son de última generación. «Definitivamente pensaremos en hacer más de esto», dijo, sin entrar en más detalles.
Además de llevar a OpenAI a reconsiderar su filosofía de liberación, Altman dijo que DeepSeek ha empujado a la compañía a revelar más sobre cómo sus modelos de razonamiento, como el modelo o3-mini lanzado hoy, muestran su «proceso de pensamiento». Actualmente, los modelos de OpenAI ocultan su razonamiento, una estrategia destinada a evitar que los competidores raspen datos de entrenamiento para sus propios modelos. En contraste, el modelo de razonamiento de DeepSeek, R1, muestra toda su cadena de pensamiento. «Estamos trabajando en mostrar mucho más de lo que mostramos hoy —[mostrar el proceso de pensamiento del modelo] será muy muy pronto», agregó Weil. «Por determinar en todo — mostrar toda la cadena de pensamiento conduce a la destilación competitiva, pero también sabemos que las personas (al menos los usuarios avanzados) lo desean, así que encontraremos la manera correcta de equilibrarlo».

Altman y Weil intentaron desmentir los rumores de que ChatGPT, la plataforma de chatbot a través de la cual OpenAI lanza muchos de sus modelos, aumentaría de precio en el futuro. Altman dijo que le gustaría hacer que ChatGPT sea «más barato» con el tiempo, si es posible. Altman previamente dijo que OpenAI estaba perdiendo dinero en su plan más caro de ChatGPT, ChatGPT Pro, que cuesta $200 al mes. En un hilo algo relacionado, Weil dijo que OpenAI sigue viendo evidencia de que más poder de cómputo lleva a modelos «mejores» y más eficientes. Eso es en gran parte lo que está requiriendo proyectos como Stargate, el recientemente anunciado proyecto masivo de centro de datos de OpenAI, dijo Weil. Servir a una base de usuarios en crecimiento está impulsando la demanda de cómputo dentro de OpenAI también, continuó.
Cuando se le preguntó sobre la auto-mejora recursiva que podrían permitir estos modelos poderosos, Altman dijo que cree que un «despegue rápido» es más plausible de lo que una vez creyó. La auto-mejora recursiva es un proceso en el que un sistema de IA podría mejorar su propia inteligencia y capacidades sin la intervención humana. Por supuesto, vale la pena señalar que Altman es conocido por prometer demasiado. No hace mucho tiempo que bajó la barra de OpenAI para AGI. Un usuario de Reddit preguntó si los modelos de OpenAI, auto-mejorando o no, serían utilizados para desarrollar armas destructivas, específicamente armas nucleares. Esta semana, OpenAI anunció una asociación con el gobierno de EE. UU. para dar sus modelos a los Laboratorios Nacionales de EE. UU. en parte para la investigación de defensa nuclear. Weil dijo que confía en el gobierno. «He llegado a conocer a estos científicos y son expertos en IA además de ser investigadores de clase mundial», dijo. «Ellos entienden el poder y los límites de los modelos, y no creo que haya ninguna posibilidad de que simplemente tomen una salida de modelo en un cálculo nuclear. Son inteligentes y basados en evidencia, y realizan mucha experimentación y trabajo de datos para validar todo su trabajo».
Al equipo de OpenAI se le hicieron varias preguntas de naturaleza más técnica, como cuándo se lanzará el próximo modelo de razonamiento de OpenAI, o3 («más de algunas semanas, menos de algunos meses», dijo Altman); cuándo podría llegar el próximo modelo «no de razonamiento» insignia de la empresa, GPT-5 («aún no tenemos una línea de tiempo», dijo Altman); y cuándo podría OpenAI revelar un sucesor de DALL-E 3, el modelo generador de imágenes de la compañía. DALL-E 3, que se lanzó hace unos dos años, ha quedado algo obsoleto. La tecnología de generación de imágenes ha mejorado mucho desde el debut de DALL-E 3, y el modelo ya no es competitivo en varias pruebas de referencia. «¡Sí! Estamos trabajando en eso», dijo Weil sobre un sucesor de DALL-E 3. «Y creo que valdrá la pena la espera».
