¡Esta semana en IA: Viene una IA más capaz, pero ¿sus beneficios serán distribuidos equitativamente?¡

Spread the love

Hola, amigos, bienvenidos al boletín de inteligencia artificial regular de TechCrunch. Si quieres recibir esto en tu bandeja de entrada todos los miércoles, regístrate aquí.

El ciclo de noticias sobre IA no se detuvo mucho en esta temporada navideña. Entre los 12 días de «shipmas» de OpenAI y el importante lanzamiento de modelos de DeepSeek el día de Navidad, parpadea y te puedes perder algún nuevo avance.

Y no se está frenando ahora. El domingo, el CEO de OpenAI, Sam Altman, dijo en una publicación en su blog personal que cree que OpenAI sabe cómo construir inteligencia artificial general (AGI) y está comenzando a dirigir su objetivo hacia la superinteligencia.

AGI es un término nebuloso, pero OpenAI tiene su propia definición: «sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos.» En cuanto a la superinteligencia, que Altman entiende como un paso más allá de la AGI, dijo en la publicación del blog que podría «acelerar masivamente» la innovación mucho más allá de lo que los humanos son capaces de lograr por sí mismos.

«[OpenAI sigue] creyendo que poner de forma iterativa grandes herramientas en manos de las personas conduce a grandes resultados ampliamente distribuidos», escribió Altman.

Altman, al igual que el CEO de Anthropic, Dario Amodei, cree optimistamente que la AGI y la superinteligencia llevarán a la riqueza y la prosperidad para todos. Pero asumiendo que la AGI y la superinteligencia son factibles incluso sin nuevos avances técnicos, ¿cómo podemos estar seguros de que beneficiarán a todos?

Un punto de datos reciente preocupante es un estudio señalado por el profesor de Wharton, Ethan Mollick, a principios de este mes. Investigadores de la Universidad Nacional de Singapur, la Universidad de Rochester y la Universidad Tsinghua investigaron el impacto del chatbot impulsado por IA de OpenAI, ChatGPT, en los freelancers de diferentes mercados laborales.

El estudio identificó un «punto de inflexión de IA económica» para diferentes tipos de trabajos. Antes del punto de inflexión, la IA aumentó las ganancias de los freelancers. Por ejemplo, los desarrolladores web vieron un aumento del ~65%. Pero después del punto de inflexión, la IA comenzó a reemplazar a los freelancers. Los traductores vieron una caída aproximada del 30%.

El estudio sugiere que una vez que la IA comienza a reemplazar un trabajo, no retrocede. Y eso debería preocuparnos a todos si es que una IA más capaz está realmente en el horizonte.

Altman escribió en su publicación que está «bastante seguro» de que «todos» verán la importancia de «maximizar el beneficio y el empoderamiento general» en la era de la AGI —y la superinteligencia. Pero ¿qué sucede si está equivocado? ¿Y si la AGI y la superinteligencia llegan, y solo las corporaciones tienen algo que mostrar por ello?

La consecuencia no será un mundo mejor, sino más de la misma desigualdad. Y si ese es el legado de la IA, será uno profundamente deprimente.

Noticias

Créditos de la imagen: Moor Studio / Getty Images

Silicon Valley sofoca al doom: Los tecnólogos llevan años sonando las alarmas sobre el potencial de la IA para causar daños catastróficos. Pero en 2024, esas llamadas de advertencia quedaron ahogadas.

OpenAI está perdiendo dinero: El CEO de OpenAI, Sam Altman, dijo que la empresa está perdiendo dinero actualmente en su plan ChatGPT Pro de $200 al mes porque la gente lo está utilizando más de lo esperado por la compañía.

Financiamiento récord para la IA generativa: Las inversiones en IA generativa, que abarca una variedad de aplicaciones, herramientas y servicios impulsados por IA para generar texto, imágenes, videos, voz, música y más, alcanzaron nuevos niveles el año pasado.

Imagem destacada

Microsoft aumenta el gasto en centros de datos: Microsoft ha destinado $80 mil millones en el año fiscal 2025 para construir centros de datos diseñados para manejar cargas de trabajo de IA.

Grok 3 desaparecido: El modelo de IA de próxima generación de xAI, Grok 3, no llegó a tiempo, sumándose a una tendencia de modelos insignia que no cumplieron con sus ventanas de lanzamiento prometidas.

Documento de investigación de la semana

La IA puede cometer muchos errores. Pero también puede potenciar a los expertos en su trabajo.

Al menos, eso es lo que encontró un equipo de investigadores de la Universidad de Chicago y el MIT. En un nuevo estudio, sugieren que los inversionistas que utilizan el GPT-4o de OpenAI para resumir llamadas de ganancias obtienen mayores rendimientos que aquellos que no lo hacen.

Los investigadores reclutaron a inversionistas y tuvieron a GPT-4o darles resúmenes de IA alineados con su experiencia en inversión. Los inversionistas sofisticados recibieron notas técnicas generadas por IA, mientras que los novatos recibieron notas más simples.

Los inversionistas más experimentados vieron una mejora del 9.6% en sus rendimientos anuales después de usar GPT-4o, mientras que los inversionistas menos experimentados vieron un aumento del 1.7%. No está mal para la colaboración AI-humano, diría yo.

Modelo de la semana

Créditos de la imagen: Prime Intellect

Prime Intellect, una startup que construye infraestructura para el entrenamiento de sistemas de IA descentralizados, ha lanzado un modelo de IA que, según afirma, puede ayudar a detectar patógenos.

El modelo, llamado METAGENE-1, fue entrenado con un conjunto de datos de más de 1.5 billones de pares de bases de ADN y ARN secuenciados a partir de muestras de aguas residuales humanas. Creado en colaboración con la Universidad del Sur de California y el Observatorio de Ácidos Nucleicos de SecureBio, METAGENE-1 puede ser usado para varias aplicaciones metagenómicas, dijo Prime Intellect, como el estudio de organismos.

«METAGENE-1 alcanza un rendimiento de vanguardia en varios benchmarks genómicos y nuevas evaluaciones centradas en la detección de patógenos humanos», escribió Prime Intellect en una serie de publicaciones en X. «Después del pre-entrenamiento, este modelo está diseñado para ayudar en tareas en las áreas de biovigilancia, monitoreo de pandemias y detección de patógenos.»

Miscelánea

En respuesta a una demanda legal de importantes editoriales de música, Anthropic ha acordado mantener medidas de protección para evitar que su chatbot impulsado por IA, Claude, comparta letras de canciones con derechos de autor.

Discográficas, incluyendo Universal Music Group, Concord Music Group y ABKCO, demandaron a Anthropic en 2023, acusando a la startup de infringir derechos de autor por entrenar sus sistemas de IA en letras de al menos 500 canciones. La demanda no se ha resuelto, pero por el momento, Anthropic ha acordado evitar que Claude proporcione letras de canciones de los editores y cree nuevas letras de canciones basadas en el material con derechos de autor.

«Seguimos esperando demostrar que, conforme a la ley de derechos de autor existente, el uso de material potencialmente protegido por derechos de autor en el entrenamiento de modelos de IA generativos es un uso justo quintesencial», dijo Anthropic en un comunicado.

Agencia de aviación de la ONU investiga violación de seguridad por presunto robo de datos personales ¡Última noticia!

Beams asegura $9 millones en la Serie A para digitalizar el mercado de renovación de hogares en el Reino Unido