Un controvertido proyecto de ley de California para prevenir desastres de inteligencia artificial, SB 1047, ha pasado votos finales en el Senado del estado y ahora avanza hacia el escritorio del gobernador Gavin Newsom. Él debe sopesar los riesgos teóricos más extremos de los sistemas de IA —incluyendo su papel potencial en muertes humanas— contra la posibilidad de frenar el auge de la IA en California. Tiene hasta el 30 de septiembre para firmar el SB 1047 como ley, o vetarlo por completo.
Introducido por el senador estatal Scott Wiener, el SB 1047 tiene como objetivo prevenir la posibilidad de que modelos de IA muy grandes creen eventos catastróficos, como pérdida de vidas o ciberataques que cuesten más de $500 millones en daños.
Para ser claros, hoy en día existen muy pocos modelos de IA lo suficientemente grandes como para estar cubiertos por el proyecto de ley, y la IA nunca se ha utilizado en un ciberataque de esta escala. Pero el proyecto de ley se refiere al futuro de los modelos de IA, no a problemas que existan hoy.
El SB 1047 haría que los desarrolladores de modelos de IA sean responsables por sus daños, al igual que los fabricantes de armas son responsables por los tiroteos masivos, y otorgaría al fiscal general de California el poder de demandar a empresas de IA por penas cuantiosas si su tecnología se utilizara en un evento catastrófico. En caso de que una empresa actúe de manera imprudente, un tribunal puede ordenarles que detengan las operaciones; los modelos cubiertos también deben tener un «interruptor de apagado» que les permita ser apagados si se consideran peligrosos.
El proyecto de ley podría transformar la industria de la IA en Estados Unidos, y está a un paso de convertirse en ley. Así es como podría desarrollarse en el futuro el SB 1047.
¿Por qué Newsom podría firmarlo?
Wiener argumenta que Silicon Valley necesita más responsabilidad, diciéndole previamente a TechCrunch que América debe aprender de sus fracasos pasados en la regulación de la tecnología. Newsom podría verse motivado a actuar con decisión en la regulación de la IA y responsabilizar a las grandes empresas tecnológicas.
Algunos ejecutivos de IA han surgido como cautelosamente optimistas con respecto al SB 1047, incluido Elon Musk.
Otro optimista cauteloso en el SB 1047 es la ex directora de IA de Microsoft, Sophia Velastegui. Ella le dijo a TechCrunch que “el SB 1047 es un buen compromiso”, mientras admite que el proyecto de ley no es perfecto. “Creo que necesitamos una oficina de IA responsables para Estados Unidos, o cualquier país que trabaje en ello. No debería ser solo Microsoft”, dijo Velastegui.
Anthropic es otro defensor cauteloso del SB 1047, aunque la empresa no ha tomado una posición oficial sobre el proyecto de ley. Varias de las modificaciones propuestas por la startup se agregaron al SB 1047, y el CEO Dario Amodei ahora dice en una carta al gobernador de California que los «beneficios probablemente superen sus costos». Gracias a las enmiendas de Anthropic, las empresas de IA solo pueden ser demandadas después de que sus modelos de IA causen algún daño catastrófico, no antes, como indicaba una versión anterior del SB 1047.
¿Por qué Newsom podría vetarlo?
Dada la fuerte oposición de la industria al proyecto de ley, no sería sorprendente si Newsom lo vetara. Si lo firma, estaría arriesgando su reputación en el SB 1047, pero si lo veta, podría posponer la decisión para el año siguiente o dejar que el Congreso se encargue del asunto.
«Esto [SB 1047] cambia el precedente con el que hemos tratado la política de software durante 30 años», argumentó el socio general de Andreessen Horowitz, Martin Casado, en una entrevista con TechCrunch. “Desplaza la responsabilidad de las aplicaciones y la aplica a la infraestructura, algo que nunca habíamos hecho antes”.

La industria tecnológica ha respondido con una contundente protesta contra el SB 1047. Junto con a16z, la presidenta Nancy Pelosi, OpenAI, grupos comerciales de Big Tech e investigadores destacados en IA también están instando a Newsom a no firmar el proyecto de ley. Temen que este cambio de paradigma en la responsabilidad tenga un efecto disuasorio en la innovación de la IA en California.
El efecto disuasorio en la economía de las startups es lo último que alguien quiere. El auge de la IA ha sido un gran estímulo para la economía estadounidense, y Newsom enfrenta la presión de no desperdiciar eso. Incluso la Cámara de Comercio de Estados Unidos le ha pedido a Newsom que vete el proyecto de ley, diciendo que «la IA es fundamental para el crecimiento económico de Estados Unidos» en una carta dirigida a él.
Si el SB 1047 se convierte en ley
Si Newsom firma el proyecto de ley, no ocurrirá nada el primer día, según una fuente involucrada en la redacción del SB 1047.
Para el 1 de enero de 2025, las empresas tecnológicas deberían redactar informes de seguridad para sus modelos de IA. En ese momento, el fiscal general de California podría solicitar una orden judicial, que requeriría que una empresa de IA detenga el entrenamiento u operación de sus modelos de IA si un tribunal los considera peligrosos.
En 2026, más aspectos del proyecto de ley comenzarían a funcionar. En ese momento, se crearía la Junta de Modelos Fronterizos y comenzaría a recopilar informes de seguridad de empresas tecnológicas. La junta de nueve miembros, seleccionada por el gobernador y la legislatura de California, haría recomendaciones al fiscal general de California sobre qué empresas cumplen o no.
Ese mismo año, el SB 1047 también requeriría que los desarrolladores de modelos de IA contrataran auditores para evaluar sus prácticas de seguridad, creando efectivamente una nueva industria para la conformidad con la seguridad de la IA. Y el fiscal general de California podría comenzar a demandar a los desarrolladores de modelos de IA si sus herramientas se utilizan en eventos catastróficos.
Para 2027, la Junta de Modelos Fronterizos podría comenzar a emitir orientaciones a los desarrolladores de modelos de IA sobre cómo entrenar y operar de manera segura y segura los modelos de IA.
Si el SB 1047 es vetado
Si Newsom veta el SB 1047, los deseos de OpenAI se harían realidad y es probable que los reguladores federales tomen la delantera en la regulación de los modelos de IA… eventualmente.
El jueves, OpenAI y Anthropic establecieron las bases de cómo se vería la regulación federal de la IA. Acordaron dar al Instituto de Seguridad de la IA, un organismo federal, acceso anticipado a sus modelos de IA avanzados, según un comunicado de prensa. Al mismo tiempo, OpenAI ha respaldado un proyecto de ley que permitiría al Instituto de Seguridad de la IA establecer estándares para los modelos de IA.
“Por muchas razones, creemos que es importante que esto suceda a nivel nacional”, escribió el CEO de OpenAI, Sam Altman, en un tuit el jueves.
Leyendo entre líneas, las agencias federales suelen producir regulaciones tecnológicas menos onerosas que las de California y tardan considerablemente más tiempo en hacerlo. Pero más que eso, Silicon Valley ha sido históricamente un importante socio táctico y comercial para el gobierno de Estados Unidos.
“De hecho, hay una larga historia de sistemas informáticos de vanguardia trabajando con el gobierno”, dijo Casado. “Cuando trabajaba para los laboratorios nacionales, cada vez que salía un nuevo superordenador, la primera versión iba directamente al gobierno. Lo hacíamos para que el gobierno tuviera capacidades, y creo que esa es una razón mejor que las pruebas de seguridad.”
