El decreto de IA de Biden es aclamado como amplio, pero no profundo sin una legislación que lo respalde

Spread the love

La administración de Biden anunció hoy los detalles de una orden ejecutiva muy esperada sobre IA, justo antes de una cumbre internacional sobre seguridad en IA que se lleva a cabo en el Reino Unido. Pero, como con todas las órdenes de este tipo, lo que el presidente puede dictar sin el apoyo legislativo es limitado, como lo enfatizaron numerosos expertos y partes interesadas en respuesta.

La orden llega en momentos en que los gobiernos de todo el mundo continúan intentando abordar las oportunidades y riesgos de la IA, que hasta ahora ha demostrado ser un objetivo en movimiento demasiado rápido para los reguladores. Enfrentando el doble riesgo de una acción prematura que enfriaría la innovación y una acción dilatoria que permitiría abusos o explotaciones, EE.UU. y la UE han evitado el primero pero, debido a largos procesos de argumentación y redacción, están avanzando a toda velocidad hacia el segundo.

La EO de Biden opera como una medida provisional que respalda las prácticas «voluntarias» que muchas empresas ya eligen implementar. Los límites de lo que un presidente puede hacer con un simple gesto significa que en realidad se trata de compartir resultados, desarrollar las mejores prácticas y proporcionar orientación clara.

Esto se debe a que actualmente no hay un remedio legislativo para los posibles riesgos y abusos de la IA que no puedan aplicarse a las compañías tecnológicas en general, las cuales muchos han argumentado que también son insuficientes. La acción federal en las redes sociales y los monopolios de facto como Amazon y Google ha sido esporádica, aunque una nueva FTC beligerante podría cambiar esa tendencia.

Mientras tanto, una ley integral que defina y limite el uso de la IA parece estar tan lejos ahora como lo estaba hace años. La industria y la tecnología han evolucionado tan rápidamente que cualquier regla probablemente estaría desactualizada en el momento en que se aprobara. Ni siquiera está claro qué debería ser limitado legislativamente, en lugar de dejarse a la ley estatal o a las agencias expertas.

Quizás el enfoque más sabio sea establecer una nueva agencia federal dedicada a regular la IA y la tecnología, pero esto no se puede lograr por decreto. Mientras tanto, la EO al menos instruye a varios grupos centrados en la IA, como uno en el Departamento de Salud y Servicios Humanos dedicado a manejar y evaluar informes de daños relacionados con la IA en la atención médica.

El presidente Biden emite orden ejecutiva para establecer estándares de seguridad en IA.

Senator Mark Warner de Virginia dijo estar «impresionado por la amplitud» de la orden, aunque, implica, no por la profundidad.

«También estoy contento de ver varias secciones que se alinean estrechamente con mis esfuerzos en torno a la seguridad y la seguridad de la IA y el uso de la IA por parte del gobierno federal», dijo en un comunicado. «Al mismo tiempo, muchas de estas solo rascan la superficie, particularmente en áreas como la atención médica y la política de competencia. Aunque este es un buen paso adelante, necesitamos medidas legislativas adicionales, y seguiré trabajando diligentemente…» etc.

Imagem destacada

Dada la situación de la legislatura y el hecho de que un período electoral increíblemente controvertido se avecina, será un milagro si se aprueba alguna ley sustantiva en el futuro cercano, y mucho menos un proyecto de ley potencialmente divisivo y complejo como las reglas de la IA.

Paul Barrett, subdirector del Centro de Derechos Humanos y Negocios de NYU Stern, reconoció ambas partes del problema.

«El presidente Biden está enviando un mensaje valioso de que ciertos sistemas de IA crean riesgos inmediatos que exigen atención inmediata. La administración se está moviendo en la dirección correcta», escribió. «Pero hoy es solo el comienzo de un proceso regulador que será largo y arduo, y que en última instancia deberá exigir que las empresas que obtienen beneficios de la IA demuestren que sus productos son seguros y efectivos, al igual que los fabricantes de productos farmacéuticos o químicos industriales o aviones deben demostrar que sus productos son seguros y efectivos. Sin recursos nuevos proporcionados por el Congreso, no está claro que el gobierno federal tenga los recursos para evaluar el proceso de capacitación enormemente complicado o la adecuación de las pruebas de red y otras pruebas necesarias».

Sheila Gulati, cofundadora de Tola Capital, dijo que la EO mostraba una «clara intención de mantener un equilibrio entre promover la innovación y proteger a los ciudadanos».

«Es esencial que no evitemos la innovación ágil de las startups. Colocar la explicabilidad de la IA en primer plano, adoptar un enfoque basado en el riesgo con más énfasis en áreas donde podría haber juego injusto o sesgo, y colocar la seguridad y la privacidad en el centro de atención son pasos sensatos», le dijo a TechCrunch. «Con esta orden ejecutiva y las implicaciones de los estándares a través de NIST, anticiparíamos un liderazgo de los organismos de normalización en lugar de los legisladores a corto plazo».

También vale la pena mencionar que el gobierno federal es un cliente importante de los productos de IA y tecnología actuales, y cualquier empresa que pretenda mantenerlo como cliente querrá seguir las reglas por el momento.

Bob Cattanach, socio de la mega firma legal Dorsey and Whitney, agregó que el momento se siente un tanto incómodo.

«… La orden ejecutiva preemite torpemente la voz de la vicepresidenta Harris en una Cumbre sobre IA organizada en el Reino Unido a finales de esta semana, señalando que las preocupaciones de la Casa Blanca sobre el espacio en gran parte no regulado eran tan graves que Biden estaba preparado para alejar a aliados clave tomando una acción unilateral en lugar de aceptar los retrasos inherentes en el proceso más colaborativo actualmente en marcha en la UE».

Alejar es quizás una palabra fuerte para describirlo. Y, por supuesto, el Reino Unido no es la UE. Y es probable que ese «proceso más colaborativo» lleve unos años más, y es poco probable que la administración quiera esperar hasta entonces. Sin embargo, hubiera sido más coherente y amistoso con los aliados que Harris discutiera la EO en la cumbre. Sus comentarios (que sin duda sugerirán la necesidad de armonía internacional en la regulación de la IA, con los EE.UU. modestamente liderando) se transmitirán el 1 de noviembre, y deberías poder sintonizar aquí.

Cómo la inteligencia operacional puede transformar una startup

Fiscales de la SBF enfatizan: «No se trata de criptomonedas, se trata de mentiras. Se trata de robar, de avaricia».