Un sistema impulsado por inteligencia artificial podría pronto hacerse responsable de evaluar los posibles daños y riesgos de privacidad de hasta el 90% de las actualizaciones realizadas en aplicaciones de Meta como Instagram y WhatsApp, según documentos internos vistos por NPR.
NPR afirma que un acuerdo de 2012 entre Facebook (ahora Meta) y la Comisión Federal de Comercio requiere que la empresa realice revisiones de privacidad de sus productos, evaluando los riesgos de cualquier actualización potencial. Hasta ahora, esas revisiones han sido realizadas en su mayoría por evaluadores humanos.
Bajo el nuevo sistema, Meta supuestamente dijo que los equipos de productos deberán completar un cuestionario sobre su trabajo, luego recibirán generalmente una «decisión instantánea» con riesgos identificados por IA, junto con los requisitos que una actualización o función debe cumplir antes de su lanzamiento.

Este enfoque centrado en IA permitiría a Meta actualizar sus productos más rápidamente, pero un ex ejecutivo le dijo a NPR que también crea «mayores riesgos», ya que «es menos probable que las externalidades negativas de los cambios en el producto se prevengan antes de que comiencen a causar problemas en el mundo.»
En un comunicado, un portavoz de Meta dijo que la empresa ha «invertido más de $8 mil millones en nuestro programa de privacidad» y está comprometida a «ofrecer productos innovadores para las personas cumpliendo con las obligaciones regulatorias.»
«A medida que evolucionan los riesgos y nuestro programa madura, mejoramos nuestros procesos para identificar mejor los riesgos, agilizar la toma de decisiones y mejorar la experiencia de las personas,» dijo el portavoz. «Utilizamos la tecnología para agregar consistencia y previsibilidad a las decisiones de bajo riesgo y confiamos en la experiencia humana para evaluaciones rigurosas y supervisión de problemas novedosos o complejos.»
Esta publicación ha sido actualizada con citas adicionales del comunicado de Meta.