¡Meta afirma que el contenido de IA representó menos del 1% de la desinformación relacionada con las elecciones en sus aplicaciones!

Spread the love

A principios de año, había una gran preocupación sobre cómo la inteligencia artificial generativa podría usarse para interferir en elecciones globales y propagar propaganda y desinformación. Avanzamos rápidamente hasta el final del año, Meta afirmó que esos temores no se materializaron, al menos en sus plataformas, al compartir que la tecnología tuvo un impacto limitado en Facebook, Instagram y Threads.

La empresa dice que sus hallazgos se basan en contenido relacionado con elecciones importantes en EE. UU., Bangladesh, Indonesia, India, Pakistán, el Parlamento de la UE, Francia, el Reino Unido, Sudáfrica, México y Brasil.

«Mientras hubo instancias de uso confirmado o sospechoso de inteligencia artificial de esta manera, los volúmenes se mantuvieron bajos y nuestras políticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido de inteligencia artificial generativa», escribió la empresa en una publicación de blog. «Durante el período de elecciones en las elecciones importantes mencionadas anteriormente, las calificaciones para el contenido de AI relacionado con elecciones, política y temas sociales representaron menos del 1% de toda la desinformación verificada».

Meta señala que su generador de imágenes Imagine AI rechazó 590,000 solicitudes para crear imágenes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al día de las elecciones para evitar que las personas crearan deepfakes relacionados con las elecciones.

Imagem destacada

La empresa también descubrió que las redes coordinadas de cuentas que buscaban propagar propaganda o desinformación «solo lograron ganancias incrementales en productividad y generación de contenido utilizando inteligencia artificial generativa».

Meta dice que el uso de la inteligencia artificial no impidió su capacidad para desmantelar estas campañas de influencia encubierta porque se enfoca en el comportamiento de estas cuentas, no en el contenido que publican, independientemente de si fue creado con inteligencia artificial.

El gigante tecnológico también reveló que desmanteló alrededor de 20 nuevas operaciones de influencia encubierta en todo el mundo para prevenir la interferencia extranjera. Meta dice que la mayoría de las redes que interrumpió no tenían audiencias auténticas y que algunas de ellas usaban me gusta y seguidores falsos para parecer más populares de lo que realmente eran.

Meta pasó a señalar a otras plataformas, notando que los videos falsos sobre las elecciones de EE. UU. vinculados a operaciones de influencia con sede en Rusia a menudo se publicaban en X y Telegram.

«A medida que hacemos balance de lo que hemos aprendido durante este año notable, mantendremos nuestras políticas en revisión y anunciaremos cualquier cambio en los próximos meses», escribió Meta.

Amazon Music lanza 2024 A Entregar, su versión de Spotify Wrapped

La app de saludos de celebridades Cameo se enfoca en creadores