SoundCloud cambia políticas para permitir entrenamiento de IA en contenido de usuarios

Spread the love

SoundCloud parece haber cambiado silenciosamente sus términos de uso para permitir a la empresa entrenar a la inteligencia artificial en el audio que los usuarios suben a su plataforma. Según lo señalado por el ético tecnológico Ed Newton-Rex, la última versión de los términos de SoundCloud incluye una disposición que otorga a la plataforma el permiso para utilizar el contenido subido para “informar, entrenar, [o] desarrollar” la IA.

“Usted acepta explícitamente que su Contenido puede ser utilizado para informar, entrenar, desarrollar o servir como entrada a tecnologías o servicios de inteligencia artificial o máquina inteligencia como parte y para la prestación de los servicios”, rezan los términos, que fueron actualizados por última vez el 7 de febrero.

Imagem destacada

SoundCloud, al igual que muchas plataformas grandes para creadores, está abrazando cada vez más la IA. El año pasado, SoundCloud se asoció con cerca de una docena de proveedores para llevar herramientas impulsadas por IA para remezclar, generar voces y crear muestras personalizadas a su plataforma. En una publicación de blog el otoño pasado, SoundCloud dijo que estos socios recibirían acceso a soluciones de identificación de contenidos para “garantizar que los titulares de derechos reciban el reconocimiento y la compensación adecuados”, y se comprometió a “mantener prácticas éticas y transparentes de IA que respeten los derechos de los creadores”.

Varios plataformas de hospedaje de contenido y redes sociales han cambiado sus políticas en los últimos meses para permitir el entrenamiento de IA de primera y tercera parte. En octubre, X de Elon Musk actualizó su política de privacidad para permitir a empresas externas entrenar a la IA en publicaciones de usuarios. En septiembre pasado, LinkedIn enmendó sus términos para permitirse extraer datos de usuario para el entrenamiento. Y en diciembre, YouTube comenzó a permitir a terceros entrenar a la IA en clips de usuario.

Muchos de estos movimientos han generado críticas de usuarios que argumentan que las políticas de entrenamiento de IA deberían ser de aceptación voluntaria en lugar de exclusión voluntaria, y que deberían recibir crédito y pago por sus contribuciones a los conjuntos de datos de entrenamiento de IA.

El Departamento de Justicia de EE. UU. exige que Google venda dos de sus productos publicitarios

La adopción empresarial de OpenAI parece estar acelerando a costa de sus rivales