¡Investigadores aseguran que la herramienta de transcripción Whisper de OpenAI tiene problemas de alucinaciones!

Spread the love

Ingenieros de software, desarrolladores e investigadores académicos tienen serias preocupaciones sobre las transcripciones de Whisper de OpenAI, según un informe de Associated Press. Aunque se ha hablado mucho sobre la tendencia de la inteligencia artificial generativa a alucinar, básicamente, a inventar cosas, es un poco sorprendente que esto sea un problema en la transcripción, donde esperarías que la transcripción siga de cerca el audio que se está transcribiendo.

Imagem destacada

En lugar de eso, los investigadores le dijeron a AP que Whisper ha introducido desde comentarios raciales hasta tratamientos médicos imaginarios en las transcripciones. Y esto podría ser particularmente desastroso ya que Whisper se está adoptando en hospitales y otros contextos médicos. Un investigador de la Universidad de Michigan que estudiaba reuniones públicas encontró alucinaciones en ocho de cada 10 transcripciones de audio. Un ingeniero de aprendizaje automático estudió más de 100 horas de transcripciones de Whisper y encontró alucinaciones en más de la mitad de ellas. Y un desarrollador informó haber encontrado alucinaciones en casi todas las 26,000 transcripciones que creó con Whisper. Un portavoz de OpenAI dijo que la empresa «trabaja continuamente para mejorar la precisión de nuestros modelos, incluida la reducción de alucinaciones» y señaló que sus políticas de uso prohíben el uso de Whisper «en ciertos contextos de toma de decisiones de alto riesgo». «Agradecemos a los investigadores por compartir sus hallazgos», dijeron.

¡X lanza su herramienta de búsqueda en tiempo real, Radar, para sus suscriptores Premium+!

OpenAI planea construir su primer chip de inteligencia artificial en 2026