Ingenieros de software, desarrolladores e investigadores académicos tienen serias preocupaciones sobre las transcripciones de Whisper de OpenAI, según un informe de Associated Press. Aunque se ha hablado mucho sobre la tendencia de la inteligencia artificial generativa a alucinar, básicamente, a inventar cosas, es un poco sorprendente que esto sea un problema en la transcripción, donde esperarías que la transcripción siga de cerca el audio que se está transcribiendo.

En lugar de eso, los investigadores le dijeron a AP que Whisper ha introducido desde comentarios raciales hasta tratamientos médicos imaginarios en las transcripciones. Y esto podría ser particularmente desastroso ya que Whisper se está adoptando en hospitales y otros contextos médicos. Un investigador de la Universidad de Michigan que estudiaba reuniones públicas encontró alucinaciones en ocho de cada 10 transcripciones de audio. Un ingeniero de aprendizaje automático estudió más de 100 horas de transcripciones de Whisper y encontró alucinaciones en más de la mitad de ellas. Y un desarrollador informó haber encontrado alucinaciones en casi todas las 26,000 transcripciones que creó con Whisper. Un portavoz de OpenAI dijo que la empresa «trabaja continuamente para mejorar la precisión de nuestros modelos, incluida la reducción de alucinaciones» y señaló que sus políticas de uso prohíben el uso de Whisper «en ciertos contextos de toma de decisiones de alto riesgo». «Agradecemos a los investigadores por compartir sus hallazgos», dijeron.
