Según Odaily, ingenieros de software, desarrolladores e investigadores académicos han expresado preocupaciones sobre el impacto potencial de la herramienta de transcripción Whisper de OpenAI. Los investigadores han señalado que Whisper introduce diversas inexactitudes en las transcripciones, que van desde comentarios raciales hasta tratamientos médicos imaginarios. Este problema podría tener consecuencias particularmente graves cuando Whisper se utiliza en hospitales y otros entornos médicos. Un investigador de la Universidad de Michigan descubrió que ocho de cada diez transcripciones de audio mostraron alucinaciones durante un estudio de reuniones públicas. Un ingeniero de aprendizaje automático que analizó más de 100 horas de transcripciones de Whisper descubrió que más de la mitad contenía alucinaciones. Además, un desarrollador informó que casi todas las 26,000 transcripciones creadas utilizando Whisper mostraron signos de alucinaciones. Un portavoz de OpenAI declaró que la empresa está trabajando continuamente para mejorar la precisión del modelo, incluida la reducción de alucinaciones, y destacó que su política de uso prohíbe el uso de Whisper en ciertos entornos de toma de decisiones de alto riesgo.