Согласно Odaily, программисты, разработчики и академические исследователи выразили обеспокоенность потенциальным воздействием инструмента транскрипции Whisper от OpenAI. Исследователи отметили, что Whisper вводит различные неточности в транскрипции, начиная от расовых комментариев и заканчивая вымышленными медицинскими процедурами. Эта проблема может иметь особенно серьезные последствия, когда Whisper используется в больницах и других медицинских учреждениях. Исследователь из Мичиганского университета обнаружил, что восемь из десяти аудиотранскрипций содержали галлюцинации во время исследования на общественном собрании. Инженер машинного обучения, который проанализировал более 100 часов транскрипций Whisper, обнаружил, что более половины из них содержали галлюцинации. Кроме того, разработчик сообщил, что почти все из 26 000 транскрипций, созданных с помощью Whisper, показывают признаки галлюцинаций. Представитель OpenAI заявил, что компания постоянно работает над улучшением точности модели, включая снижение галлюцинаций, и подчеркнул, что их политика использования запрещает использование Whisper в определенных высокорисковых условиях принятия решений.