📰 Whisper: когда ИИ говорит неправду

Инструмент OpenAI Whisper, призванный превращать речь в текст, оказался не таким уж точным. Исследователи обнаружили, что он склонный к "галлюцинациям" - созданию несуществующей информации.

В транскрипциях, созданных Whisper, могут появляться расовые комментарии, вымышленные медицинские процедуры, и другие данные, которые никогда не звучали в аудиозаписи.

Почти 80% транскрипций, созданных Whisper, содержали ошибки. Это серьезная проблема, особенно в медицине, где точность транскрипций жизненно важна.

OpenAI обещает работать над улучшением точности модели, но пока остается вопрос: насколько безопасно полагаться на ИИ, который может придумывать информацию?

repost

30

input message

напишите коммент

еще контент в этом сообществе

еще контент в этом соообществе

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь