NeuroPlume
27.10
📰 Whisper: когда ИИ говорит неправду
Инструмент OpenAI Whisper, призванный превращать речь в текст, оказался не таким уж точным. Исследователи обнаружили, что он склонный к "галлюцинациям" - созданию несуществующей информации.
В транскрипциях, созданных Whisper, могут появляться расовые комментарии, вымышленные медицинские процедуры, и другие данные, которые никогда не звучали в аудиозаписи.
Почти 80% транскрипций, созданных Whisper, содержали ошибки. Это серьезная проблема, особенно в медицине, где точность транскрипций жизненно важна.
OpenAI обещает работать над улучшением точности модели, но пока остается вопрос: насколько безопасно полагаться на ИИ, который может придумывать информацию?
еще контент в этом сообществе
еще контент в этом соообществе
NeuroPlume
27.10
войдите, чтобы увидеть
и подписаться на интересных профи