Люди с трудом отличают бота от человека
Недавно наткнулся на занятную игру "Human or Not". По сути – это аналог теста Тьюринга из того самого "Бегущего по лезвию". У игрока есть всего две минуты, чтобы понять, общается он с живым человеком или с AI-ботом. И, честно говоря, задача не из лёгких.
Цель ботов – научиться общаться так, чтобы человек принимал их за живого собеседника. Пока у них неплохо получается, уже сыграно более чем 11 миллионов игр, и в 48% боты смогли обмануть игроков и убедить в своей “человечности”. О чем это нам говорит? О том, что алгоритмы становятся всё более изощрёнными в своём стремлении имитировать человеческое общение.
Кажется, что при более длительном общении, человек все-таки способен распознать бота. Но вспомним историю из Georgia Institute of Technology, где студенты несколько месяцев общались с “преподавателем” Джилл Уотсон, даже не подозревая, что это ИИ на базе IBM Watson.
Почему же людям так легко спутать ИИ и человека? Нейронки с каждым днём поглощают всё больше информации и лучше мимикрируют под человеческое поведение. Они учатся шутить, в диалогах могут писать "u" вместо "you", начинают отвечать нестандартно. Даже тест Тьюринга уже устарел – в 2023 году ChatGPT его успешно прошел. Теперь ученые ищут новые способы оценки и механизмы для выявления признаков ИИ.
Возникает закономерный вопрос: есть ли что-то, что ИИ никогда не сможет имитировать в общении с человеком? Если говорить о текстовом общении в формате чата, то, похоже, таких вещей становится всё меньше. Однако, чтобы распознать бота, можно попробовать задавать непредсказуемые и ломающие логику восприятия вопросы, а также использовать сложные речевые обороты и устойчивые выражения, которые могут спровоцировать “галлюцинации” у ИИ.
Да, не совсем кибербезопасный день сегодня вышел, но очень близкий к этому.
⚡ Пакет Безопасности | 💬 Чат 🛍 Другие каналы