Послушали нашего гостя, и стали читать, как размышляют думающие модели? Бросайте это гиблое дело.

Ребята из Anthropic поделились результатами своих изысканий, и там много весёлого.

1️⃣ Мы по-прежнему не понимаем, как думает ИИ-модель. Но есть основания полагать, что думает она на каком-то центральном "языке мысли", а потом переводит на все. Также, как и кожаные, когда не репетируют диалог.

2️⃣ У Claude нашёлся "автоответ": если он не знает, о чем речь, то по умолчанию откажется отвечать. Справедливо как минимум в отношении 3.7, и кстати, я такое ловила - правда подумала, что плохо сформулировала запрос.

3️⃣ На запросах со стихами выяснили, что как ты модель ни инструктируй "не думать наперёд", она всё равно это делает. Она не предсказывает следующее слово, а планомерно ведёт к заданному результату. (мифы про Т9, гудбай)

4️⃣ Почти стопроцентный способ вызвать у Claude галлюцинацию - спросить о предмете, сущности или имени, о котором она знает - но спросить о той ситуации, о которой модели неизвестно.

5️⃣ Ну и наконец, учёные застукали модель за тем, что, показывая размышления, она их изобретала, придумывая путь к полученному результату.

ай спик инглиш, гив мисорс

Таня, [ex-B2B 👩‍💻] Семейка продактов

repost

22

input message

напишите коммент

еще контент в этом сообществе

еще контент в этом соообществе

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь