Семейка Продактов
01.04 · ред.
Послушали нашего гостя, и стали читать, как размышляют думающие модели? Бросайте это гиблое дело.
Ребята из Anthropic поделились результатами своих изысканий, и там много весёлого.
1️⃣ Мы по-прежнему не понимаем, как думает ИИ-модель. Но есть основания полагать, что думает она на каком-то центральном "языке мысли", а потом переводит на все. Также, как и кожаные, когда не репетируют диалог.
2️⃣ У Claude нашёлся "автоответ": если он не знает, о чем речь, то по умолчанию откажется отвечать. Справедливо как минимум в отношении 3.7, и кстати, я такое ловила - правда подумала, что плохо сформулировала запрос.
3️⃣ На запросах со стихами выяснили, что как ты модель ни инструктируй "не думать наперёд", она всё равно это делает. Она не предсказывает следующее слово, а планомерно ведёт к заданному результату. (мифы про Т9, гудбай)
4️⃣ Почти стопроцентный способ вызвать у Claude галлюцинацию - спросить о предмете, сущности или имени, о котором она знает - но спросить о той ситуации, о которой модели неизвестно.
5️⃣ Ну и наконец, учёные застукали модель за тем, что, показывая размышления, она их изобретала, придумывая путь к полученному результату.
ай спик инглиш, гив мисорс
Таня, [ex-B2B 👩💻] Семейка продактов
еще контент в этом сообществе
еще контент в этом соообществе
Семейка Продактов
01.04 · ред.
войдите, чтобы увидеть
и подписаться на интересных профи