Когда ты думаешь, что наука уже всё видела, появляются ученые, которые решают исследовать... как исследовать. Это как если бы биологи нашли ген, отвечающий за желание у биологов искать новые гены.

Так вот, в исследованиях всегда были люди, а тут у кого-то в лаборатории щёлкнуло. Ребятки такие: “А что, если нахрен убрать белковых и оставить одну нейросеть? Только научим её сомневаться, клянчить скидку, ныть в комментах и вешаться за три копейки. А ещё добавим похмелье, ипотеку и лёгкую экзистенциальную усталость от жизни.”

Взяли ChatGPT, залили в него весь потребительский пиздец из “Пятерочки/Шестерочки” и показали шампуни, дезики и кремы. Задали главный вопрос человечества: «Купи слона?» Но к этому они пришли не сразу - сначала нейросеть несла ахинею вроде “3” или “42”. Безопасно, усредненно, ни о чём. И вот тут зарыта настоящая проблема: “3” - это не мнение, это капитуляция. Когда модель ставит среднюю оценку, она не думает, она сдаётся. Люди - полярны: кто-то в восторге, кто-то фыркает, кто-то тупит. В этих крайностях и живет правда. Если все сплющить до «3», теряется смысл, энергия и деньги инвесторов. Тогда исследователи решили: хрен с цифрами, пусть говорит смыслом. Так родился метод Semantic Similarity Rating (SSR). Модель пишет, что думает о продукте - типа «о кайф» или «ну и нахрена оно мне уперлось», а алгоритм потом сравнивает это с эталонными фразами вроде “точно куплю” или “скорее нет”. Не цифры, а смыслы. И тут все поехало.

А теперь самое красивое - одна нейросеть, но тысяча лиц. Им сделали виртуальную толпу: раздали “маски” - возраст, пол, диагнозы и тараканы в голове. “Ты — Витёк из Тулы, мастер по плитке, у тебя ипотека, нервный тик и вера, что нормальный дезик должен стоить как шаверма.” “Ты — студентка из Питера, которая читает состав крема дольше, чем диплом.” “Ты — тётя Галя с Севера, которая не верит этим вашим органическим шампуням - все равно ж химия, просто дороже.” И вот нейронка отвечает за всех, меняя роли, как актер под веществами. И это работает. Совпадение с человеческими ответами - 90%, даже распределение эмоций одно к одному.

Оказалось, что мы, люди, не такие уж рациональные. Мы просто постоянно эмулируем смыслы. Мы говорим “наверное куплю”, “надо подумать”, “если будет акция” - и каждый раз это не цифра, а зашифрованный эмоциональный шум: тревога, надежда и бытовой пиздец. А LLM, оказывается, может это воспроизводить. Если упростить: нейросеть не научили понимать людей - она просто научилась их передразнивать. И вот почему это круто. Теперь можно тестировать идеи, продукты и рекламу без живых панелей и недель ожидания. LLM за пару минут ведет себя как тысяча респондентов, объясняя, что ей нравится и почему.

Больше не нужны люди, чтобы понимать людей. Но и страшно тоже. Это уже не просто экономия на опросах - это переворот в понимании “реального”. Если модель способна воспроизводить наше коллективное бессознательное по эмбеддингам, то кто сказал, что твои желания - твои? Может, это просто чей-то очень удачный промпт.

Пишите кому нужно само исслдование я поделюсь =)

#ПРОДРОК

Когда ты думаешь, что наука уже всё видела, появляются ученые, которые решают исследовать... как исследовать. Это как если бы биологи нашли ген, отвечающий за желание у биологов искать новые гены | Сетка — социальная сеть от hh.ru Когда ты думаешь, что наука уже всё видела, появляются ученые, которые решают исследовать... как исследовать. Это как если бы биологи нашли ген, отвечающий за желание у биологов искать новые гены | Сетка — социальная сеть от hh.ru