Для тех, кто не знает, по образованию я маркетолог . Два года я фундаментально изучал качественные и количественные исследования в маркетинге в СПбГЭУ: методологию глубинных интервью, дизайн опросов, кодирование данных, статистическую интерпретацию.
Раньше, чтобы выйти на нормальный уровень в исследовании целевой аудитории, требовались годы – тонны теории, десятки книг, практика расшифровок, ручная систематизация. Всё нужно было держать в голове.
Либо это заканчивалось на этапе генерации "теоретических" портретов, которые делают 1 раз и потом пылятся где-то в устаревшей базе знаний.
Сегодня сама глубина исследования не упростилась. Упростился доступ к инструментам, их методологии. Нейросети сократили рутину, которая занимала 50% от всего исследования.
Если раньше на подготовку и обработку 10 интервью уходили дни, то сейчас – часы. Если раньше гипотезы сегментов формировались через долгую аналитическую работу, то сегодня их можно собрать в 100 раз быстрее, но проверить всё равно придётся самому – через реальных людей (без этого никуда, все мы знаем насколько могут глючить нейросети и выдавать социально желаемые ответы).
Погружаюсь сейчас в Claude и, конечно, пока сильная разница в поисковых моделей. Никакой Perplexity, ChatGPT и Gemini мне не выдавали такой анализ из пары абзацев. Ссылка на документ будет в комментарии к посту 👇