Дольче вита в Авито
18.02
Генерим тексты в DeepSeek и Qwen2.5: моя твоя не понимай? Часть I ИИ-редакция moab генерит до тысячи единиц контента в месяц (можем и больше). Мы опытным путем вывели идеальное (на текущий момент) сочетание ChatGPT и Claude, но тут на арену ворвался DeepSeek, а за ним и Qwen2.5, и мы не могли не сравнить их с проверенными «старичками».
Что проверяли:1. Генерация структуры текста. 2.1. Генерация короткого текста без стилистических и с минимальными техническими требованиями — посмотреть, как модель пишет сама по себе на своих масках без наших идей, как сделать текст более приятным. 2.2. Генерация лонгрида с техническими и стилистическими требованиями. 3. Фактчек.
Это разные задачи, и нейросети справляются с ними по-разному.
Промты во все ИИ шли без изменений, это не совсем корректно для нормальной работы. Промт для Клода похож, но не идентичен промту для ГПТ. Мы можем в каждом ИИ получить результат получше, если подольше с ним поработаем. Но для теста было важно задавать единые промты. 1️⃣ Структура текстаСводная таблица итогов работы Claude, ChatGPT, DeepSeek, Qwen и ради курьеза — Яндекс GPT.
Собственно, Яндекс ГПТ хуже всех и справился. Структура скудная, логика изложения хромает, требования промта не отработаны, заложено много объема на водянистые блоки (введение и заключение).
ChatGPT, Qwen и DeepSeek пришли голова в голову, выдав очень похожие и вполне приемлемые структуры.
Claude был наиболее логичен с точки зрения пользы для читателя. Не разливал воду в начале текста, сразу перешел к делу. Даже в малополезном пункте «Уход за обоями» (кто ухаживает за обоями, признавайтесь) дал внятные рекомендации, о чем написать.
Сеошники могут радостно и уверенно юзать ChatGPT, Qwen и DeepSeek, редакторы голосуют за Claude.
2️⃣ Короткий текст Сводная таблица результатов генерации Claude, ChatGPT, DeepSeek, Qwen и Яндекс GPT.
Формально по числовым метрикам оценки текста — в лидерах ChatGPT, но текст от Claude читается более плавно и связно. И он более четко отрабатывает запросы читателя. К примеру, все нейросети кроме Клода обязательно подливали водички в начале каждого блока.
ChatGPT, DeepSeek, Qwen: много обобщающих фраз, меньше конкретики, чем у Клода, стиль текста совсем сухой, бедная лексика, сплошные списки. Очень характерный блок заключения в текстах — только Клод был прост и конкретен.
Текст от Яндекс ГПТ рассмотрению не подлежит. Вода, требования промта не выполнены.
По отзыву стороннего независимого редактора, меньше всего редачить придется текст от Claude. Поэтому мы его и юзаем постоянно для генерации.
Из курьезов: Claude изобрел слово «пампование» (от английского pump — помпа). DeepSeek не справился со склонением: «Например, если ваши ресницы тонкие и редкие, остановитесь на объёмной туше».
Продолжение — лонгриды и фактчекинг — https://t.me/ilyaiserson/292
· 19.02
Спасибо за исследование! Стал ловить себя на мысли, что если текст более 150 слов, я начинаю прогонять его через ии, чтобы структуру улучшить или проверить на ошибки, а где-то даже улучшить А в работе так постоянно, в ручную конечно сделать хорошо, а вот писать по 30 описаний в день, даже команде жалко поручить, просто мука. Ваше исследование поможет улучшить качество текстов и облегчить работу, спасибо )
ответить
еще контент в этом сообществе
еще контент в этом соообществе
Дольче вита в Авито
18.02
войдите, чтобы увидеть
и подписаться на интересных профи