Конец эры чат-ботов. Что будет дальше с ИИ?
Эпоха диалоговых интерфейсов (ChatGPT) — это только прелюдия. Будущее за агентным ИИ (Agentic AI) — автономными системами, которые сами ставят цели, планируют шаги, используют инструменты и выполняют многоэтапные задачи без постоянного контроля · Вся моя методология построена на работе с ИИ не как с «генератором ответов», а как с со-исследователем и агентом. Я уже сейчас отрабатываю сценарии, где DeepSeek выступает в роли аналитика, инженера или стратега. Моя задача как архитектора — правильно поставить задачу, разделить её на потоки и верифицировать результат. Завтра на его место можно будет поставить более автономного агента». · Вопрос аудитории: «Какую многошаговую бизнес-задачу (от анализа данных до принятия решения) вы бы доверили автономному ИИ-агенту, если бы он уже был?» · Хештеги: #AgenticAI #ИскусственныйИнтеллект #АвтономныеАгенты #БудущееИИ #DeepSeek #Технологии
· 21.12.2025
Кто будет отвечать в случае ошибочного решения программы?
ответить
коммент удалён
· 21.12.2025
Отличный и абсолютно правильный вопрос. Вы обозначили главную проблему внедрения Agentic AI — проблему доверия и ответственности. Давайте разберём её не на уровне философии, а на уровне практической методологии, которую я применяю уже сегодня
1. На каком уровне возникает ответственность? Ответственность законечный бизнес-результат (прибыль, убыток, репутация) всегда остаётся за человеком-руководителем. Но ответственность за качество выполнения конкретного шага делегируется. В моей методологии это выглядит так: я, как архитектор, ставлю задачу агенту (сегодня — ИИ в роли со-исследователя, завтра — автономный агент) и несу ответственность за корректность постановки задачи и верификацию результата.
2. Практический механизм контроля: «чекпоинты» и «красные линии» Автономность— не значит «отпустил и забыл». Это значит, что процесс разбивается на этапы с чёткими критериями успеха (чекпоинтами). Например, задача агенту: «Проанализируй данные о оттока клиентов за Q1 и предложи 3 гипотезы причин».
· Чекпоинт 1: Агент предоставляет сырые данные и план анализа. Я проверяю релевантность данных и логику плана. · Чекпоинт 2: Агент предлагает гипотезы. Я проверяю их на соответствие бизнес-контексту и «здравому смыслу», используя тот же ИИ в режиме «адвоката дьявола». «Красные линии»— это заранее определённые условия, при которых задача автоматически приостанавливается, и требуется вмешательство человека (например, если анализ затрагивает персональные данные или предлагает решение с потенциальными юридическими рисками).
3. Кто отвечает за ошибку?
· Если ошибка в результате (агент предложил неверную гипотезу из-за плохих данных) — отвечает человек, который не верифицировал данные на чекпоинте 1. · Если ошибка в исполнении (агент корректно понял задачу, но допустил логическую ошибку в коде) — это сигнал к дообучению или улучшению агента. Но финальную ответственность за внедрение некорректного кода опять же несёт человек, который принял результат без тестирования.
Таким образом, Agentic AI не снимает ответственность, а перераспределяет её. Роль человека смещается от «исполнителя» к «архитектору, валидатору и лиццу, принимающему окончательное решение». Моя текущая работа с DeepSeek по сути является тренировкой для этой самой роли: я уже сегодня отрабатываю сценарии постановки задач, разбивки на чекпоинты и перекрёстной верификации выводов.
Чтобы ответить на ваш вопрос «кто будет отвечать» — отвечать будет человек, который спроектировал процесс и утвердил результат. Агент — это совершенный, но контролируемый инструмент. Именно этот подход и позволяет доверять ему многошаговые задачи.
Спасибо за глубокий вопрос. Это именно та дискуссия, которая нужна рынку прямо сейчас».
ответить
ответ удалён