😏 Opt-out как стратегия для обучения ИИ

Новые возможности в сервисах выдаются пользователям двумя способами: — opt-in (юзер сам включает фичу) — opt-out (фича сразу включена у всех, юзер сам выключает фичу, если ему не понравилось).

Эти политики очень сильно влияют на конверсию, поэтому, конечно, любой менеджер продукта хочет раздавать свою фичу через opt-out.

Но мир ИИ-релизов рождает необходимость не только делать крутые сервисы, но и собирать пользовательские данные. И вот как поступают крупные компании, когда заходит речь о том, не спросить ли людей, можно ли использовать их данные для обучения:

— Figma Если вы не на Organization/Enterprise планах, ваши данные используются для обучения моделей — даже если вы платите деньги Фигме. Отключить можно одним кликом в настройках.

— Miro Если вы не платите деньги, ваши запросы и передаваемый контент используются для обучения.

Microsoft, Adobe, Notion и многие другие придерживаются противоположного подхода — и утверждают, что не обучают модели на данных пользователей. Правда, это не мешает им покупать данные сервисов, которые собрали данные пользователей — например, от ребят, спарсивших кусок YouTube.

Как напоминает Константин, если вы не платите за товар, товар — это вы. В частности, напоминаю, что бесплатная версия СhatGPT радостно использует каждый запрос для последующего обучения модели.

repost

24

input message

напишите коммент

еще контент в этом сообществе

еще контент в этом соообществе

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь