Digital Review
08.01
😏 Opt-out как стратегия для обучения ИИ
Новые возможности в сервисах выдаются пользователям двумя способами: — opt-in (юзер сам включает фичу) — opt-out (фича сразу включена у всех, юзер сам выключает фичу, если ему не понравилось).
Эти политики очень сильно влияют на конверсию, поэтому, конечно, любой менеджер продукта хочет раздавать свою фичу через opt-out.
Но мир ИИ-релизов рождает необходимость не только делать крутые сервисы, но и собирать пользовательские данные. И вот как поступают крупные компании, когда заходит речь о том, не спросить ли людей, можно ли использовать их данные для обучения:
— Figma Если вы не на Organization/Enterprise планах, ваши данные используются для обучения моделей — даже если вы платите деньги Фигме. Отключить можно одним кликом в настройках.
— Miro Если вы не платите деньги, ваши запросы и передаваемый контент используются для обучения.
Microsoft, Adobe, Notion и многие другие придерживаются противоположного подхода — и утверждают, что не обучают модели на данных пользователей. Правда, это не мешает им покупать данные сервисов, которые собрали данные пользователей — например, от ребят, спарсивших кусок YouTube.
Как напоминает Константин, если вы не платите за товар, товар — это вы. В частности, напоминаю, что бесплатная версия СhatGPT радостно использует каждый запрос для последующего обучения модели.
еще контент в этом сообществе
еще контент в этом соообществе
Digital Review
08.01
войдите, чтобы увидеть
и подписаться на интересных профи