ИИ в HR под прицелом: чем пахнут первые иски?
Кажется, эра бездумного доверия «черному ящику» алгоритмов в подборе персонала подходит к концу. И кандидаты (и регуляторы) уже стучатся в дверь Джош Берсин подсветил два знаковых дела: ⚖️ Workday — кандидат обвиняет платформу в расовой предвзятости, утверждая, что ИИ отсеивал его несправедливо. ⚖️ Eightfold — соискатели требуют объяснить логику отказа, ссылаясь на право знать (по аналогии с кредитными историями). Пахнет жареным, и это надолго. Очевидно, куда двинется рынк HR Tech, если хочет выжить: 🔹 Эра верифицированных данных. Алгоритмы будут учить не на «сырых» массивах, а на качественных данных, размеченных экспертами, понимающими нюансы профессий. Иначе предвзятость неизбежна. 🔹 Объяснимость как стандарт. Требование «почему ИИ решил именно так?» скоро станет обязательным. Как в банках: если тебе отказали в кредите, ты имеешь право знать причину. В найме будет то же самое.
Моё мнение: Эти иски — только вершина айсберга. За ними стоит более глубокий вопрос: можно ли автоматизировать оценку человека, не понимая его природы? Алгоритмы видят паттерны, но не видят мотивов, страхов, глубинных триггеров, которые на самом деле определяют поведение. Бороться с предвзятостью ИИ, просто «чистя» данные — то же самое, что лечить симптом, а не болезнь. Рано или поздно мы упрёмся в необходимость не просто объяснять решения ИИ, а понимать человека, чьи данные мы анализируем. И тут без психологии, без работы с глубинными структурами личности уже не обойтись. Иначе мы просто создадим идеально непредвзятого робота, который… ничего не понимает в людях. ❓ Вопрос коллегам: Сталкивались уже с запросами от кандидатов «почему меня отсеял алгоритм»? И как, по-вашему, должна выглядеть эта «объяснимость» на практике? #HRTech #ИИ #Этика #ПодборПерсонала #БудущееHR
· 26.02
А когда откпз приходит работадатель ограничивает ответ😃
ответить
коммент удалён