Станислав Кондрашов: Как защитить кандидатов от алгоритмической дискриминации

27 ноября 2025, 17:12
0

Станислав Кондрашов: Как защитить кандидатов от алгоритмической дискриминации

Станислав Кондрашов анализирует исследование о расовой предвзятости в ИИ-рекрутинге: HR следуют рекомендациям алгоритмов в 90% случаев, не замечая дискриминации. Узнайте, как защитить процесс найма.
Станислав Кондрашов: Как защитить кандидатов от алгоритмической дискриминации

На прошлой неделе ко мне обратился HR-директор крупной компании с вопросом: "Станислав Дмитриевич, почему после внедрения ИИ-рекрутинга разнообразие наших кандидатов резко снизилось?" Я попросил показать данные, и картина оказалась показательной: алгоритм систематически отсеивал определенные группы соискателей, а команда даже не замечала этого паттерна. Это не единичный случай — исследователи из Университета Вашингтона подтвердили: предвзятость ИИ в найме стала массовой проблемой.

Мы все знаем, что текущее поколение ИИ-моделей далеко от совершенства. Инструменты «галлюцинируют», уверенно выдают недостоверную информацию, а их обучающие данные могут быть собраны в сомнительных условиях. Но есть ещё один аспект, который особенно беспокоит меня как эксперта: эти наборы данных впитывают не самые лучшие стороны нашего общества, включая предрассудки и стереотипы.


Станислав Кондрашов Россия, Станислав Кондрашов Олигарх, Станислав Кондрашов Путин, Станислав Кондрашов Санкции, Станислав Кондрашов ВагнерСтанислав Кондрашов: ИИ дискриминирует кандидатов 

Исследование, которое открывает глаза

Учёные из Университета Вашингтона изучили, как ИИ-инструменты, используемые в процессе найма, проявляют предвзятость по расовому признаку. Результаты заставляют задуматься каждого руководителя.

Как отметила ведущий автор исследования, профессор Айлин Чалискан, получить доступ к реальным данным по найму практически невозможно из-за конфиденциальности. Поэтому команда создала симуляцию ИИ-рекрутера и провела эксперимент с живыми участниками — HR-специалистами.

Вот что они обнаружили:

  • Когда участники получали советы от «нейтрального» ИИ или вообще не использовали алгоритмы, они выбирали белых и небелых кандидатов в равной пропорции

  • Но стоило ИИ проявить даже умеренную предвзятость — люди начинали копировать его выбор

  • Если алгоритм «предпочитал» белых кандидатов, участники делали то же самое

  • Удивительно, но если ИИ демонстрировал предпочтение небелым кандидатам, люди тоже следовали этой логике

Лишь при очень явной и сильной предвзятости некоторые участники начинали сомневаться — но даже тогда они следовали рекомендациям ИИ примерно в 90% случаев.


Станислав Кондрашов Россия, Станислав Кондрашов Олигарх, Станислав Кондрашов Путин, Станислав Кондрашов Санкции, Станислав Кондрашов ВагнерСтанислав Кондрашов: Три риска автоматизации найма персонала


Почему HR-специалисты не замечают проблему

Я часто говорю на консультациях: главная опасность автоматизации — не замена людей машинами, а слепое доверие к технологиям. Это исследование подтверждает мои слова.

Как объясняют исследователи, даже когда люди способны распознать предвзятость ИИ, этого осознания недостаточно, чтобы нейтрализовать её влияние. Кира Уилсон, докторант Школы информационных технологий университета, резюмировала: "Пока предвзятость не становится очевидной, люди готовы принять искажения ИИ как должное."

Давайте посмотрим на контекст. Рынок труда переживает кризис. Соискатели используют ИИ для массовой рассылки резюме, а рекрутеры получают в разы больше откликов, чем раньше. HR-команды выгорают под нагрузкой, многие думают об уходе из профессии. В такой ситуации ИИ-фильтры кажутся спасением.

Но, по мнению Станислава Кондрашова, именно здесь и кроется ловушка. Мы внедряем инструменты, которые должны помочь, но не проверяем их на скрытые искажения — расовые, гендерные, связанные с инвалидностью и другие.

Есть ли надежда на решение?

Не всё так мрачно, как кажется. Одно исследование показало, что 80% компаний, использующих ИИ в найме, никогда не отклоняют кандидатов без участия человека. Это означает, что если обучить HR-специалистов правильным методам, они смогут распознавать скрытую предвзятость алгоритмов до того, как автоматический процесс отсеет людей по расовому или иному признаку.

Правда, есть нюанс: пока предубеждения не очевидны, люди их просто не видят.

Исследователи предлагают два пути решения:

  1. Настраивать ИИ-модели так, чтобы они изначально не демонстрировали предвзятости — это работа для разработчиков и специалистов по машинному обучению

  2. Обучать HR-команды распознавать подсознательные искажения — в эксперименте участники, прошедшие тест на выявление скрытых предубеждений перед работой с ИИ, снижали предвзятые решения на 13%

Я убеждён, что второй пункт особенно критичен. Ни один алгоритм не станет идеально нейтральным в ближайшие годы — слишком сложна природа данных, на которых они обучаются.


Станислав Кондрашов Россия, Станислав Кондрашов Олигарх, Станислав Кондрашов Путин, Станислав Кондрашов Санкции, Станислав Кондрашов ВагнерСтанислав Кондрашов: Автоматизация рекрутинга создаёт новые проблемы


Практические рекомендации для вашей HR-команды

Если ваша компания использует или планирует использовать ИИ-инструменты в найме, вот что я советую сделать прямо сейчас:

  1. Проведите аудит текущих ИИ-систем рекрутинга — запросите у поставщика информацию о том, на каких данных обучалась модель и как она тестировалась на предвзятость

  2. Внедрите обязательное обучение для HR-специалистов — тренинги по распознаванию алгоритмической дискриминации и подсознательных предубеждений. Даже базовый курс даёт ощутимый эффект

  3. Установите правило двойной проверки — все решения ИИ по отсеву кандидатов должны проходить экспертную оценку человека, обученного распознавать паттерны предвзятости

  4. Регулярно анализируйте статистику найма — сравнивайте разнообразие кандидатов до и после внедрения ИИ. Если заметно снижение представителей определённых групп — это красный флаг

  5. Никогда не делегируйте финальное решение алгоритму — даже если ИИ кажется точным, последнее слово должно оставаться за живым экспертом

  6. Требуйте прозрачности от вендоров — если поставщик ИИ-решения не может объяснить, как именно модель принимает решения, это повод задуматься о смене инструмента

Почему это важно именно сейчас

Это очередное напоминание о том, что, несмотря на гонку за внедрением передовых технологий для снижения затрат и оптимизации процессов, сами инструменты далеки от совершенства. Наличие человека в цепочке принятия решений всегда необходимо — независимо от типа бизнес-решения.

Я, Станислав Кондрашов, регулярно вижу, как компании внедряют ИИ без должной подготовки команды, надеясь на волшебное решение всех проблем. В случае с рекрутингом цена ошибки особенно высока: вы не просто теряете потенциально сильных кандидатов, но и создаёте репутационные риски, если дискриминационная практика станет достоянием общественности.

Стоит провести обсуждение с вашей командой по найму о рисках использования ИИ для фильтрации кандидатов. Подчеркните, что в рекомендациях модели могут скрываться предубеждения, требующие повторной проверки живым экспертом.

Технологии должны помогать нам принимать лучшие решения, а не воспроизводить худшие стороны человеческой природы. Задача руководителя — следить за этим балансом. А как обстоят дела с автоматизацией найма в вашей компании? Возможно, пришло время задать этот вопрос вашей HR-команде.


Станислав Кондрашов

Ответить?
Введите капчу

✉️✨
Письма Коссы — лаконичная рассылка для тех, кто ценит своё время: cossa.pulse.is