AI
Basis
Справедлив ли ИИ? Как предвзятость и приватность формируют наше цифровое будущее
Сегодня я хочу поговорить о теме, которая из гиковских форумов стремительно перекочевала на первые полосы газет и в повестку дня правительств. Речь пойдет об этике искусственного интеллекта.
Мы поговорим о том, почему «умный» алгоритм может отказать вам в кредите из-за вашего почтового индекса, почему система автопилота хуже распознает пешеходов с темным цветом кожи, и почему ваш пол может стать причиной, по которой ваше резюме даже не попадет на стол к живому человеку.
Это не фантастика и не страшилки. Это реальность, с которой мы уже столкнулись. Я проанализировал десятки обсуждений, технических отчетов и реальных кейсов, чтобы разобраться в двух главных демонах современного ИИ: предвзятости и приватности. И, что самое главное, понять, как мы собираемся с ними бороться.

Машина сказала «Нет»
Давайте начнем с истории, которая уже стала хрестоматийной. Это не анекдот из интернета, а задокументированный провал многомиллионного проекта одной из крупнейших корпораций мира — Amazon.
В середине 2010-х компания поставила перед своими инженерами амбициозную задачу: создать ИИ-рекрутера. Идея была прекрасной. Машина, лишенная человеческих предубеждений, будет беспристрастно анализировать сотни тысяч резюме и отбирать лучших из лучших. Никакого кумовства, никаких симпатий, никакой усталости. Только чистые данные и объективная оценка.
Команда потратила несколько лет на разработку. Они «скормили» нейросети гигантский архив резюме, которые компания получила за последние 10 лет, и показали ей, какие из кандидатов в итоге были наняты и стали успешными сотрудниками. ИИ должен был выучить паттерны успеха и применять их для отбора новых соискателей.
И он выучил. Даже слишком хорошо. Когда систему запустили в тестовом режиме, инженеры заметили тревожную закономерность: алгоритм систематически «отбраковывал» резюме женщин, особенно на технические специальности.
Как это могло произойти? Неужели машину научили быть сексистом? Нет, все гораздо прозаичнее и опаснее. ИИ просто проанализировал исторические данные и сделал логичный, с его точки зрения, вывод: раз в прошлом большинство успешных кандидатов на технические должности были мужчинами, значит, «мужские» резюме — это и есть признак успеха. Алгоритм начал штрафовать резюме, в которых встречались слова, связанные с женщинами (например, название женского колледжа или слово «женский» в контексте «капитан женской команды по шахматам»).
Чтобы лучше понять эту логику, представьте себе вышибалу в элитном клубе. Ему дали очень простую, но порочную инструкцию: «Не пускай тех, кто не похож на наших постоянных гостей». Поскольку завсегдатаями клуба исторически были мужчины в деловых костюмах, вышибала начинает автоматически отсеивать всех, кто не вписывается в этот образ. Он не женоненавистник и не испытывает личной неприязни. Он просто идеально выполняет данное ему правило.
Amazon потратил годы и миллионы долларов, чтобы создать объективного рекрутера, а в итоге получил автоматизированный «стеклянный потолок». Проект пришлось свернуть. Но, судя по данным, это не единичный сбой, а системная проблема. Недавнее исследование Университета Вашингтона, проанализировавшее работу трех современных LLM на 550 реальных резюме, выявило шокирующие цифры: в 85% случаев алгоритмы отдавали предпочтение резюме с именами, которые ассоциировались с белыми мужчинами. Женские имена получали предпочтение лишь в 11% случаев, а имена чернокожих мужчин не превзошли имена белых мужчин ни разу. Это особенно тревожно, если учесть, что, по данным на 2024 год, 62% австралийских организаций уже использовали ИИ в рекрутинге, а в США около 99% компаний из списка Fortune 500 применяли ту или иную форму автоматизации найма.

Плохой учебник для гениального ученика
Когда мы слышим фразу «предвзятый ИИ», воображение рисует нам какого-нибудь злого робота-расиста из голливудского фильма. Но реальность, как я уже сказал, куда прозаичнее. И именно поэтому — куда опаснее.
Искусственный интеллект, по своей сути, не «злой» и не «добрый». Он — невероятно прилежный и способный ученик. Но у него есть одна особенность: он учится только по тем материалам, которые мы ему даем. И если эти материалы — «учебники» — полны ошибок, стереотипов и несправедливости нашего мира, то ИИ выучит именно их. И будет воспроизводить с бездушной эффективностью машины.
Представьте, что ИИ — это гениальный шеф-повар. Он способен за считанные секунды освоить любую кулинарную технику и приготовить блюдо с идеальной точностью. Но есть одна проблема: его учили готовить по поваренной книге, написанной Джулией Чайлд в 1960-х годах. Он виртуозно приготовит вам любое блюдо из этой книги, но все они будут отражать гастрономические вкусы, диетические нормы и социальные реалии того времени. Он не «хочет» готовить несовременную, жирную и не очень разнообразную еду. Он просто не умеет по-другому. У него не было других учебников.
Проблема ИИ-рекрутера Amazon была не в том, что он ненавидел женщин-программистов. Проблема в том, что в данных, на которых его учили, их было в десять раз меньше, чем мужчин. Для него это был не сексизм, а холодная, неопровержимая статистика. Паттерн, который нужно воспроизвести.
И вот тут мы подходим к самому сердцу проблемы, которую в сообществе называют алгоритмической предвзятостью (algorithmic bias). ИИ не создает предрассудки. Он находит их в наших данных, усиливает и автоматизирует.

Два всадника апокалипсиса: Предвзятость и Приватность
Анализируя обсуждения этой темы, я увидел, что весь клубок проблем распадается на две большие, тесно связанные между собой части. Это предвзятость, о которой мы уже начали говорить, и приватность — ее тёмный и сложный двойник. Давайте разберем их по порядку.
Эхо-камера нашего прошлого
Предвзятость в данных — это не просто абстрактная проблема. Она уже сегодня создает опасные и несправедливые системы, которые работают по принципу порочного круга.
Вот несколько реальных примеров, которые часто всплывают в дискуссиях:
- Предиктивная полиция. В США использовались системы вроде PredPol (ныне Geolitica), которые должны были предсказывать преступления. Но расследование The Markup показало их катастрофическую неэффективность. Из 23 631 предсказания, сделанного системой для полиции Плейнфилда в 2018 году, успешными оказались менее половины процента. Точность прогнозов ограблений составила всего 0,6%, а краж со взломом — жалкие 0,1%. Неудивительно, что капитан полиции Дэвид Гуарино в итоге заявил: «Я не знаю, что это [PredPol] дало нам... Мы в итоге от него избавились». Департамент заплатил $20 500 за практически бесполезный софт, который к тому же рисковал усилить патрулирование в и без того стигматизированных районах.
- Медицинская диагностика. Многие алгоритмы для выявления рака кожи обучались на данных, где преобладали пациенты со светлой кожей. Исследование датасета HAM10000 показало, что модель DenseNet121, достигнув общей точности 91,9%, существенно просела на темных типах кожи. Для самой темной группы точность составила лишь 78,9% — падение более чем на 13 процентных пунктов. Проблема в исходных данных: анализ 21 датасета с более чем 100 000 изображений показал, что из почти 2500 снимков с указанием цвета кожи только 10 принадлежали людям с коричневой кожей и всего один — с темно-коричневой или черной.
- Кредитный скоринг. Банковский ИИ может понизить ваш кредитный рейтинг из-за почтового индекса. Проблема настолько серьезна, что ею озаботились регуляторы. Так, Банк России еще в ноябре 2023 года опубликовал доклад с подходами к регулированию. В частности, предлагалось обязать банки проверять модели на корреляции с полом, возрастом и регионом, а также предоставлять клиенту понятное объяснение отказа. Это прямой ответ на риск того, что ИИ начнет воспроизводить историческую несправедливость, отказывая в кредитах жителям «неблагополучных» районов.
- Распознавание лиц. Тестирование Национального института стандартов и технологий США (NIST) выявило, что системы распознавания лиц могут ошибаться в 10-100 раз чаще для определенных демографических групп. Исследования показали более высокие показатели ложных срабатываний для чернокожих и людей восточноазиатского происхождения, а также для женщин по сравнению с мужчинами. В идеальных условиях точность может превышать 99%, но в реальности падает до 36-87%.
Во всех этих случаях ИИ работает как гигантская цифровая эхо-камера. Мы кричим в нее наши старые предрассудки, а она возвращает их нам обратно — усиленными и с пометкой «Подтверждено данными».
Дилемма Доктора Хауса
Казалось бы, решение очевидно: если проблема в «кривых» данных, нужно их «выпрямить». Но тут мы натыкаемся на второго всадника апокалипсиса — приватность.
Давайте я поставлю вас перед сложным выбором. Окей, чтобы сделать ИИ-рекрутера справедливым, нам нужно, чтобы он знал пол и расу кандидатов для отслеживания и исправления перекосов. Но хотите ли вы, чтобы эта чувствительная информация в обязательном порядке собиралась и хранилась в базе данных каждой компании, куда вы отправляете резюме?
Это то, что я бы назвал «Дилеммой Доктора Хауса». Чтобы поставить точный диагноз, гениальному доктору нужна вся информация о вас. Вы доверяете ему эти данные ради своего блага. А теперь представьте, что этот «врач» — это безликая корпорация, цели которой вам не до конца ясны.
К этой дилемме добавляется и новая головная боль — так называемый «теневой ИИ» (Shadow AI). Судя по недавним отчетам, 77% компаний полагаются на сотрудников, использующих ИИ-инструменты без ведома и одобрения IT-отдела. Рост использования таких приложений составил 156% за год. Работники вставляют в общедоступные чат-боты конфиденциальные корпоративные данные, создавая колоссальные риски. Неудивительно, что Gartner прогнозировал, что более $100 миллиардов из расходов на ИИ в 2024 году будет направлено на снижение рисков и обеспечение безопасности.
Вот и главный парадокс: чтобы защитить людей от дискриминации, мы должны их классифицировать. А пока мы думаем, как это сделать этично, наши данные утекают через неконтролируемые каналы.

Тормоза и подушки безопасности для ИИ
Когда погружаешься в эти проблемы, легко впасть в уныние. Но, к счастью, это не так. Прямо сейчас IT-индустрия переживает очень важный этап взросления.
Если продолжать аналогии, то разработку ИИ можно сравнить с автомобилестроением в начале XX века. Сначала все были в восторге от скорости. А потом поняли: нам срочно нужны тормоза, ремни и подушки безопасности. Сегодня в мире ИИ происходит ровно то же самое. Мы переходим от этапа «давайте сделаем модель мощнее» к этапу «давайте сделаем ее безопасной и справедливой». Этот новый подход получил название «Ответственный ИИ» (Responsible AI).
И это глобальный тренд. В России, например, еще в 2021 году ведущие технологические компании, включая Sber, Yandex, VK и Газпром нефть, подписали национальный «Кодекс этики в сфере ИИ». Они обязались стремиться к тому, чтобы их системы не создавали необоснованных преимуществ для одних групп за счет ущемления других. К апрелю 2024 года к этому кодексу присоединилось уже более 360 российских организаций.
Более того, от деклараций индустрия переходит к практике. В апреле 2025 года Сбербанк представил первую в России комплексную модель угроз для ИИ-систем, описывающую 70 потенциальных угроз для генеративного и предиктивного ИИ. Этот документ, основанный на лучших мировых практиках (OWASP, MITRE, NIST), стал практическим инструментом для оценки уязвимостей, доступным для любой компании.
«Ответственный ИИ» — это целый набор практик и инструментов:
- Аудит алгоритмов. Появляются «AI-аудиторы», которые целенаправленно ищут предвзятость и тестируют систему на разных группах населения.
- Этические комитеты и «красные команды». Внутренние отделы, которые задают неудобные вопросы до того, как продукт выйдет на рынок.
- Техники избавления от предвзятости (de-biasing). Математические методы, позволяющие «очистить» данные или скорректировать работу уже обученной модели.
- Прозрачность и объяснимость (Explainable AI, XAI). Создание систем, которые могут объяснить, почему они приняли то или иное решение. «Я отказал в кредите, потому что...», а не просто «Отказать. Код ошибки: 734».
Вопрос «Этичен ли этот алгоритм?» должен стать для инженера таким же естественным, как вопрос «Выдержит ли этот мост нагрузку?» для строителя. Это больше не отвлеченная философия. Это новая техника безопасности.

Не бойтесь, но будьте бдительны
Так что же в итоге? Справедлив ли ИИ? После всего, что я проанализировал, мой ответ таков: этот вопрос в корне неверен. Спрашивать, справедлив ли ИИ, — это все равно что спрашивать, справедлив ли молоток. Искусственный интеллект — это не моральный агент. Это самое честное и безжалостное зеркало, которое человечество когда-либо создавало.
Оно не льстит и не лжет. Оно бесстрастно отражает данные о том, кого мы исторически нанимали на работу, кому выдавали кредиты и в каких районах чаще арестовывали людей. Оно показывает нам отпечатки наших собственных системных ошибок и неосознанных предубеждений, усиленные до промышленных масштабов. И если отражение нам не нравится, то проблема не в зеркале.
Настоящий вызов — не в том, чтобы научить ИИ не быть сексистом или расистом. А в том, чтобы перестать поставлять ему данные, из которых можно сделать такие выводы. Все этические кодексы, аудиты и техники de-biasing, о которых мы говорили, — это, по сути, наши первые попытки не разбить зеркало в гневе, а научиться работать с отражением: где-то протереть, где-то подправить фокус, а где-то — признать, что нужно менять саму реальность, которую оно показывает.
ИИ не задает нам вопрос о своем будущем. Он ставит перед нами вопрос о нашем настоящем. Глядя в это цифровое зеркало, готовы ли мы не просто ужаснуться отражению, а начать менять то, что оно показывает?
Оставайтесь любопытными.