Материалы V-Brand

Предвзятые алгоритмы: почему обсуждается необходимость контролировать ИИ?

Искусственный интеллект постепенно внедряется в разные сферы жизни и бизнеса. И пока где-то пользователи экспериментируют с ChatGPT, ставят ему творческие задачи и умиляются тому, какие наивные варианты он подчас предлагает, ИИ уже учится принимать важные решения в сфере финансов, права, помогает решать задачи программистам и открывает новые горизонты диагностики для медицинской сферы.
Но с большой силой приходит большая ответственность. И все чаще, по мере развития ИИ, возникает вопрос о необходимости его контроля или ограничения — вплоть до создания специальной законодательной базы, регламентирующей разработку, сферы использования, степень внедрения ИИ или затрагивающей вопросы использования данных.

Какие риски, с точки зрения аналитиков, могут актуализироваться по мере развития ИИ?

Оговоримся сразу: мы сосредоточимся именно на тех моментах, которые поддаются контролю и на которые можно повлиять здесь и сейчас. Вопросы сохранения рабочих мест по мере развития автоматизации и перспектива утраты навыков работниками, за которых часть задач начинает выполнять ИИ, выходят за рамки нашей сферы влияния как пользователей и представителей бизнес-сообщества.
Руководителям, которые стремятся избежать негативных последствий, связанных с работой ИИ и внедрением его в повседневные процессы, важно быть в курсе возможных рисков, чтобы смягчить последствия, с которыми они рано или поздно могут столкнуться.
Риск 1. Некорректная обработка данных и возможные утечки конфиденциальной информации. Любые операции с данными (сбор, сортировка, атрибуция, установление связей и т.д.) становится все сложнее с развитием источников этих данных (в том числе Интернета), где информация представлена зачастую совершенно неструктурированно. В результате мы можем получить утечку как персональных данных (если мы говорим о конкретных сотрудниках и клиентах) или конфиденциальной информации о работе компании. Наша задача, если мы используем ИИ для сбора и обработки данных, — контролировать доступные для анализа источники и соблюдать нужный нам уровень конфиденциальности.
Риск 2. Отсутствие защиты ИИ со стороны самих разработчиков. Компании собирают данные, необходимые для того, чтобы делать алгоритмы более совершенными. Им нужна база, на основе которой можно будет обучать ИИ — нередко для этого используются результаты маркетинговых обзоров, финансовых мониторингов, медицинских исследований и аналитики. Если меры безопасности со стороны разработчиков недостаточны, это открывает большие возможности для злоупотребления данными, от незаконного использования информации до создания ложных личностей, существующих в Интернет-пространстве.
Риск 3. Человеческие проблемы нечеловеческого интеллекта. Обучение ИИ все еще в той или иной степени зависит от человеческого фактора. Отсюда — периодически возникающие ситуации, в которых ИИ проявляет нетерпимость по отношению к тем или иным социальным группам, переходит на оскорбление пользователей или выказывает признаки зарождающейся дискриминации — разумеется, непреднамеренной. Чат-бот Microsoft AI по имени Tay стал расистом, сексистом и антисемитом в течение 24 часов интерактивного обучения и взаимодействия с человеческой аудиторией. Другое программное обеспечение (COMPAS), которое было разработано, чтобы помочь американским судам прогнозировать вероятность повторного совершения обвиняемыми преступлений, оказалось предвзятым в отношении афроамериканцев.
Риск 4. Переключение задач между ИИ и человеком. Сколько раз вы возвращались домой, чтобы проверить, выключили ли вы утюг или закрыли ли дверь на замок? А теперь представьте, что вы едете в автомобиле и передали управление автопилоту, поведение которого основано на ИИ. Что делать, если система не включает в нужный момент ту или иную функцию или совершает неправильный маневр? Или наоборот, если вы примете решение, отличное от решения ИИ, а оно окажется ошибочным? Этот пункт особенно актуален, если мы говорим об использовании искусственного интеллекта в транспортной сфере, на производстве, в автоматизации процессов или решении инфраструктурных задач.
Риск 5. Моральный выбор и взвешивание рисков. В стрессовых ситуациях мы принимаем решение здесь и сейчас, у нас нет времени на расчеты и размышления. Как хирург решает, стоит ли делать сложную и рискованную операцию или лучше отказаться от вмешательства? В какой момент водитель, на пути которого оказывается пешеход, выбирает вариант уйти от столкновения, пусть и ценой собственной безопасности? Есть очень много задач и проблем, которые при решении человеком, с его жизненным опытом и ценностями, становятся поводом для размышлений. А что будет, если в таких ситуациях решение будет принимать ИИ?
Отсюда — обсуждение необходимости контролировать использование ИИ, а также разрабатывать законодательство, которое регулировало бы правила взаимодействия с искусственным интеллектом в новом мире, где технологии становятся всепроникающими. Причем стандарты должны быть выработаны и приняты для разных уровней — от международного до корпоративного. К разумному регулированию работы ИИ взывали даже публичные личности, которые являются олицетворением инноваций. Илон Маск призывал создать государственный орган, который мог бы осуществлять надзор за использованием ИИ и контролировать безопасность всего, что приносят нам новые технологии.

Повод ли это отказаться от внедрения ИИ?

Определенно нет! По данным McKinsey, почти 80% руководителей компаний, внедряющих ИИ, отмечают, что они уже видят в нем умеренную пользу. Исследователи прогнозируют, что благодаря ИИ к 2030 году объем мирового экономического производства может прирастать на 13 триллионов долларов в год.
Вопрос в том, что будем делать мы на уровне компаний. Адаптироваться и внедрять? Или отказываться от перспектив, которые, со всеми указанными выше рисками, несет в себе внедрение новых технологий?