Этика искусственного интеллекта: как и для чего регулировать ИИ

Этика искусственного интеллекта

Искусственный интеллект (ИИ) проникает во все сферы жизни, от экономики до медицины, от промышленности до искусства, — нравится нам это или нет. Нейросети не просто выполняют поручения, они принимают решения, создают контент, участвуют в обучении студентов. Неудивительно, что вопросы этики искусственного интеллекта решаются на государственном уровне. Разбираемся, что такое этика ИИ и какие варианты регулирования отрасли есть уже сегодня.

Какие вопросы решает этика ИИ

У искусственного интеллекта нет собственного сознания и намерений. Как польза, так и риски применения ИИ зависят от тех, кто создаёт и использует AI-механизмы. Поэтому этика искусственного интеллекта — это в первую очередь ответственность человека за сохранение равновесия: получение максимальной пользы и снижение рисков от внедрения ИИ.

Этика связана с такими философскими понятиями, как нравственность и мораль. Поэтому есть сложности с тем, чтобы её формализовать, загнать в рамки стандартов и тем более законов. Кроме того, этические нормы могут меняться от поколения к поколению, под влиянием политической повестки и т. д.

И всё же этика ИИ сегодня — необходимая дисциплина, так как включает в себя несколько важных направлений:

  • создание правовых норм, законов, регуляторных механизмов в области ИИ;
  • информирование о рисках и опасностях, и в то же время развенчание мифов и страхов, связанных с искусственным интеллектом;
  • обмен опытом между создателями интеллектуальных систем, открытый диалог со всеми участниками рынка.

Доверяем ИИ, но проверяем

Этичное использование ИИ неразрывно связано с концепцией доверенного искусственного интеллекта. Она строится на формировании безопасного, прозрачного, подотчётного и конфиденциального ИИ. Для того чтобы соответствовать этим признакам, необходимы не только качественные данные для машинного обучения, но и стандарты для разработки доверенных технологий.

О доверенном ИИ всё чаще стали говорить национальные регуляторы и международные организации. Бизнес также заинтересован в том, чтобы повысить доверие пользователей к искусственному интеллекту и развенчать популярные страхи. Однако важно соблюдать тонкий баланс между свободным развитием технологий и контролем на государственном или мировом уровне. (forbes.ru).

Александра Орехович
директор по правовым инициативам Фонда развития интернет-инициатив (ФРИИ)

Нужно ли регулировать ИИ?

В сфере ИИ появляется множество инициатив: разрабатываются кодексы этики, принимаются декларации этических норм. В некоторых странах регулирование мягче, в других — жестче. Так, на Цифровом форуме БРИКС 2024 большинство экспертов выступили за саморегулирование отрасли, а «закручивание гаек» и создание комплексного законодательства, напротив, может затормозить развитие ИИ-технологий.

В 2021 году в России приняли Кодекс этики искусственного интеллекта, который содержит общие принципы для создания доверенного ИИ. Кодекс подписали более 850 компаний, среди первых подписантов — Сбер, Яндекс, Росатом, Сколково.

В августе 2024 года ВЦИОМ провел опрос, посвященный этике искусственного интеллекта. Большинство опрошенных (77%) уверены, что сам ИИ не способен оценивать этичность своих решений, поэтому участие человека на данном этапе необходимо, а 85% выступают за регулирование этики применения ИИ. Только 4% опрошенных считают, что этические стандарты при разработке алгоритмов не нужны вовсе.

Этические проблемы, вызванные ИИ

Для настороженного отношения пользователей к искусственному интеллекту есть причины. Вот лишь некоторые этические проблемы, которые встречаются в практике применения AI-механизмов.

Ложные корреляции. ИИ в своих решениях часто опирается на статистику. Казалось бы, что может быть надёжнее? Но одной статистики мало. Вот один из примеров: робот, который определял очередность оказания медицинской помощи, снизил приоритет для астматиков с пневмонией, так как по статистике смертность в этой группе была ниже. А ниже она была по той причине, что таким больным всегда предоставлялось оперативное лечение.

Нарушение конфиденциальности. ИИ-сервисы через промпты и запросы собирают самую разную информацию, в том числе корпоративные данные. По всему миру компании начали запрещать сотрудникам использовать ChatGPT и другие чат-боты с генеративным ИИ во избежание утечки данных. Среди таких корпораций — Samsung, Apple, Bank of America.

Средний и крупный бизнес настороженно относится к внедрению генеративного искусственного интеллекта в бизнес-процессы, в том числе и в работу с электронным документооборотом.

Мы опросили 30 участников рынка из самых разных отраслей — от ритейла до промышленности. 85% компаний даже не рассматривают использование облачных сервисов с ИИ. Онлайн-нейросети с их точки зрения создают уязвимость в системе информационной безопасности, а выгода от использования ИИ пока несоизмеримо меньше риска утечки данных. Альтернатива этому сценарию — работа с нейросетями для генерации контента в закрытом контуре на собственной ИТ-инфраструктуре. (comnews.ru)

Илья Петухов
руководитель проектов по развитию AI-продуктов Directum

Проблема ответственности. Иными словами, кто будет отвечать за последствия в случае ошибки ИИ? Казалось бы, ответ очевиден — тот человек, который мог бы минимизировать риски. Однако уже обсуждается создание «электронных лиц», и тогда автономный робот будет наделён правами и обязанностями, а следовательно, и нести ответственность за поступки.

Некачественный контент. В 2023 году на Amazon можно было заказать книги о съедобных и ядовитых грибах, текст которых был составлен с помощью нейросети. Читателей о таком «авторстве» не предупреждали. Как выяснилось, издания содержали грубейшие ошибки и опасные советы. Обязательная маркировка продуктов, созданных ИИ, могла бы частично решить эту проблему.

Нарушение авторских прав. Многие генеративные нейросети обучались на миллионах изображений и текстах, авторы которых не давали согласие на использование своих творений в целях обучения алгоритмов. Так, в 2023 году голливудские сценаристы в ходе четырёхмесячной забастовки добились ограничения использования нейросетей и ИИ-ботов в процессе создания кино- и телесценариев.

Наличие заинтересованной стороны. Так или иначе, любая ИИ-технология действует не на благо всех групп общества, а для извлечения выгоды её разработчиков. В этом плане есть целое поле нравственных вопросов. Насколько этично, например, использовать алгоритмы для подбора лекарств, если они будут советовать конкретные препараты и дорогое лечение?

Как регулировать ИИ: международный опыт

Европейский Союз

В марте 2024 года ЕС окончательно утвердил так называемый «Закон об ИИ». Впервые в мировой практике принят всеобъемлющий правовой акт, который разделяет ИИ на три степени риска: неприемлемый, высокий, ограниченный. Одни виды искусственного интеллекта запрещены полностью, как представляющие угрозу для человека, другие можно выводить на рынок только после одобрения чиновниками ЕС.

КНР

В Китае до недавнего времени был лишь фрагментарный подход к регулированию ИИ. Принимались отдельные законодательные акты для конкретных продуктов или групп сервисов: генеративного ИИ, дипфейков, поисковых систем и т. д.

Но в 2023 году власти и крупные участники отрасли разработали свод из 24 правил, согласно которым алгоритмы ИИ и услуги на их основе подлежат обязательной регистрации, а сгенерированный ИИ контент должен иметь маркировку.

США

О регулировании систем искусственного интеллекта в США стали говорить ещё в 2016–2017 годах. Например, Илон Маск указывал на то, что полная бесконтрольность ИИ — это большие риски. В 2023 году вышел указ президента Байдена об ИИ, направленный на снижение рисков от AI-технологий, контроль над созданием сверхмощного ИИ и т. д.

Однако этот указ уже отменен следующим президентом США Дональдом Трампом. В январе 2024 года он выпустил новый указ, который ослабляет регулирование и разрешает создание ИИ, «свободного от идеологических предрассудков».

Этика ИИ: что дальше

На данный момент у человечества нет единого подхода к регулированию ИИ. Пока в одних странах ужесточают требования к продуктам и услугам на основе ИИ, другие державы ослабляют контроль над разработчиками ради нового скачка развития технологий.

Нет никаких сомнений в том, что этика искусственного интеллекта должна иметь рычаги влияния на отрасль. Именно в развитии доверенного ИИ эксперты видят баланс между поддержкой ИИ-технологий и возможными негативными последствиями их использования.