Искусственный интеллект (ИИ) проникает во все сферы жизни, от экономики до медицины, от промышленности до искусства, — нравится нам это или нет. Нейросети не просто выполняют поручения, они принимают решения, создают контент, участвуют в обучении студентов. Неудивительно, что вопросы этики искусственного интеллекта решаются на государственном уровне. Разбираемся, что такое этика ИИ и какие варианты регулирования отрасли есть уже сегодня.
Какие вопросы решает этика ИИ
У искусственного интеллекта нет собственного сознания и намерений. Как польза, так и риски применения ИИ зависят от тех, кто создаёт и использует
Этика связана с такими философскими понятиями, как нравственность и мораль. Поэтому есть сложности с тем, чтобы её формализовать, загнать в рамки стандартов и тем более законов. Кроме того, этические нормы могут меняться от поколения к поколению, под влиянием политической повестки
И всё же этика ИИ сегодня — необходимая дисциплина, так как включает в себя несколько важных направлений:
- создание правовых норм, законов, регуляторных механизмов в области ИИ;
- информирование о рисках и опасностях, и в то же время развенчание мифов и страхов, связанных с искусственным интеллектом;
- обмен опытом между создателями интеллектуальных систем, открытый диалог со всеми участниками рынка.
Доверяем ИИ, но проверяем
Этичное использование ИИ неразрывно связано с концепцией доверенного искусственного интеллекта. Она строится на формировании безопасного, прозрачного, подотчётного и конфиденциального ИИ. Для того чтобы соответствовать этим признакам, необходимы не только качественные данные для машинного обучения, но и стандарты для разработки доверенных технологий.
О доверенном ИИ всё чаще стали говорить национальные регуляторы и международные организации. Бизнес также заинтересован в том, чтобы повысить доверие пользователей к искусственному интеллекту и развенчать популярные страхи. Однако важно соблюдать тонкий баланс между свободным развитием технологий и контролем на государственном или мировом уровне. (forbes.ru).
![]()
Александра Орехович
директор по правовым инициативам Фонда развитияинтернет-инициатив (ФРИИ)
Нужно ли регулировать ИИ?
В сфере ИИ появляется множество инициатив: разрабатываются кодексы этики, принимаются декларации этических норм. В некоторых странах регулирование мягче, в других — жестче. Так, на Цифровом форуме БРИКС 2024 большинство экспертов выступили за саморегулирование отрасли, а «закручивание гаек» и создание комплексного законодательства, напротив, может затормозить развитие
В 2021 году в России приняли Кодекс этики искусственного интеллекта, который содержит общие принципы для создания доверенного ИИ. Кодекс подписали более 850 компаний, среди первых подписантов — Сбер, Яндекс, Росатом, Сколково.
В августе 2024 года ВЦИОМ провел опрос, посвященный этике искусственного интеллекта. Большинство опрошенных (77%) уверены, что сам ИИ не способен оценивать этичность своих решений, поэтому участие человека на данном этапе необходимо, а 85% выступают за регулирование этики применения ИИ. Только 4% опрошенных считают, что этические стандарты при разработке алгоритмов не нужны вовсе.
Этические проблемы, вызванные ИИ
Для настороженного отношения пользователей к искусственному интеллекту есть причины. Вот лишь некоторые этические проблемы, которые встречаются в практике применения
Ложные корреляции. ИИ в своих решениях часто опирается на статистику. Казалось бы, что может быть надёжнее? Но одной статистики мало. Вот один из примеров: робот, который определял очередность оказания медицинской помощи, снизил приоритет для астматиков с пневмонией, так как по статистике смертность в этой группе была ниже. А ниже она была по той причине, что таким больным всегда предоставлялось оперативное лечение.
Нарушение конфиденциальности.
Средний и крупный бизнес настороженно относится к внедрению генеративного искусственного интеллекта в
бизнес-процессы , в том числе и в работу с электронным документооборотом.Мы опросили 30 участников рынка из самых разных отраслей — от ритейла до промышленности. 85% компаний даже не рассматривают использование облачных сервисов с ИИ.
Онлайн-нейросети с их точки зрения создают уязвимость в системе информационной безопасности, а выгода от использования ИИ пока несоизмеримо меньше риска утечки данных. Альтернатива этому сценарию — работа с нейросетями для генерации контента в закрытом контуре на собственнойИТ-инфраструктуре . (comnews.ru)![]()
Илья Петухов
руководитель проектов по развитиюAI-продуктов Directum
Проблема ответственности. Иными словами, кто будет отвечать за последствия в случае ошибки ИИ? Казалось бы, ответ очевиден — тот человек, который мог бы минимизировать риски. Однако уже обсуждается создание «электронных лиц», и тогда автономный робот будет наделён правами и обязанностями, а следовательно, и нести ответственность за поступки.
Некачественный контент. В 2023 году на Amazon можно было заказать книги о съедобных и ядовитых грибах, текст которых был составлен с помощью нейросети. Читателей о таком «авторстве» не предупреждали. Как выяснилось, издания содержали грубейшие ошибки и опасные советы. Обязательная маркировка продуктов, созданных ИИ, могла бы частично решить эту проблему.
Нарушение авторских прав. Многие генеративные нейросети обучались на миллионах изображений и текстах, авторы которых не давали согласие на использование своих творений в целях обучения алгоритмов. Так, в 2023 году голливудские сценаристы в ходе четырёхмесячной забастовки добились ограничения использования нейросетей и
Наличие заинтересованной стороны. Так или иначе, любая
Как регулировать ИИ: международный опыт
Европейский Союз
В марте 2024 года ЕС окончательно утвердил так называемый «Закон об ИИ». Впервые в мировой практике принят всеобъемлющий правовой акт, который разделяет ИИ на три степени риска: неприемлемый, высокий, ограниченный. Одни виды искусственного интеллекта запрещены полностью, как представляющие угрозу для человека, другие можно выводить на рынок только после одобрения чиновниками ЕС.
КНР
В Китае до недавнего времени был лишь фрагментарный подход к регулированию ИИ. Принимались отдельные законодательные акты для конкретных продуктов или групп сервисов: генеративного ИИ, дипфейков, поисковых систем
Но в 2023 году власти и крупные участники отрасли разработали свод из 24 правил, согласно которым алгоритмы ИИ и услуги на их основе подлежат обязательной регистрации, а сгенерированный ИИ контент должен иметь маркировку.
США
О регулировании систем искусственного интеллекта в США стали говорить ещё в 2016–2017 годах. Например, Илон Маск указывал на то, что полная бесконтрольность ИИ — это большие риски. В 2023 году вышел указ президента Байдена об ИИ, направленный на снижение рисков от
Однако этот указ уже отменен следующим президентом США Дональдом Трампом. В январе 2024 года он выпустил новый указ, который ослабляет регулирование и разрешает создание ИИ, «свободного от идеологических предрассудков».
Этика ИИ: что дальше
На данный момент у человечества нет единого подхода к регулированию ИИ. Пока в одних странах ужесточают требования к продуктам и услугам на основе ИИ, другие державы ослабляют контроль над разработчиками ради нового скачка развития технологий.
Нет никаких сомнений в том, что этика искусственного интеллекта должна иметь рычаги влияния на отрасль. Именно в развитии доверенного ИИ эксперты видят баланс между поддержкой