Вы на портале

Закон об искусственном интеллекте ЕС и его роль в обеспечении безопасности

13 марта 2024 г. Европарламент утвердил закон, который называется «Artificial Intelligence Act» (Закон об искусственном интеллекте (далее — AIAct, Закон)). Этот документ считается первым нормативным актом, который устанавливает правила для динамично развивающейся сферы исследований в области искусственного интеллекта (далее — ИИ). Он определяет, каким образом ИИ может быть использован в странах — членах Европейского союза (далее — ЕС), и устанавливает правила и требования для его разработки, применения и контроля. Этот Закон регулирует широкий спектр вопросов, связанных с использованием ИИ и его влиянием на общество, включая этику, безопасность и защиту прав пользователей и разработчиков.

Шкода Александр
Шкода Александр

Адвокат Минской областной коллегии адвокатов

1634 Shape 1 copy 6Created with Avocode.

Содержание:


Градация рисков

AIAct вводит классификацию ИИ в зависимости от степени риска его использования, а также соответствующее регулирование для каждой категории: чем выше потенциальный риск, тем более строгие правила. Это обусловлено тем, что быстрая скорость развития технологий практически не поддается законодательному контролю. Однако уже существующие формы ИИ могут представлять опасность и потенциально нарушать общественные интересы и основные права, защищенные законодательством ЕС. Этот вред может проявляться в разнообразных формах, включая материальные и нематериальные (в том числе причинение вреда жизни и здоровью).

Справочно.
С законом «Artificial Intelligence Act» можно ознакомиться по ссылке.

Закон устанавливает 4 категории риска ИИ: 

1) неприемлемый риск/запрещенные методы ИИ (Unacceptablerisk/Prohibited AIPractices);

2) высокий риск (High risk);

3) ограниченный риск (Limited risk);

4) минимальный риск (Minimal or no risk).

Неприемлемый риск/запрещенные методы ИИ (Chapter II. Article 5)

В данную категорию отнесены виды деятельности по размещению на рынке, вводу в эксплуатацию или использованию систем ИИ, способных нарушить основные права человека. Например, сбор изображений для создания баз данных по распознаванию лиц и их эмоций, сбор информации о политических или религиозных убеждениях, сексуальной ориентации и пр. Под запретом также оказались системы ИИ, способные манипулировать поведением людей помимо их воли в связи с использованием информации о расе, возрасте, социальном или экономическом положении и т.д. По мнению законодателя, такие системы ИИ с достаточной вероятностью могут причинить пользователю или другому лицу значительный вред.

Исключение ожидаемо сделано для правоохранительных органов в сфере использования биометрической идентификации. Помимо этого, использование ИИ данного класса возможно в интересах госуправления, здравоохранения, энергетики и т.д., однако оно должно строго контролироваться, а в ряде случаев будет доступно только после специального судебного или иного разрешения, выданного компетентным органом.

Высокий риск (Chapter III. Article 6)

Системы ИИ, относящиеся к технологиям с высоким риском, включают разработки, которые могут применяться в работе судебных органов власти или правоохранительных органов (например, ИИ для поиска вариантов судебных решений или оценки достоверности доказательств); в сфере трудоустройства при сборе информации о работниках (например, сор­тировка информации из резюме), а также любые методы ИИ, которые могут подверг­нуть опасности жизнь и здоровье граждан, применяемые в обеспечении работы инфраструктуры. Тщательному контролю также будет подлежать ИИ, применяемый в образовательных и медицинских проектах, в банковском и государственном секторе и пр.

Раздел, посвященный ИИ с высоким риском, является самым объемным и включает в себя упоминание продуктов, в которые может быть встроен ИИ (оборудование, автомобили, игрушки), а также программное обеспечение, оптимизирующее оказание услуг как в частных, так и в государственных организациях. В отличие от запрещенных методов, системы ИИ с высоким риском будут являться таковыми, только если они не представляют значительную угрозу причинения вреда здоровью, безопасности или основным правам физических лиц, в том числе не смогут оказать существенного влияния на результат принятия решений.

Полное описание методов использования ИИ с высоким риском содержится в Приложении III (Anex III) к Закону.

Ограниченный и минимальный риски (Chapter V. Article 52, 56, 69)

К ИИ, классифицируемому как система с ограниченным риском использования, предъявляется меньше требований. Самое основное из них — уведомлять пользователей о том, что они работают с ИИ. Например, чат-боты, дипфейки или программы по созданию генеративного контента (ChatGPT, Midjourney и пр.).

ИИ с минимальной степенью риска разрешен к свободному обороту. В эту категорию отнесены самые простые приложения для оконечных абонентских уст­ройств, браузеров и спам-фильтры.

В любом случае выходные данные систем ИИ должны «маркироваться» доступным для опознавания способом как искусственно созданные или обработанные. Для систем ИИ с ограниченным или минимальным риском рекомендуется следовать общим принципам, таким как человеческий надзор, исключение дискриминации и справедливость. Закон не делает исключений для ИИ, доступного для общего пользования или предоставленного ограниченному кругу лиц (например, для бета-тестирования или служебного использования).

Справочно.
Сайт Института будущего жизни (Future of Life Institute (FLI)) (https://artificialintelligenceact.eu/) предлагает интерактивный поиск по AIAct, публикует черновики, комментарии и краткие обзоры отдельных глав (разделов) Закона.
На сайте размещен интерактивный тест по проверке системы ИИ на соответствие требованиям Закона.
Среди меценатов и консультантов FLI — Илон Маск (CEO SpaceX, Tesla и Twitter), Яан Таллинн (Skype), космолог Стивен Хокинг и др.

Санкции и ответственность

Согласно позиции Европарламента, штрафы распределяются по уровням в зависимости от нарушенного положения: за запрещенные действия назначаются самые высокие штрафы, а за другие нарушения — более низкие. 

Так, использование запрещенных методов ИИ, то есть систем с неприемлемым риском, может привести к штрафам в размере до 35 миллионов евро или 7 % от общего оборота за предыдущий финансовый год. Несоблюдение требований управления данными, предъявляемых к операторам систем ИИ, и требований прозрачности и предоставления информации — к штрафам до 15 миллионов евро или 3 % оборота за предыдущий финансовый год. Несоблюдение любых других требований или обязательств — к штрафам в размере до 7,5 миллионов евро или 1 % от мирового оборота. Взыскание неустойки в твердой денежной сумме или в процентном соотношении будет зависеть от того, какая сумма окажется большей (Chapter XII. Article 99).

AIAct наделяет государства — члены ЕС правом определить, какие органы будут рассматривать дела о взыскании неустойки за нарушение положений Закона, в зависимости от их правовой системы (суды или иные органы, наделенные соответствующими полномочиями).

Для обычных пользователей (как граждан, так и юридических лиц) Законом предусмотрен механизм подачи жалоб и обращений по вопросам, связанным с функционированием ИИ (от необходимости разъяснений, почему конкретная система пришла к конкретному выводу (приняла определенное решение), до претензий о нарушении фундаментальных прав (прав человека)) (Chapter IX. Article 85–87).

Вступление в законную силу и область действия

За принятие AIAct проголосовали 523 депутата, против высказались 46, а еще 49 воздержались. После одобрения Закона Европарламентом его текст должен пройти обязательную юридическо-лингвистическую проверку, а затем он уже будет одобрен Советом Европы (предположительно в мае). AIAct вступит в законную силу через 20 дней после публикации в официальном журнале ЕС, однако будет подлежать применению через 2 года с момента публикации, за исключением ряда положений. Например, запрет на использование ИИ с высоким риском начнет действовать через 6 месяцев (Article 85) после вступления AIAct в законную силу, а через 12 месяцев в государствах-членах должны быть созданы компетентные органы по надзору. Окончательно все положения Закона будут действовать с 31.12.2030.

AIAct направлен на регулирование каждой системы ИИ, которая затрагивает пользователей в ЕС прямо или косвенно. Таким образом, он основан на принципе экстерриториальности: например, Закон также будет распространять свое действие на поставщиков (разработчиков) в странах за пределами ЕС, которые размещают или вводят в эксплуатацию, импортируют или экспортируют системы ИИ на рынке ЕС. Это также применимо к субъектам за пределами ЕС, если результаты, производимые системой ИИ, используются на территории ЕС.

Цели и пробелы

Несомненно, принятие AIAct вызывает оживленную дискуссию и беспокойство со стороны разработчиков ИИ, так как он направлен на обеспечение безопасности, а не на развитие конкуренции. Однако цель законодателя в данном случае — это в первую очередь ограничение потенциального вреда и защита пользователей от наихудших вариантов и методов использования ИИ.

При этом введение новых терминов и классификация ИИ, которая может зависеть от субъективных факторов, несколько «ослабляет» Закон, что может повлечь за собой правовую неопределенность, негативно отразиться на правоприменительной деятельности судов или станет почвой для развития коррупции в сфере работы контрольных (надзорных) органов. Со временем, безусловно, некая двусмысленность терминологии будет устранена, что сделает AIAct более удобным и понятным для пользователей.

Правовое регулирование результатов (текста, изображений, видео- и аудиоконтента), генерируемых популярными нейросетями, Закон почти полностью обходит стороной, что подчеркивает второстепенность данной проблемы. Краткие упоминания о том, что контент, используемый для обучения ИИ и защищенный авторским правом, должен использоваться с разрешения правообладателя, а также о «маркировке» сгенерированного контента как произведенного ИИ не решают проблемы. Несомненно, данное регулирование направлено на то, чтобы помешать любому поставщику ИИ на рынок ЕС получить конкурентное преимущество за счет применения более низких стандартов авторского права. Однако пока неясно, как эти положения будут трактоваться судами с учетом того, что «разрешение правообладателя» в Законе рассматривается с позиции законодательства ЕС об авторском праве, в то время как сама система ИИ может обучаться и функционировать за рубежом.

Резюме:
Выполнит ли AIAct свою цель по защите общества от потенциального вреда, который может быть причинен ИИ, одновременно стимулируя европейскую экономику, — пока неясно. Многое будет зависеть от конкретной формы подзаконных актов, которые еще предстоит принять. В свете этих рассуждений можно надеяться, что Закон послужит «трамплином», а не ограничителем глобальных усилий по регулированию сферы деятельности в области разработки и использования ИИ.

1634 Shape 1 copy 6Created with Avocode.
Последнее
по теме
• • •
№ 5 май 2024
1740