Содержание:
В образовательных проектах дипфейк может использоваться для создания цифровых версий исторических деятелей, которые «рассказывают» о своей эпохе, делая обучение более увлекательным и наглядным. В киноиндустрии с помощью дипфейков можно воссоздавать образы умерших актеров или создавать визуальные эффекты, ранее невозможные без применения сложной компьютерной графики.
Таким образом, технология deepfake представляет собой мощный инструмент, который может быть использован как во благо, так и во вред. Это требует комплексного правового регулирования, направленного на защиту прав граждан и предотвращение злоупотреблений, но при этом не должно блокировать позитивное применение данной технологии.
Понятие технологии deepfake
Простыми словами, дипфейк (от англ. deep learning — «глубокое обучение» и fake — «фальшивый») — это технология, которая позволяет создавать фальшивые, но очень реалистичные изображения, видео и аудиозаписи с помощью искусственного интеллекта (ИИ). Для этого используются несколько нейросетей, которые учатся на реальных данных (настоящие фото, видео и пр.). Одна из них создает новое изображение (или звук), пытаясь максимально имитировать оригинал, а другая ищет отличия и проверяет, насколько правдоподобна эта подделка. Таким образом, нейросети как бы соревнуются в создании максимально реалистичного результата.
Понятие «дипфейк» пока не получило законодательного закрепления в Республике Беларусь, как и в большинстве стран. В Законе ЕС об искусственном интеллекте (https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.html) термин «deepfake» определяется как сгенерированный или измененный с использованием технологий искусственного интеллекта контент (включающий изображения, аудио и видео), который может имитировать внешность существующих людей, объектов, мест или других сущностей или событий и ввести человека в заблуждение, создавая ложное впечатление подлинности и достоверности (ориг.: AI-generated or manipulated image, audio or video content that resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful).
В Беларуси уже давно обсуждают необходимость введения понятия «дипфейк» в законодательство. Еще в 2020 г. по инициативе Министерства информации Республики Беларусь рассматривались возможные меры по регулированию цифровых технологий, в том числе тех, что могут использоваться для создания поддельных фото, видео и аудиоматериалов с помощью искусственного интеллекта. Важно отметить, что рост числа случаев использования дипфейков, как в политических, так и в коммерческих целях, подталкивает к необходимости более строгого правового регулирования в этой области, чтобы защитить права граждан и предотвратить злоупотребления (https://pravo.by/novosti/obshchestvenno-politicheskie-i-v-oblasti-prava/2020/january/44791/).
Зарубежный опыт
На текущий момент в международной практике не существует единого законодательного подхода к регулированию технологии deepfake. Однако в разных странах ведется работа над этим правовым вопросом, особенно в контексте защиты частной жизни и борьбы с дезинформацией. В некоторых юрисдикциях уже приняты меры по регулированию дипфейков.
Россия. В РФ готовится к рассмотрению законопроект, который вводит новый квалифицирующий признак в Уголовный кодекс РФ — совершение преступления с использованием изображения или голоса, в том числе фальсифицированных или искусственно созданных, и биометрических данных. Проект предполагает внесение изменений в УК РФ (ст. 128.1 «Клевета», 158 «Кража», 159 «Мошенничество», 163 «Вымогательство», 165 «Причинение имущественного ущерба путем обмана или злоупотребления доверием») (https://tass.ru/obschestvo/21871427).
Евросоюз. Утвержденный Европарламентом Закон ЕС об искусственном интеллекте требует обязательной маркировки любого контента, созданного или измененного с использованием ИИ (в том числе дипфейков), чтобы избежать введения потребителей и пользователей в заблуждение. Технология дипфейков классифицируется как система ИИ с высоким риском. Использование дипфейков в целях манипуляции или дезинформации, особенно если оно может нанести вред общественной безопасности, вовсе запрещено.
США. Активно ведется работа по регулированию использования дипфейков как на федеральном уровне, так и на уровне отдельных штатов. На рассмотрении Конгресса США находится Закон об ответственности за дипфейки («Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Account-ability Act of 2023») (https://www.congress.gov/118/bills/hr5586/BILLS-118hr5586ih.pdf) . В законопроекте также есть требование, что дипфейки должны обязательно быть промаркированы. Если дипфейк содержит аудио- или видеоэлементы, его нужно сопровождать предупреждением: звуковым, текстовым или с помощью специального значка. Для аудиодипфейков должно быть голосовое предупреждение перед началом записи, а для фото- и видеодипфейков — текстовое уведомление или значок, который сообщает, что этот контент был создан с использованием соответствующей технологии.
На уровне штатов уже существуют законы, которые регулируют использование дипфейков. Например, в Калифорнии и Техасе введены ограничения на использование дипфейков в политических кампаниях, а также для вмешательства в выборы (https://www.honigman.com/the-matrix/the-legal-issues-surrounding-deepfakes).
Конечно, это не исчерпывающий перечень. Среди лидирующих стран в разработке регулирования технологии deepfake можно также отметить Китай и Сингапур, где установлены одни из самых жестких требований для маркировки и контроля контента, созданного с помощью ИИ. Эти страны активно используют правовые меры в борьбе с дезинформацией и поддельными новостями.
Перспективы и предложения
В свете стремительного развития анализируемой технологии национальное законодательство нуждается в адаптации. Для эффективного регулирования способов использования технологии deepfake можно предложить:
- на законодательном уровне закрепить понятие «дипфейк»;
- обязать авторов, владельцев информационных ресурсов и иных распространителей дипфейков обеспечить их обязательную маркировку с указанием факта применения данной технологии;
- внести изменения в уголовное законодательство и законодательство об административных правонарушениях в части квалификации использования дипфейков при совершении правонарушения (преступления) как обстоятельства, отягчающего ответственность;
- установить четкие требования для обработки персональных данных при создании дипфейков, включая необходимость получения явного согласия от владельцев данных на использование их изображений и личной информации.
Эти предложения представляют собой первые минимальные превентивные меры, которые необходимо ввести для эффективного регулирования использования технологии deepfake. Их актуальность продиктована растущими угрозами, связанными с дезинформацией, мошенничеством и нарушением прав граждан через поддельные аудио- и видеоматериалы. Внесение изменений в законодательство на раннем этапе поможет предотвратить более серьезные проблемы в будущем. Международное сотрудничество и обмен опытом между странами могут значительно усилить защиту и стандартизацию в этой области.
Выводы:
Технология deepfake представляет собой значительную угрозу для личной безопасности и правовой стабильности, создавая новые вызовы для законодателя. Текущие правовые механизмы недостаточны для решения проблем, связанных с фальсификацией контента и нарушением прав. Следует продолжать изучать зарубежный опыт и успешные практики и уделить особое внимание обучению и повышению осведомленности среди граждан о рисках, связанных с дипфейками, не только для потребителей контента, но и для возможных его производителей и распространителей. Прямое законодательное регулирование этой области будет способствовать предотвращению использования сфальсифицированной информации в целях мошенничества, клеветы, незаконного использования персональных данных, а также укрепит доверие к информационным источникам. В цифровую эпоху создание и внедрение адекватных правовых норм становится необходимым условием для обеспечения правовой стабильности в обществе.