Правовой фреймворк для использования нейросетей: как государства могут регулировать искусственный интеллект. Читайте на Cossa.ru

08 июня 2023, 13:59

Правовой фреймворк для использования нейросетей: как государства могут регулировать искусственный интеллект

Российская и мировая практики.

shubham-dhage-fcbnWSjh1U8-unsplash.jpg


В России обсуждают введение уголовного наказания за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. Об этом сообщило издание «Известия». Такой законопроект планировали внести в Госдуму в весеннюю сессию, но 4 июня издание ТАСС сообщило о том, что комиссия правительства по законопроектной деятельности не поддержала законопроект о введении отдельной уголовной ответственности за распространение так называемых дипфейков.

По мнению экспертов Agenda Media Group, вопрос регулирования использования дипфейков просто необходим, это полезная и важная инициатива. Как это часто бывает, первыми передовые технологии начинают осваивать мошенники разного сорта, и законодательное регулирование этого вопроса неизбежно. 

Мировая практика

Законодательное регулирование нейросетей и продуктов, ими производимых — один и трендов и вызовов 2023 года. Помимо этого, существуют комплекс этических вопросов и цивилизационных рисков, создаваемых бурным развитием ИИ. Совсем недавно Илон Маск, Стив Возняк и более 1000 других экспертов выступили за приостановку на полгода обучения систем искусственного интеллекта, превосходящих по мощности GPT-4. Цель этой приостановки — понять, как контролировать эти системы искусственного интеллекта.

В апреле этого года мы узнали об инициативах руководств США и Китая, направленных на регулирование этих вопросов и вызовов. The Wall Street Journal сообщает, что Администрация президента США Джо Байдена начала исследовать вопрос о необходимости регулирования сервисов искусственного интеллекта, включая чат-бот ChatGPT.

11 апреля Национальное управление по телекоммуникациям и информации США начало процесс разработки руководящих принципов которые с их точки зрения должны гарантировать, что системы ИИ делают то, что они должны делать, и, что, возможно, более важно, не делают того, что они не должны делать. 

«Ответственные системы искусственного интеллекта могут принести огромную пользу, но только если мы устраним их потенциальные последствия и вред», — Алан Дэвидсон, руководитель данного управления.

Проект документ выложен для общественного диалога и по замыслу разработчиков призван ответить на 4 ключевых вопроса:

  • какие виды тестирования на безопасность должны проводить компании-разработчики ИИ;

  • какие виды доступа к данным необходимы для проведения аудитов и оценок;

  • как регулирующие органы должны обеспечивать безопасность систем ИИ;

  • какие различные подходы могут потребоваться в различных отраслях промышленности, таких как трудовое право или здравоохранение.

На сегодняшний день вопрос регулирования искусственного интеллекта в мире не имеет единого подхода. Однако, закон об авторских правах, промышленных образцах и патентах Великобритании устанавливает, что автором литературного, драматического, музыкального или художественного произведения, созданного с помощью компьютера, является лицо, которое приняло необходимые меры для его создания.

В США в последнее время участились случаи протестов художников, копирайтеров и дикторов против использования нейросетей в сферах их профессиональной компетенции. В декабре прошлого года группа художников с портала ArtStation выступила против публикации изображений, сгенерированных нейросетями. В январе ещё одна группа художников подала в суд на ряд нейросетевых платформ за использование ими авторских работ в процессе обучения нейронных сетей без согласия авторов. Идёт судебный процесс художницы Крис Каштановой, которой отказали в правах на комикс, отрисованный нейросетями. Причем, художнице сначала зарегистрировали права на комикс целиком, а потом пересмотрели лицензию и убрали права на изображения. Это решение породило множество дискуссий на тему, что же может считаться достаточным вкладом человека в процесс создания произведения. Итоговое решения бюро регистрации авторских прав США выглядело так — Каштанова «является автором текста Произведения, а также подбора, согласования и расположения письменных и визуальных элементов Произведения». Но не автором изображений.

Евросоюз недавно сообщил что планирует ужесточить регулирование сферы искусственного интеллекта. С таким предложением выступил еврокомиссар по внутреннему рынку Тьерри Бретон. Он заявил, что решения на базе ИИ, в частности, ChatGPT, могут применяться для создания фейков, мошенничества различного рода, а также плагиата. В Брюсселе обсуждается закон об искусственном интеллекте который будет направлен на снижение рисков, представляемых различными моделями искусственного интеллекта. Вступление в действие этого закона намечено на 2023 год.

В законе об авторском праве в Австралии прямо указывается на требование, что автором может быть только «квалифицированное лицо», что исключает возможность нейронной сети быть автором произведения. Аналогичная ситуация существует в Канаде, где автором произведения может быть только гражданин Канады или лицо, проживающее в Канаде. Таким образом, правовое регулирование применяется только в случаях, когда компьютер является вспомогательным инструментом при создании объекта творчества, а не при полном создании произведения нейросетью.

Японское законодательство является единственным в мире, которое рассматривает вопрос о творчестве нейросетей. Предлагается ограничить охрану произведений, созданных искусственным интеллектом, и рассматривать их как товарный знак, отводя правовое регулирование в область недобросовестной конкуренции. При таком подходе права на цифровые произведения будут принадлежать создателю соответствующего алгоритма, что может ограничить защиту популярных произведений и вывести их из сферы действия авторского права.

Создание законопроекта является важным шагом для защиты интересов граждан и предотвращения возможных преступлений. Однако, также необходимо учитывать, что дипфейки могут использоваться не только в криминальных целях, и «не выплеснуть с водой ребенка».

Алексей Парфун, CEO Agenda Media Group: «Цифровые копии знаменитостей — это огромный „голубой океан“. Образование, кинопроизводство, музыкальная индустрия, реклама — потенциальных выгодоприобретателей развития нейросетей подмены видео изображения много. Наша компания осознает важность этой технологии и использует её в своей работе, однако мы также придерживаемся принципов этики и не используем дипфейки для обмана потребителей. Мы считаем, что регулирование использования дипфейков должно быть более широким и включать не только наказание за их использование в криминальных целях, но и установление разумных и понятных правил использования в маркетинге».

Создание своей системы защиты от дипфейков в российских банках является важным шагом для обеспечения безопасности финансовых операций. Но она не должна становиться тормозом на пути прогресса технологий искусственного интеллекта. В этом смысле передовым представляется опыт КНДР.

В Китае с 10 января 2023 года действуют правила, введенные Администрацией киберпространства Китая (CAC), которые запрещают создавать дипфейки без разрешения самого субъекта или во вред национальным интересам. Дипфейки разрешены в том случае, если они не несут «вредоносную информацию» и маркируются как контент, созданный с помощью искусственного интеллекта. Маркировка будет обязательной для всего контента, производимого с помощью искусственного интеллекта, её нельзя скрывать. Данный путь представляется вполне логичным и понятным.

Буквально на днях, 11 апреля управление по вопросам киберпространства КНР опубликовало проект «Меры по управлению службами генеративного искусственного интеллекта» и открыло его для комментариев. В документе прямо оговорено, что меры касаются продуктов относящихся к технологиям, которые генерируют текст, изображения, звуки, видео, коды и другой контент на основе алгоритмов, моделей и правил. Заметный резонанс вызвала предлагаемая в этом проекте мера по обязательной маркировке сгенерированных изображений, видео и других видов контента.

Одна из статей предлагаемого проекта напрямую запрещает использование генеративного контента в рекламе — «провайдер должен направлять пользователей к научному пониманию и рациональному использованию контента, созданного с помощью генеративного искусственного интеллекта, не использовать сгенерированный контент для нанесения ущерба имиджу, репутации и другим законным правам и интересам других лиц, а также не заниматься коммерческой рекламой или некорректным маркетингом».

Российская практика

В России в настоящее время отсутствует чётко определенный правовой статус нейросетей и продуктов, созданных с их помощью. Ключевой нормой в регулировании выступает ст. 1257 Гражданского кодекса (ГК РФ), в соответствии с которой «автором произведения науки, литературы или искусства признается гражданин, творческим трудом которого оно создано». В 2022 году законодатели в России предприняли попытку закрепить правовой статус цифрового искусства. В мае 22 года в Государственную Думу был внесён законопроект, содержащий поправки к статье 1225 ГК РФ. Авторы инициативы предложили рассматривать не взаимозаменяемые токены (NFT) как интеллектуальную собственность. Законопроект не прошел дальше в связи с отсутствием в российском законодательстве определений понятий «цифровой контент», «цифровой актив», «не взаимозаменяемые данные» и «блокчейн». Формирование глоссария и законодательных норм, касающихся сферы ИИ представляется сегодня одним из ключевых вызовов законотворцев. Остается лишь пожелать им удачи в этом и предложить помощь профессионального сообщества.

Помните, три закона роботехники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод»?

Первый закон категорически запрещает роботу вредить людям, второй — приказывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону, и, наконец, третий закон приказывает роботу защищать свою жизнь, не нарушая первых двух.

Также и некоторые отраслевые группы и организации, в частности Китай, пытаются сформировать и ввести принципы этического регулирования использования нейросетей. Формируемые принципы звучат так.

  • Принцип прозрачности, который предполагает, что нейросети должны быть понятными и объяснимыми для пользователей.

  • Принцип ответственности, который подразумевает, что создатели и владельцы нейросетей несут ответственность за их использование и возможные последствия.

  • Принцип справедливости, который требует, чтобы нейросети не дискриминировали людей на основе расы, пола, возраста и других характеристик.

  • Принцип безопасности, который подразумевает, что нейросети должны быть защищены от злоупотреблений и кибератак. Эти принципы призваны обеспечить этическое использование нейросетей и защитить права и интересы пользователей.

Будем наблюдать за формированием международной и российской практики в сфере регулирования ИИ. Там впереди много интересного.

Присылайте свои комментарии к ситуации на digital-рынке (короткие или развёрнутые, во втором случае сделаем вам полноценную колонку в статейной ленте Коссы):

Email: 42@cossa.ru
Телеграм: @cossawer
VK: vk.com/cossa

Телеграм Коссы — здесь самый быстрый диджитал и самые честные обсуждения: @cossaru

📬 Письма Коссы — рассылка о маркетинге и бизнесе в интернете. Раз в неделю, без инфошума: cossa.pulse.is

✉️✨
Письма Коссы — лаконичная рассылка для тех, кто ценит своё время: cossa.pulse.is

Вход на cossa.ru

Уже есть аккаунт?
Авторизуйся через VK:
Vkontakte
Не забудьте написать email на странице своего профиля для управления рассылкой