Top.Mail.Ru
Колонки

Регулирование ИИ: куда мы движемся и что учесть бизнесу сейчас?

Колонки
Владислав Елтовский
Владислав Елтовский

Глава практики цифрового права SEAMLESS Legal

Екатерина Алипова

Вопросы регулирования искусственного интеллекта возникали уже давно, но сегодня взрывной рост разработок привел к тому, что генеративный ИИ прочно вошел в наши жизни. Это вызвало новую волну оживленных дискуссий как на бытовом, так и на государственном уровнях.

Вместе с главой практики цифрового права SEAMLESS Legal Владиславом Елтовским анализируем текущий уровень развития специализированного законодательства в отношении ИИ, актуальные правовые проблемы, с которыми могут столкнуться компании в России при внедрении технологий искусственного интеллекта в бизнес-процессы, а также даем рекомендации по минимизации сопутствующих правовых рисков.

Регулирование ИИ: куда мы движемся и что учесть бизнесу сейчас?

Обсуждения регулирования искусственного интеллекта происходят в разных сферах общественной жизни, а прогнозируемые последствия порой оцениваются как поворотные для человечества и его развития.

McKinsey в своем отчете оценивают, что от 60 до 70 % текущей нагрузки на работников могут быть автоматизированы с помощью генеративного ИИ. Активные пропоненты ИИ предвосхищают «смерть» отдельных профессий.

Ученые, проанализировав несколько современных ИИ-моделей, говорят об отсутствии у них сознания в научном смысле, но не исключают возможность создания ИИ-технологии с сознанием в будущем.

Активное обсуждение ИИ-технологий и их применение в жизни естественным образом вызывают вопросы и среди представителей юриспруденции. Причем вызовы возникают как с точки зрения использования ИИ в рамках уже устоявшихся правовых отношений (например, вопросы интеллектуальной собственности), так и на принципиальном уровне регулирования технологии как таковой.

Регулирование ИИ

Учитывая популярность ИИ, большинство законодателей развитых и развивающихся стран уже высказались о необходимости либо приступили к подготовке законов в отношении ИИ.

До подготовки полноценных актов, регулирующих ИИ технологии в целом, в отдельных странах пытались ограничить использование ИИ, в частности при создании дипфейков (реалистичной подмены фото-, аудито-, видеоматериалов).

  • Например, в США, штатах Калифорния и Техас был введен запрет на использование дипфейков для влияния на ход выборов, а в Джорджии, Калифорнии и Вирджинии – для создания порнографических материалов.
  • В Китае в 2022 году также появилось специальное регулирование для контента, созданного с помощью ИИ, в частности была введена обязанность маркировки такого контента.

Однако это лишь точечное регулирование всего одного направления, в котором может использоваться ИИ. Принимая во внимание весь объем общественных отношений, который может быть затронут ИИ, а также риски, возникающие для граждан и организаций, многие страны приняли решение о полноценном регулировании ИИ как технологии в целом.

Проект регламента ЕС в отношении ИИ содержит, пожалуй, самое подробное предложение по регулированию ИИ на основании риск-ориентированного подхода и вне зависимости от способа применения ИИ.

Регламент предлагает определить общественные отношения, в которых использование ИИ недопустимо в целом. Например, социальный скоринг или использование ИИ для подсознательного влияния на человеческое поведение. 

Помимо этого, будут определены сферы, в которых использование ИИ предполагает высокие риски (к примеру, функции по принятию решения о найме работников, о приеме в образовательные учреждения, а также биометрическая идентификация лиц). В этих сферах поставщики ИИ-решений будут подчиняться ряду обязанностей, включая подготовку технической документации, внедрения контроля качества системы, прохождение процедуры сертификации.

  • В Киргизстане был разработан и опубликован проект Цифрового кодекса, в котором отдельная глава также посвящена системам искусственного интеллекта.
  • В Китае тоже близки к принятию более комплексного регулирования.
  • В Канаде проводят работу по созданию Кодекса практик для генеративных ИИ систем. Наконец, и в России уже публично заявляли, что закон готовится.

Таким образом, уже очевидно, что все компании, которые осуществляют деятельность в сфере разработки ИИ-технологий, а также использующие ИИ-технологии в своем бизнесе рано или поздно попадут под регулирование.

В связи с ожидаемым принятием ИИ законов важно отметить, что довольно частым трендом сейчас является так называемое «трансграничное применение закона», то есть обязанность иностранных компаний выполнять требования местных законов, если они таргетируют рынок соответствующей страны.

Например, если российская компания предлагает свои онлайн услуги потребителям в Польше, то такая компания может попадать под действия законодательства Польши. Такой подход реализован и в ЕС, включая GDPR и проект регламента ИИ, и в России, например, в законе о персональных данных и законе «о приземлении ИТ компаний».

Если ваша компания занимается деятельностью, связанной с ИИ, которая не ограничена только страной инкорпорации, то мы рекомендуем следить за принятием ИИ законов во всех странах, в которых вы предлагает свои продукты или услуги.

Уже на этом этапе можно понять примерное направление регулирования, а именно необходимость принятия технической документации в отношении технологий, установления правил использовании ИИ, возможную необходимость сертификации. Таким образом, уже необходимо учитывать будущее регулирование и вносить необходимость комплаенса при долгосрочном планировании.  


Читать по теме: Евросоюз планирует ужесточить контроль за AI-технологиями


Отдельные правовые проблемы использования ИИ

Несмотря на отсутствие специального регулирования, о котором мы говорили выше, компании уже сейчас должны учитывать существующие юридические рамки. 

Ниже мы рассмотрим отдельные правовые риски использования ИИ, которые могут быть актуальны для многих компаний. Важно отметить, что это замечания общего характера, и секторальное законодательство, к примеру в финансовой индустрии или в сфере здравоохранения, может накладывать ряд дополнительных ограничений. 

Интеллектуальная собственность

Потенциальные нарушения прав на интеллектуальную собственность – это одна из первых проблем, которые возникли при активном использовании ИИ, особенно генеративных технологий. Уже известны претензии со стороны авторов произведений, которые не хотят, чтобы их работы использовались для обучения ИИ, а также заявления музыкальных лейблов о незаконности имитации голоса известных артистов.

Отбрасывая в сторону вопрос защиты самой ИИ-технологии в качестве объекта интеллектуальной собственности (тут нет принципиальных особенностей), проблему соблюдения прав интеллектуальной собственности при использовании ИИ можно разделить на две составляющие:

  1. Входящую информацию, т.е. законность использования чужих произведений при обучении и использовании ИИ; и
  2. Исходящие материалы, т.е. возникновение прав на создаваемый объект в целом и распределение прав на него.

Законность использования чужих произведений для обучения ИИ зависит от законности получения доступа к такому произведению и цели использования.

Если мы говорим об общем обучении генеративного ИИ, например, для подготовки нового текста в стиле романтизма XIX века, то использование произведений, находящихся в публичном доступе, лишь для обучения представляется допустимым использованием.

Однако, могут возникать и более спорные ситуации:

  • Если ИИ получает незаконный доступ к закрытым материалам или использует произведения, которые были опубликованы только для некоммерческого использования (например, для образовательных целей) при осуществлении коммерческой деятельности (к примеру, переработка и дальнейшая коммерциализация производной работы без разрешения автора), то вопросы нарушения исключительных прав могут возникать.
  • Кроме того, использование чужих произведений для очевидно незаконных целей (к примеру, перевод произведения на другой язык при помощи ИИ либо создание производных произведений) является явно недопустимой практикой. 

Таким образом, если ваша компания планирует использовать ИИ в коммерческой деятельности, то необходимо заранее оценить законность сбора тех или иных данных, которые могут включать в себя чужую интеллектуальную собственность, а также цель использования ИИ.

При анализе второго вопроса – о распределении прав на созданный ИИ контент, подходы различаются. В большинстве стран объектам интеллектуальной собственности, созданные ИИ, не предоставляется охрана, к примеру, в США недавно в очередной раз отказали в охране авторским правом, произведению, созданному ИИ.

В России отсутствует практика по рассмотрению споров в связи с созданием интеллектуальной собственности искусственным интеллектом. Поэтому на текущем этапе необходимо определить характер использования ИИ, а именно выступает ли ИИ «автором» или используется исключительно как инструмент.

Зачастую при использовании ИИ пользователь каким-либо образом корректирует итоговый результат работы ИИ (например, вносит правки в итоговый текст, подготовленный ИИ).. Это позволяет утверждать, что совокупность действий пользователя по промпту (постановке задач для ИИ-модели) и редактуре итогового продукта ИИ является достаточным творческим вкладом человека, и признать авторские права за пользователем.

Безусловно, ИИ-системы значительно снижают этот авторский вклад, тем не менее, в достаточном количестве случаев авторскую составляющую можно найти для признания прав за пользователем. Таким образом, ИИ становится лишь технологий для создания произведения человекам – по аналогии, использование фото или видеоредакторов не вызывает у нас сомнений, что права на итоговый результат принадлежат автору.

Тем не менее, нужно признать, что порой ИИ создает самостоятельный контент без значительного вклада со стороны человека. В этой части в настоящий момент отсутствует специальное регулирование, а значит велика вероятность, что при оценке творческого вклада человека не будут признаваться никакие права на объект интеллектуальной собственности, созданные исключительно ИИ.

Поэтому, если бизнес внедряет ИИ в процессы, которые связаны с созданием интеллектуальной собственности (к примеру, подготовка текстов, включая переводы, написание программного кода, создание изображений), рекомендуется вовлекать в эти процессы человека в пределах, достаточных для признания ИИ лишь инструментом, а не «автором» созданных произведений.


Читать по теме: Большинство юристов в России высказались за регулирование ИИ


Защита персональных данных

На сегодняшний день защита персональных данных является одной из наиболее насущных тем для многих государств. Почти везде приняты детальные законы, регулирующие порядок обработки данных. И, безусловно, ИИ и его использование затрагивают и этот пласт отношений. 

Если ИИ используется при сборе и обработке персональных данных, то при структурировании ваших отношений необходимо учитывать внедрение ИИ-технологий с тем, чтобы предусмотреть это в политиках обработки персональных данных, определиться с основанием обработки персональных данных, в том числе включить необходимые формулировки в согласия, если последние собираются.

Использование ИИ-систем, особенно сторонних поставщиков, должно соотноситься с принятыми мерами защиты персональных данных, а также не создавать дополнительных рисков утечек.

Таким образом, как и внедрение любой другой технологии, использованию ИИ-систем в деятельности компании должен предшествовать аудит текущих процессов по обработке данных и внесение в эти процессы соответствующих изменений.

Одним из наиболее актуальных вопросов при обработке данных с помощью ИИ-технологий является «автоматизированное» принятие решений без участия человека. Ярким примером являются практики финансового рынка, где принятие решения о выдаче финансового продукта осуществляется ИИ.

В законах большинства стран такой способ обработки персональных данных охраняется дополнительно. В соответствии с GDPR субъект персональных данных имеет право отказаться от принятия таких решений, а такая обработка персональных данных может осуществляться на основании ограниченного выбора правовых оснований.

В России регулирование еще строже – принятие решений на основании автоматизированной обработки данных возможно только при наличии письменного согласия.

Соответственно, при внедрении автоматизиворанных решений необходимо проверить применимость законодательных ограничений и обеспечить соблюдение прав субъектов персональных данных.


Читать по теме: Министры стран G7 договорились о пяти принципах ответственного использования ИИ


Договорные отношения

Если компания планирует использование ИИ для исполнения договоров, то необходимо проверить текущие договорные отношения либо стандартные формы договоров, которые используются с клиентами.

Почти все договоры сейчас устанавливают режим конфиденциальности на информацию, которой обмениваются стороны. Таким образом, перед тем как использовать ИИ необходимо проверить:

  1. порядок использования ИИ. Если ИИ встроен в ИТ-инфраструктуру компании, и все данные не выходят за периметр защиты, то отсутствуют какие-либо проблемы. Если же используются стандартные решения третьих лиц (например, ChatGPT), то они зачастую предполагают передачу данных поставщику ИИ-системы, что юридически означает передачу информации, которая может считаться конфиденциальной;
  2. и запреты на передачу информации третьим лицам. Если данные нельзя передавать, то нельзя использовать ИИ-системы третьих лиц.

Помимо конфиденциальности, имеющиеся данные могут признаваться и другим видом охраняемой информации, например, банковской тайной, врачебной тайной. Такая квалификация может накладывать дополнительные обязанности на владельцев информации.

Наконец, необходимо также оценивать сущность договора и возможность применения ИИ для его исполнения.

К примеру, если договором предполагается создание произведения, и важной составляющей является именно личность исполнителя и его/ее способности, таланты, опыт, то использование ИИ вместо самостоятельной деятельности можно будет рассматривать как ненадлежащее исполнение договора.

Таким образом, если при исполнении договора компания планирует использовать ИИ, то необходимо заранее проверить наличие противоречий с договоренностями сторон и согласовать использование ИИ, при необходимости. 

Регулирование отношений внутри компании

Все компании по-разному относятся к внедрению ИИ в свои бизнес-процессы. Кто-то довольно скептически относится к возможности замены части функций людей технологиями. Другие, наоборот, уже внедряют ИИ-решения и видят положительные результаты от их использования.

Но, в любом случае, при внедрении ИИ-систем для бизнес-процессов или разрешения работникам использования сторонних ИИ-продуктов для исполнения рабочих функций необходимо провести анализ юридических рисков, в том числе приведенных выше.

Компания отвечает за действия работника. Соответственно, неправильное использование работником ИИ-систем (например, нарушение чужих прав на интеллектуальную собственность либо передача конфиденциальной информации клиента в чат-бот третьего лица) повлекут ответственность именно для компании.

Именно из-за этого мы уже знаем случаи запрета использования ИИ, даже внутри больших технологичных компаний.

Для управления рисками необходимо установить допустимые пределы использования ИИ своими сотрудниками: когда ИИ можно использовать и нельзя; какие данные допустимо вносить в ИИ системы; порядок проверки и валидации результатов работы ИИ; уведомление работодателя об использовании ИИ.

Надлежащая оценка как с юридической, так и этической точек зрения поможет снизить потенциальные риски и установить надлежащие бизнес-процессы с использованием ИИ.

***

Очевидно, что ИИ уже стал частью нашей повседневной жизни и его дальнейшее внедрение только усилится. Нам еще предстоит ответить на множество вопросов касательное его использования, подстраиваться под новое регулирование и адаптировать бизнес-процессы.

Уже на этом этапе, если ваша компания внедряет или планирует внедрять ИИ технологии, то вам рекомендуется обратить внимание на следующие вопросы:

  • Законность использования чужой интеллектуальной собственности при работе ИИ-системы, как с точки зрения получения к ней доступа, так и целей использования;
  • Контроль за правами на результаты, созданные ИИ, и обеспечение надлежащего уровня человеческого вовлечения;
  • Законность обработки персональных данных при использовании ИИ-систем;
  • Наличие договорных ограничений на использование ИИ; и
  • Принятие специализированных законов об ИИ, которые могут ввести дополнительные обязанности. Важно обратить внимание, что на основании экстерриториального принципа законы разных государств могут применяться к одной технологии, и, если вы планируете запускать ваш ИИ продукт в других странах, необходимо проверить наличие у них специализированных законов.

Фото на обложке: Unsplash

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 В России разработали ИИ-решение для ускорения разработки лекарств
  2. 2 OpenAI будет использовать контент Reddit для обучения чат-ботов
  3. 3 От краткого анализа до поиска по видео: в Google появятся функции на базе ИИ
  4. 4 Цифровое бессмертие: в Китае можно заказать аватар близкого человека всего за $150
  5. 5 Как изменится ChatGPT после выхода новой модели GPT-4o
RB в Telegram
Больше полезного контента в Telegram
Подписывайтесь!