Контролировать нельзя игнорировать: как страны регулируют развитие ИИ
Стремительное развитие технологий искусственного интеллекта (ИИ) поставило перед мировым сообществом вопросы правового регулирования этой сферы. Даже лидеры технологической отрасли предупреждают об опасности ИИ и призывают приостановить разработку и обучение мощных систем. В таких условиях страны по-своему реагируют на новые вызовы и демонстрируют различные подходы к регулированию технологий.
Дилемма контроля над ИИ
Первые нормативные рамки разного уровня в области ИИ приняты в более чем 60 странах. Общей тенденцией является стремление найти баланс между поощрением инноваций и обеспечением безопасности использования ИИ. Кто-то идет по пути полного регулирования на уровне государства, кто-то оставляет контроль отраслевым ведомствам, где-то формируется саморегулирующаяся среда. Тем не менее появляется все больше нормативных документов, которые влияют на сферу ИИ напрямую и косвенно.
Вопросов в области регулирования ИИ множество, но все они сводятся к нескольким большим дискуссионным темам:
- Права на интеллектуальную собственность: кому принадлежит авторство созданного ИИ продукта.
- Ответственность: кто виновен во вреде, причиненном ИИ, кто должен возмещать ущерб.
- Безопасность: как регулировать техническую разработку, охранять персональные данные и обеспечивать равный доступ к информации и т.д.
- Маркировка: нужно ли информировать пользователей, что продукт создан с помощью ИИ, каким образом делать пометки и т.д.
- Трансграничное использование: как регулировать ИИ с учетом разных законодательных систем и усложняющейся геополитической ситуации.
- Защита прав человека: как растущее влияние ИИ отразится на положении человека в мире.
Председатель Конституционного суда РФ Валерий Зорькин посвятил ИИ лекцию на Петербургском международном юридическом форуме (ПМЮФ), на которой представил концептуальную позицию по вопросам регулирования технологий. Он призвал с осторожностью относиться к ИИ, так как это другой тип интеллекта, который может игнорировать все, что человек считает ценностно важным. По мнению Зорькина, проблема контроля осложняется бизнес-гонкой и использованием ИИ в системах вооружений, так как в этих областях важна эффективность решения, а не «планетарная безопасность и долгосрочные последствия для всего человечества».
Он подчеркнул, что в российском законодательстве правовой статус ИИ не определен. Есть два альтернативных подхода — ИИ как объект права (имущество) или субъект права (по модели юрлица или физлица).
«Личными правами может обладать только «личность». И это не тавтология, но непреложная истина», — председатель Конституционного суда РФ Валерий Зорькин.
Основания привлечения ИИ к ответственности и наделения роботов правосубъектностью отсутствуют. Программы нельзя наказать, так как они не будут испытывать негативные эмоции от наказания. Ошибка системы — это ошибка ее создателя, подчеркнул Валерий Зорькин.
Председатель Конституционного суда соглашается, что необходимо признать особый правовой режим роботов. Однако он должен базироваться на принципах защиты прав и свобод человека, безопасности и предупреждения негативных последствий.
В этой статье рассмотрим ключевые документы в области регулирования ИИ в Евросоюзе, России, США, Китае и на международном уровне.
Россия
Россия с разных сторон подбирается к формированию законодательства в области ИИ. Например, в 2020-м правительство утвердило Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Утвержденная за год до этого Национальная стратегия развития ИИ в России предусматривает создание комплексной системы регулирования общественных отношений в области ИИ, которая должна опираться на принципы безопасности, уважения прав и свобод человека и его воли, недискриминации и ответственности. При формировании нормативной базы в этой области необходимо использовать риск-ориентированный подход — регулирование должно соответствовать уровню рисков. Помимо этого, законодательство должно поощрять разработку ИИ и устранять барьеры, говорится в документе.
Для стимулирования развития технологий ИИ в России организуются экспериментальные правовые режимы (ЭПР). Сейчас работают 14 ЭПР в области медицины и беспилотного транспорта. Также было разработано 180 инициативных предложений для ЭПР по разным направлениям.
В июле президент подписал закон об изменениях в № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации». Поправки направлены на то, чтобы в рамках ЭПР иметь информацию об ответственных за причинение вреда при использовании технологий, созданных с применением ИИ, и вести учет таких технологий. Согласно документу, программы должны содержать положения о страховании гражданской ответственности участников ЭПР за причинение вреда жизни, здоровью и имуществу, в том числе при использовании разработанных с применением технологий ИИ решений. Должны прописываться минимальный размер страховой суммы, перечень страховых рисков и случаев. Поправки также предполагают создание комиссии, которая будет устанавливать обстоятельства причинения вреда, его объем и характер, выносить заключение о необходимости принятия мер по минимизации последствий и т.д. Документ обязывает участников ЭПР вести реестр результатов интеллектуальной деятельности с применением ИИ и реестр лиц, которые используют такие решения.
Параллельно идет работа по стандартизации ИИ. Политика Росстандарта подразумевает подготовку более чем 100 стандартов для формирования национальной нормативно-технической базы.
Помимо этого, в 2021 году в России разработал Кодекс этики в сфере ИИ, который к середине 2024-го подписали более 380 российских компаний, 44 федеральных органа власти и 27 иностранных организаций. Кодекс носит рекомендательный характер и применяется только к гражданским разработкам. В 2024 году крупные технологические компании подписали Декларацию об ответственной разработке и использовании сервисов на основе генеративного ИИ. Среди подписантов — Сбер, «Яндекс», MTS AI, Сколтех, ВШЭ и др.
Все чаще в России обсуждается идея так называемого закона об ИИ. В апреле 2024 года председатель комитета Госдумы по информполитике Александр Хинштейн заявил, что необходимо закрепить в отдельном законе нормы, регулирующие сферу ИИ. По его словам, закон будет обсуждаться при подготовке Цифрового кодекса.
В мае член комитета Антон Горелкин рассказал, что Госдума начала работать над законом о маркировке контента, созданного при помощи ИИ (с помощью графических или водяных знаков). Впрочем, один из российских лидеров в области ИИ — «Яндекс» — не стал дожидаться принятия закона и начал самостоятельно маркировать рекламу, сгенерированную с помощью ИИ. Пометки появились в рекламных объявлениях внутри Директа. Маркируются сообщения с изображениями, которые были созданы нейросетью YandexART.
Евросоюз
Закон Евросоюза о регулировании искусственного интеллекта (AI Act) — это первый комплексный закон, устанавливающий единые правила для разработки и использования ИИ на территории союза. Работа над ним началась в 2020 году. Европейский парламент одобрил документ в марте, а Совет ЕС — в мае 2024 года. Закон может стать глобальным стандартом для регулирования ИИ и оказать влияние на формирование нормативной базы в других странах.
В Европарламенте подчеркнули, что закон обеспечивает безопасность и соблюдение основных прав и при этом стимулирует развитие инноваций. «Целью является защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высокорискованного искусственного интеллекта, а также стимулирование инноваций и утверждение Европы в качестве лидера в этой области. Регламент устанавливает обязательства в отношении ИИ, исходя из его потенциальных рисков и уровня воздействия», — добавили в Европарламенте.
Закон базируется на риск-ориентированном подходе. Документ выделяет четыре группы систем ИИ и устанавливает для них правила и ограничения в зависимости от их степени риска: недопустимый, высокий, ограниченный и минимальный риск. Таким образом, закон запрещает системы из первой группы (например, биометрическую категоризацию на основе чувствительных данных), вводит более строгие регуляторные меры для систем из второй и ограничения для третьей. Системы ИИ с минимальным, или отсутствующим риском, разрешаются к использованию.
Наибольшему регулированию подвержены системы с высоким риском. Они могут нарушать права людей, причинить вред здоровью и окружающей среде. Например, это ИИ, который используется в области критической инфраструктуры, образовании, здравоохранении, банкинге и т.д. Контроль за ним должен вести человек, а компании-разработчики обязаны снижать и оценивать риски, обеспечивать безопасность продуктов, вести прозрачную деятельность. Помимо этого, закон устанавливает, что решения из этой группы риска должны проходить регистрацию в базе Евросоюза еще до вывода продукта на рынок или ввода в эксплуатацию.
Разработчики обязаны информировать пользователей, что те взаимодействуют с такими системами. При этом граждане смогут подавать жалобы на ИИ и получать разъяснения по решениям, которые затрагивают их права. Закон обязывает разработчиков маркировать тексты, аудио, видео, которые сгенерированы ИИ или подвергались манипуляциям.
AI Act предусматривает административную ответственность за нарушение положений закона — от 7,5 млн евро до 35 млн евро или 1,5% — 7% годового оборота компании. В новых правилах также есть положения о стимулировании развития технологий. Например, предлагается устанавливать на национальных уровнях «регуляторные песочницы».
В мае в рамках принятого законодательства в Евросоюзе заработал Офис ИИ, который будет контролировать выполнение требований документа и расследовать нарушения, следить за уровнем безопасности ИИ, координировать международное сотрудничество и стимулировать инновации в этой области.
Китай
Китай одним из первых начал разработку национальной стратегии в области ИИ. В 2017 году был утвержден основополагающий документ под названием «План развития искусственного интеллекта нового поколения», который устанавливал подход к разработке технологий и приложений. В стране есть национальные стандарты и этические рекомендации по развитию ИИ. В 2022 году был опубликован Регламент по управлению алгоритмическими рекомендациями в информационных сервисах, который запрещает алгоритмическую генерацию фейковых новостей, обязывает поставщиков проявлять особую заботу о пожилых людях и направлен на предотвращение монополии на рынке. В том же году было выпущено Положение об администрировании информационных интернет-сервисов глубокого синтеза, направленное на регулирование услуг глубокого синтеза для создания изображений, видео, аудио и текста.
Одним из последних знаковых документов стали «Временные меры по регулированию генеративного ИИ». Согласно новым правилам, разработчики ИИ должны нести ответственность за сгенерированный контент, соблюдать права на интеллектуальную собственность и личную жизнь. В документе прописано, что контент, созданный при помощи генеративного ИИ, должен отражать социалистические ценности и не должен подстрекать к свержению социалистической системы и наносить вред национальному единству. Перед выводом ИИ-продукта в массовое пользование модель и алгоритмы должны пройти государственную проверку на безопасность. Изначально документ предусматривал штрафы до 100 тыс. юаней за нарушение требований, но впоследствии от этой идеи отказались.
Читайте по теме: Ainergy. Новые возможности автоматизации с генеративным ИИ на платформе SimpleOne
США
Практика лидеров в области ИИ — США — складывается по пути саморегулирования, когда технологические корпорации договариваются между собой об этичном использовании технологий, а на национальном уровне или на уровне штатов создаются рекомендации и руководства. Впрочем, ведущее положение США в глобальной гонке ИИ закрепляется в Законе о национальной инициативе в области ИИ, принятом в 2020-м. Эта линия была задана еще в 2019 году, когда президент Дональд Трамп подписал Указ о поддержании лидерства Америки в области ИИ. Документ устанавливал принципы и стратегии по укреплению потенциала страны в этой области.
В 2023 году президент США Джо Байден подписал Указ о безопасном, защищенном и заслуживающем доверия ИИ. Документ устанавливает новые стандарты безопасности ИИ, в том числе обязывает разработчиков делиться результатами тестирования на безопасность с правительством. Положения указа также направлены на обеспечение конфиденциальности персональных данных, защиту от мошенничества и обмана с использованием ИИ.
Вслед за указом Национальный институт стандартов и технологий при Министерстве торговли выпустил четыре проекта публикаций. Они касаются управления рисками генеративного ИИ, обеспечения безопасной разработки ПО для генеративного ИИ, снижения рисков сгенерированного контента и плана по разработке глобальных стандартов ИИ.
Международное регулирование
Глобальное регулирование ИИ находится на начальной стадии развития. Большинство стран участвуют в обсуждении и признают необходимость международного сотрудничества и консенсуса в этой области. Однако из-за разницы национальных правовых систем и подходов к регулированию ИИ правительствам сложно прийти к согласию. Практика международного сотрудничества и история показывают, что создать наднациональный орган, требования которого страны выполняли бы безукоризненно и не могли проигнорировать, невозможно.
Разные объединения и организации разрабатывают нормы и рекомендации по развитию и регулированию ИИ. Документы подписывают члены-участники, однако это не гарантирует исполнение установленных правил. Например, Генассамблея ООН приняла резолюцию под названием «Использование возможностей безопасных, защищенных и надежных систем искусственного интеллекта для устойчивого развития». ЮНЕСКО выпустил «Рекомендации об этических аспектах ИИ». Соглашения в области ИИ есть у ОЭСР, НАТО, G7 и др. Страны БРИКС обсуждают создание единой структуры по управлению ИИ. Тема регулирования и разработки стандартов ИИ будет одной из ключевых во время председательства России в объединении в 2024 году.
Соглашения об ответственной разработке и использовании ИИ подписываются на уровне компаний. В частности, такие договоренности есть между лидерами отрасли Google, Amazon, Microsoft, OpenAI, Anthropic, Inflection и Meta (признана экстремистской организацией и запрещена в России).
Баланс между свободой и регулированием становится ключевым фактором для успешного развития технологических компаний. Те страны, которые смогут найти этот баланс, будут лидировать в глобальной гонке ИИ.