Васнин И.А.
ГОСУДАРСТВЕННО-ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРОБЛЕМЫ РОССИЙСКОГО ЗАКОНОДАТЕЛЬСТВА
УДК 347; 342.9
И.А. Васнин, студент 1 курса юридического факультета группы ЮБ00/о-2301 Российской таможенной академии
e-mail: ia.vasnin23@customs-academy.ru
Научный руководитель: Альбов Алексей Павлович, профессор кафедры теории и истории государства и права Российской таможенной академии, доктор юридических наук, профессор.
Аннотация. В статье рассматриваются вопросы государственного регулирования сферы использования искусственного интеллекта, выявляются точки зрения на государственное вмешательство в процесс развития искусственного интеллекта, а также перспективы развития российского законодательства в сфере регламентирования ИИ-технологий. На основе проведенного анализа данной темы также были выявлены подходы к определению правового статута искусственного интеллекта.
Ключевые слова: искусственный интеллект, государственное регулирование, правовой статус, правосубъектность, законодательство, защита прав, безопасность, ответственность, степени риска.
В настоящее время искусственный интеллект становится все более важным и широко распространенным инструментом в различных сферах деятельности, включая экономику, медицину, образование и право. Однако с развитием технологий и использованием искусственного интеллекта (далее – ИИ) возникают новые правовые вопросы и проблемы, требующие государственно-правового регулирования.
С развитием технологий искусственного интеллекта возникают вопросы о защите личных данных, ответственности за принимаемые решения, правовом статусе автономных систем, а также о вопросах этики и справедливости. В контексте российского законодательства эти аспекты требуют дальнейшего изучения и урегулирования для обеспечения соответствия закону и защиты прав и интересов граждан.
Искусственный интеллект в праве представляет собой уникальное явление, которое требует особого внимания к вопросам этики, ответственности и законности. С одной стороны, публичное право в цифровом государстве оказывает влияние на обеспечение безопасности использования информационных технологий, защиту персональных данных, кибербезопасность, регулирование интернет-пространства и другие аспекты, связанные с цифровыми технологиями. Государство выступает в роли регулятора и защитника интересов общества в цифровой среде, создавая законы и нормы для урегулирования деятельности в сети.
С другой стороны, частное право в цифровом государстве регулирует отношения между частными лицами, компаниями, предпринимателями и другими субъектами. Это касается электронной коммерции, цифровых контрактов, защиты интеллектуальной собственности в онлайн-пространстве, а также других правовых отношений, возникающих в сети. В условиях использования искусственного интеллекта возникают вопросы о защите данных, ответственности за принимаемые алгоритмами решения, вопросы конфиденциальности, а также в целом вопросы о пределах допустимого вмешательства государства в регулирование данной сферы жизни общества.
Контроль со стороны государства частной жизни граждан – это бытие сегодняшнего дня. «Процесс кардинальных технологических изменений, который обеспечивает более широкие возможности и перспективы тотального контроля за повседневной жизнью людей. Диапазон таких преобразований в эпоху глобализации чрезвычайно широк – от всепроникающего «камерного» наблюдения и фиксации коммуникативных связей внутри сообщества до перевода многих сторон общественной (и, что неизбежно, частной) жизни на «цифру», что также служит методологии усиления государственного контроля в обществе» [1]. Действительно, право в силу своей сущности консервативно и развитие цифровых технологий, в том числе, искусственного интеллекта будет опережать нормы права, правовое регулирование в этой сфере. Поэтому пространство между границей допустимого вмешательства государства в регулирование ИИ и необходимости обеспечения безопасности в информационной сфере будет приводить к безграничному злоупотреблению. У многих людей складывается впечатление, что сегодняшняя жизнь – это «информационный концлагерь», что приводит к резко негативному отношению ко всем нововведениям ИИ.
Государство взяло курс на цифровизацию. Президент в Послании Федеральному собранию 2024 года анонсировал новый национальный проект «Экономика данных». В рамках его реализации «к 2030 году нужно сформировать цифровые платформы во всех ключевых отраслях экономики и социальной сферы» [2]. Соответственно это повлечет за собой систематический контроль правоохранительных органов, направленный на выявление препятствий и нарушений в работе цифровых платформ. Обратимся к социальным сетям; контрольный пакет акций крупных социальных сетей (прямо или косвенно) принадлежит государству. В информационном пространстве на данном этапе вмешательство государства в частную жизнь граждан неизбежно.
Существует масса вопросов использования технологий и результатов деятельности искусственного интеллекта. Должно ли государство регулировать эту сферу общественных отношений? Как обеспечить соблюдение прав человека и гражданина в условиях использования ИИ? Какой в целом правовой статус ИИ? Кто обладает правом интеллектуальной собственности на продукты, созданные искусственным интеллектом? Информация, полученная в результате функционирования ИИ, может являться объектом гражданских, публичных и других правоотношений. В настоящий момент в Российской Федерации не существует принятого какого-либо Федерального закона «Об искусственном интеллекте». Однако применяется в Москве Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации» (далее – Закон № 123) [3]. Это зачатки регулирования создания и использования ИИ в современном информационном праве России.
Сама дефиниция термина «искусственный интеллект» не имеет однозначной трактовки. Официальная дефиниция закреплена, например, в Федеральном законе № 123 «Искусственный интеллект – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека» [3]. Такое антропоморфное понимание ИИ, по мнению ряда учёных, является не верным. Так В. Волков считает, «… что в прообразах животного мира масштаб и принципы деятельности мозга человека, связи и функции нейронов в нервной системе пока не выяснены. По мнению ученого характеристика искусственного интеллекта на основе аналогии с человеческим разумом или живой природой в целом излишне оптимистична. Более продуктивным представляется взгляд на искусственный интеллект как на комплекс информационных технологий, позволяющих обрабатывать и анализировать данные с целью выполнения конкретных задач вне связи с проявлениями мыслительной деятельности человека» [4].
Мы считаем, что наиболее точным определением искусственного интеллекта будет следующее: искусственный интеллект – это способность компьютерной программы или системы обрабатывать информацию, анализировать данные, извлекать знания и принимать решения на основе заложенных алгоритмов, позволяющих использовать методы машинного обучения, нейронные сети и другие технологии для выполнения различных задач. В целом, ИИ стремится создать системы, способные имитировать человеческое мышление и поведение для выполнения задач более эффективно и точно. Это является целью его создания, но данная система не будет эффективна в некоторых отраслях. Так, эксперименты по замене судьи на искусственный интеллект привели к тому, что решение выносилось из «сухого» буквоедства и без учёта жизненных, эмоционально-чувственных составляющих ситуации. Это то, к чему ИИ на данном этапе не готов.
Сфера использования ИИ безгранична, но проблемы с его использованием начинаются в самом начале пути его развития. Сегодня наиболее актуальным остаётся вопрос защиты персональных данных, где уже используется искусственный интеллект. С учетом тенденции развития информационных технологий, появлением новых способов «обхода» законодательства с использованием искусственного интеллекта, справедливо задаётся вопрос: каким образом должно обеспечиваться соблюдение прав граждан?
Обеспечение баланса между государственным регулированием и невмешательством государства важно для эффективного функционирования цифрового общества и защиты интересов всех его участников. В современном российском государстве важно учитывать факт, что искусственный интеллект находится на стадии зарождения. Это порождает дискуссии о том, как должно и должно ли вообще осуществляться регулирование ИИ.
Рассматривая использование ИИ с точки зрения прав человека, выражаются идеи об изменении и дополнении правовых норм об искусственном интеллекте в законодательство России. Предлагаются конституционные поправки, связанные с расширением гарантий в области неприкосновенности частной жизни, с учётом использования искусственного интеллекта. В целях прозрачности работы искусственного интеллекта предлагается закрепить принцип открытости алгоритмов. «Распространенное использование технологий компьютерного зрения и машинного обучения также требует совершенствования гарантий конституционного права на неприкосновенность частной жизни. Аргументы в пользу повышения уровня защиты личности, окружают нас буквально повсюду в виде камер наблюдения, записывающих тысячи часов видеоматериалов, анализируемых в режиме реального времени. Без использования искусственного интеллекта эти записи были бы в значительной степени бесполезны, так как непосредственное изучение их человеком требовало бы непропорционально большого количества времени» [4]. На данном этапе ИИ обучен анализу большого объёма информации, что позволяет использовать его в различных сферах жизни государства. Уже давно практикуется идентификация человека по изображению лица, манерам, поведению, походке, телодвижениям и др. Актуальная на данный момент угроза со стороны функционирования ИИ – деанонимизация людей. Методы деанонимизации людей используют при обработке больших объемов данных, содержащих личную, персональную информацию для защиты конфиденциальности. При помощи ИИ-технологий можно деанонимизировать данные и получить доступ к конференциальной информации.
На данном этапе Российского общества существуют некоторые учёные, выступающие за регулирование государством процесса развития ИИ. По мнению специалистов, самым главным недостатком ИИ является то, что «зачастую механизмы его работы непрозрачны, и в случае ошибки невозможно определить, что к ней привело и как избежать ее повторения в будущем» [5]. Невозможность тотального контроля работы ИИ вызывает недоверие у многих людей, скептически относящихся к внедрению новых информационных технологий.
Рассмотрим пример директивного регулирования использования ИИ в Европейском Союзе. В марте 2024 года был одобрен Закон об искусственном интеллекте. Он направлен на создание общей нормативно-правовой базы для использования искусственного интеллекта. Его сфера действия охватывает все отрасли (кроме военной) и все виды искусственного интеллекта. Сущность этого акта сводится к классификации технологий ИИ и регламентации их использования. По опыту действия GDPR [6], можно спрогнозировать, что большие штрафы (за нарушение указанных норм будет грозить штраф на сумму до 30 миллионов евро) приведут к стагнации в развитии ИИ-технологий.
Российские государственные деятели считают, что государственно-правовое регулирование сферы ИИ приведёт к отставанию в развитии этой сферы. На форуме инновационных финансовых технологий Finopolis, проходивший в 2023 году в Москве, главные игроки банковской отрасли в России сошлись во мнении, что государство не должно вмешиваться в регулирование технологий искусственного интеллекта. Например, председатель правления ПАО «Сбербанк России» Герман Греф отметил: «Самое главное – постараться эту сферу не зарегулировать. Это самое большое, что государство может сделать. Мы видим примеры, когда США и Китай используют ИИ и при этом создают все условия для его развития без излишнего регулирования. Но есть и европейский подход, где сначала идет цифровая директива, а затем принципы регулирования ИИ, которые фактически убили его развитие. Поэтому все крупные компании стараются релоцироваться за пределы Евросоюза. Нам очень важно этого не повторить» [7].
Российские практики (Г.О. Греф, С.С. Собянин, А.Л. Костин и др.) бояться, что законодательство в сфере использования ИИ будет содержать в большей степени запретительные нормы, ограничивающие возможность стремительного развития только зарождающегося в России искусственного интеллекта, но в то же время на практике активно осуществляют внедрение и частичное правовое регулирование ИИ в подведомственной сфере.
Справедливо задаётся вопрос: насколько безопасно давать полную свободу действий лицам в области создания, совершенствования, использования искусственного интеллекта, его технологий и результатов функционирования? Государство должно соотносить свободу и безопасность человека, потребность в стремительном развитии ИИ.
Автор статьи считает, что государственно-правовое регулирование в области создания, пользования, совершенствования, пользования результатами функционирования искусственного интеллекта необходимо осуществлять в соответствии со следующими принципами:
- Прозрачность: законы и нормативные акты, касающиеся ИИ, должны быть понятными и доступными для всех заинтересованных сторон.
- Ответственность: определение ответственности за действия, принимаемые с использованием ИИ, как со стороны разработчиков, так и пользователей.
- Приватность и защита данных: обеспечение конфиденциальности и безопасности информации, обрабатываемой ИИ.
- Этичность: учитывать нравственные и этические аспекты применения ИИ, чтобы избежать негативных последствий для общества.
- Инновации и развитие: поощрение инноваций и развития в области ИИ, при этом соблюдая законодательные рамки и интересы общества.
- Открытость: необходимо обеспечить прозрачность действия алгоритмов ИИ, их понятность.
Эти принципы обеспечат устойчивое и эффективное государственное регулирование сферы искусственного интеллекта.
Государственно-правовое регулирование ИИ не просто необходимо, оно обязательно. Если мы на начальном этапе развития ИИ-технологий не будем выставлять рамки допустимого, то искусственный интеллект создаст огромное количество необратимых процессов. Проблемы, связанные с функционированием ИИ вскоре будут носить характер глобальных проблем. Технологии искусственного интеллекта могут стать оружием, которое намного страшнее чем то, которое используется сейчас – в эпоху гибридных войн. Все это неизбежно, если государства, обладающие возможностью к развитию ИИ-технологий, не установят как национальные, так и международные нормативные правовые акты, регламентирующие пределы допустимого в создании, использовании искусственного интеллекта. Однако эти пределы должны иметь разумное оправдание, так как перерегулирование ИИ-сферы приведёт к её стагнации, что губительно для любого передового государства мира.
В дискурсе на тему искусственного интеллекта и вопросов касательно регулирования государством данной сферы, нельзя не указать, кто будет нести ответственность за правонарушения, совершенные ИИ или с его использованием. Прежде чем рассмотреть этот вопрос, следует рассмотреть правовой статус искусственного интеллекта.
По мнению И. Г. Крысанова-Кирсанова и И. О. Трушина, «Гражданский кодекс Российской Федерации не предусматривает понятия искусственного интеллекта, следовательно, его правовой статус в кодексе не закреплен. Это является актуальной проблемой в отечественном законодательстве, поскольку искусственный интеллект сейчас заменяет труд человека во многих передовых сферах жизнедеятельности, автомобилестроение, медицине, образовании, сельском хозяйстве, искусстве и др.» [8].
А. В. Афанасьевская выделяет несколько концепций определения правового статуса ИИ: «Первая из них предлагает приравнять статус ИИ к статусу физического лица, распространяя тем самым на него весь комплекс прав и обязанностей, регламентируемых действующим законодательством. Вторая концепция – необходимо приравнять статус робототехники к гражданско-правовому регулированию статуса животных. Третья концепция основывается на идее, предлагающей использовать для решения этой проблемы аналогию правового регулирования статуса юридического лица в гражданско-правовых отношениях» [9]. Последний – наиболее приемлемый вариант для современного законодательства России. Существует еще один подход: введение в Гражданский кодекс Российской Федерации понятия электронное лицо с ограниченной правосубъектностью.
Следует отметить, что правонарушения, связанные с интеллектуальной собственностью ИИ пока не нашли отражения в современном Российском законодательстве. Наверняка, ответственность за деяния робота должны нести владелец или собственник в условиях автономной работы ИИ. Однако в условиях пользования, подразумевающего указание на совершение конкретного действия с целью получить результат, ответственность понесёт пользователь, направивший робота на совершение данного действия. Правонарушения, связанные с интеллектуальной собственностью ИИ пока не нашли отражения в современном Российском законодательстве.
На данном этапе развития российского законодательства прослеживается потребность в разработке нормативного акта, способного регулировать общественные отношения в сфере ИИ. По нашему мнению, необходимо принять «Федеральный закон об искусственном интеллекте» или внести дополнение в часть четвёртую Гражданского кодекса Российской Федерации, где бы четко устанавливалась дефиниция ИИ, его правовой статус, право интеллектуальной собственности на результаты работы ИИ. В обязательном порядке должна присутствовать классификация ИИ. В зависимости от уровня развития технологий конкретного вида ИИ необходимо определить сферы и пределы допустимого использования искусственного интеллекта.
Например, продукты ИИ можно разделить на сферы риска: запрещенные продукты, продукты ограниченного пользования (высокая степень риска), остальные системы ИИ (системы со средним и низким уровнем риска).
Продукты, отнесённые к запрещённым – это системы, использующие ИИ для подсознательного манипулирования людьми, что наносит психологический и физический вред здоровью, нарушают основополагающие естественные права человека и гражданина.
Системы высокой степени риска – продукты, представляющие угрозу жизни, здоровью и безопасности человека, безопасности государства. Данные системы должны проходить обязательную сертификацию квалифицированным органом перед выпуском на рынок. К таким системам, например, относится беспилотные транспортные средства, сфера правоохранительной деятельности, обучение, биометрия.
Системы средней степени и менее должны отвечать требованиям российского законодательства в области защиты частной жизни, семейной и личной тайны.
Законодательство в этой сфере должно быть гибким, так как темпы развития технологий искусственного интеллекта высокие. Каждый год появляются совершенно новые, не имеющие ранее аналогов продукты ИИ, созданные, в том числе, самим искусственным интеллектом. Таким образом, выдвигаются несколько противоречивых и противоположных друг другу мнений о регулирования государством сферы ИИ. Важным остаётся следующее: необходимо при разработке нормативных правовых актов, регулирующих возможность создания, совершенствования, использования искусственного интеллекта и результатов его функционирования, учитывать необходимость достижения высокого уровня развития ИИ-технологий и недопустимость вмешательства государства в частную жизнь граждан, обеспечивать защиту прав граждан в информационной сфере. В России разработка ФЗ, регулирующего правоотношения, связанные с ИИ, должна опираться как на опыт отдельного субъекта Российской Федерации, так и на опыт внедрения подобных актов в других государствах с учётом особенности и уникальности Российской Федерации. Только тогда граждане смогут всецело доверять технологиям искусственного интеллекта, пользоваться ими, что позволит России занять лидирующую позицию в сфере искусственного интеллекта.
Использованные источники:
- Квашис, В. О пределах допустимого вмешательства государства в частную жизнь// Общество и право: электрон. версия. 2020. № 1 (71). – С. 8 – 12. [Электронный ресурс] // URL: https://cyberleninka.ru/article/n/o-predelah-dopustimogo-vmeshatelstva-gosudarstva-v-chastnuyu-zhizn/viewer (дата обращения: 25.03.2024).
- Президент России: офиц. сайт. Москва. Обновляется в течение суток. URL: http://www.kremlin.ru/events/president/transcripts/messages/73585 (дата обращения: 23.03.2024).
- Федеральный закон от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации» // Российская газета: офиц. сайт. Москва. Обновляется в течение суток. URL: https://rg.ru/documents/2020/04/28/tehnologii-dok.html?ysclid=lulqlysshf926161240 (дата обращения: 23.03.2024).
- Волков, В. Правовое признание технологий искусственного интеллекта в контексте конституционных ценностей российского государства// Юридические исследования: электрон. версия. 2023. № 3. [Электронный ресурс] // URL: https://nbpublish.com/library_read_article.php?id=40425 (дата обращения: 02.03.2024).
- Лаборатория Касперского: офиц. сайт. Москва. Обновляется в течение суток. URL: https://www.kaspersky.ru/blog/when-ai-decides/22243/ (дата обращения: 14.02.2024).
- Европейская комиссия: офиц. сайт. Брюссель. Обновляется в течение суток. URL: https://commission.europa.eu/law/law-topic/data-protection/data-protection-eu_en (дата обращения: 20.03.2024).
- Интерфакс: офиц. сайт. Москва. Обновляется в течение суток. URL: https://www.interfax.ru/russia/929647 (дата обращения: 10.02.2024).
- Крысанова-Кирсанова, И. Г., Трушина, И. О. Правовой статус искусственного интеллекта // Вестник экономической безопасности. 2022. № 2. С. 104–107. [Электронный ресурс] // URL: https://doi.org/10.24412/2414-3995-2022-2-104-107. (дата обращения: 02.03.2024).
- Афанасьевская, А. Правовой статус искусственного интеллекта// Вестник Саратовской государственной юридической академии: электрон. версия. 2021. № 4 (141). – С. 88 – 92. [Электронный ресурс] // URL: https://cyberleninka.ru/article/n/pravovoy-status-iskusstvennogo-intellekta/viewer (дата обращения: 30.03.2024).