Технологии искусственного интеллекта (ИИ) постепенно становятся частью повседневности. Благодаря их развитию можно не только быстро обрабатывать массивы данных и строить на их основе точные прогнозы развития сложных систем и явлений, но и активно решать глобальные социальные, экономические и экологические проблемы. Вместе с тем до сих пор не решен вопрос оптимального правового регулирования отношений в этой сфере.

О том, почему так актуально сегодня предотвратить общественно опасные проявления применения ИИ, а также что уже могут предложить законодатели различных стран по данному вопросу, ilex.by побеседовал с Юрием Никитиным, начальником отдела НПЦ Генеральной прокуратуры Республики Беларусь.

Юрий Александрович Никитин

начальник отдела НПЦ Генеральной прокуратуры Республики Беларусь
кандидат юридических наук, доцент

 

— Юрий Александрович, давайте начнем нашу беседу с самого простого: откуда к нам пришел искусственный интеллект?

— Если тезисно, то родоначальником ИИ является английский математик, логик, криптограф Алан Тьюринг. Он в 1950 году опубликовал в журнале «Mind» статью «Вычислительные машины и разум» — основополагающую работу в области ИИ.

В 1950–1960-х гг. началось активное развитие кибернетики, ставшей предвестником появления новых работ по ИИ. В те годы разрабатывались теории биологического обучения и были реализованы первые компьютерные модели восприятия информации мозгом.

В 1958 г. разработан перцептрон Розенблатта, который стал одной из первых моделей нейросетей. Именно тогда были заложены основы теории нейросетей как компьютерного образа человеческого мозга.

В 1970-е гг. стали появляться системы, основанные на знаниях, и был заложен фундамент современных экспертных систем.

Период с 1980 г. по 1995 г. считается второй волной развития современного глубокого обучения. В то время появился термин искусственные нейронные сети (нейросети), которые пытались применять во многих сферах жизнедеятельности человека, включая сферу финансов и инвестиций. С их помощью строили модели, предсказывающие поведение финансовых рынков, прогнозирующие доходы компаний, и др.

Начало XXI века — расцвет всего машинного обучения и, в частности, его подобласти глубокого обучения (современное название нейросетевых алгоритмов).

— Как мировое сообщество определяет искусственный интеллект? В чем его специфика?

— Определение сформулировано многими авторами, но с точки зрения различных наук: информатики, физики, математики и др. Это и является основной проблемой для установления единого понимания и закрепления термина в законодательстве.

Можно привести несколько примеров сформулированных дефиниций «искусственный интеллект»:

  • набор средств, позволяющих компьютеру на основании накопленных знаний представлять ответы на вопросы и формулировать на их основе экспертные заключения (Э.М. Пройдаков);
  • математическая модель, способная к обучению, созданная по подобию человеческого мозга (В.С. Дороганов, М.И. Баумгартен);
  • некоторая искусственная (компьютерная) система (Л.С. Болотова);
  • искусственная сложная кибернетическая компьютерно-программно-аппаратная система (И.В. Понкин, А.И. Редькина).

Наиболее удачное определение ИИ дали В.Н. Ручкин и В.А. Фулин — совокупность метапроцедур представления знаний, рассуждений, поиска релевантной информации в среде имеющихся знаний, их пополнение, корректировка и пр., имитирующих деятельность человека.

Система искусственного интеллекта аналогична действию механизмов мышления личности и сходна с решениями, которые принимал бы человек-эксперт. Механизм действия ИИ заключается в поиске оптимального решения. При этом он первоначально воспринимает случайное текущее решение, а затем исследует первичное, чтобы установить его эффективность для разрешения поставленной проблемы. Результатом будет уже лишенное недостатков оригинальное решение.

— Дискуссионный вопрос: является ли искусственный интеллект субъектом права? Как ответ на этот вопрос влияет на нашу повседневную реальность?

— Исследователями в данной сфере отмечается, что особый статус субъекта права присваивается физическим лицам при соблюдении ими определенных юридических условий, а также организациям, поскольку они воспринимаются через призму общности людей, а потому могут самостоятельно осуществлять свою волю через конкретные действия, de jure влекущие последствия.

Не исключено, что в будущем сильный искусственный интеллект может быть признан субъектом материальных и процессуальных правоотношений, поскольку со временем будет обладать всей совокупностью когнитивных характеристик и навыков человека.

Но правосубъектным интеллект могут сделать только специальные формальные законодательные решения, а также значительная модернизация существующей системы правовых принципов, в особенности в той области общественных отношений, которая связана с правосудием.

Таким образом, надлежащее правовое регулирование внедрения и использования ИИ возможно только после определения его правовой сущности.

При этом исследования здесь должны быть не отраслевыми, а междисциплинарными. Нужно задействовать юристов, экономистов, математиков, специалистов в области развития высоких технологий и др.

— Получается, что ИИ, по сути, не регулируется правом, поскольку не определена его правовая сущность?

— Не совсем так. Речь идет о поисках оптимального правового регулирования отношений в рассматриваемой сфере. В настоящее время в юридической литературе выделяют несколько уровней в правовом регулировании ИИ. Это:

  • исследовательские институты, частная (экспертная) инициатива и саморегулирование в отрасли;
  • национальное регулирование;
  • наднациональное регулирование.

Примечательно, что первым в своем роде инициатором разработки определенных рамок для регулирования быстрорастущей отрасли стало экспертное сообщество.

Подобные инициативы появились еще вначале XXI века: в 2001 г. Японской ассоциацией робототехники был подготовлен отчет для разработки правительственной программы, в котором определялись ключевые направления деятельности для вендорных компаний, разработчиков ИИ, госорганов и научно-исследовательских организаций.

Спустя 20 лет в ходе I международного форума «Этика искусственного интеллекта: начало доверия» в Москве 26 октября 2021 г. подписан кодекс этики ИИ, которым утверждены основные его принципы: прозрачность, правдивость, ответственность, надежность, инклюзивность,  беспристрастность, безопасность и конфиденциальность.

Если говорить о национальном регулировании, то этот вопрос решен в настоящее время далеко не во всех странах.

Вопросы применения и использования ИИ частично урегулированы в ФРГ, США, Великобритании, КНР, Республике Корея и Франции.

— В чем же заключается это регулирование и везде ли оно одинаково?

— В целом можно выделить два подхода:

  • приоритет технологического развития и регулирование по мере понимания возникающих проблем (например, США, КНР);
  • регулирование на основе принципа предосторожности, исключающее непредвиденные изменения status quo (страны ЕС).

Специалисты в области развития ИИ утверждают, что благодаря в том числе лояльному подходу к правовому регулированию США и КНР стали основными сверхдержавами в рассматриваемой сфере. Разрыв между ними не так велик, как разрыв между этими странами с одной стороны и всеми остальными — с другой. Они обладают двумя основными преимуществами перед конкурентами: большой базой пользователей и мощным венчурным капиталом.

В странах ЕС развитие сдерживает жесткое правовое регулирование сферы ИИ. Компании, специализирующиеся на создании и внедрении технологий в области ИИ, стараются переместить свои исследовательские центры за пределы Европы, поскольку штрафы за нарушение законодательства в сфере обработки и обращения персональных данных могут достигать 10% от оборота компаний.

В декабре 2023 г. страны ЕС и члены Европейского парламента приняли предварительное соглашение о знаковых правилах, регулирующих использование ИИ. Базовые модели и системы ИИ должны соответствовать таким обязательствам, как:

  • разработка технической документации;
  • соблюдение законов ЕС об авторском праве;
  • распространение подробных обзоров содержания, используемого для обучения.

Специалисты отмечают, что принятие Закона ЕС может стать образцом для других стран и альтернативой мягкому подходу США и Китая.

— Какая ситуация в нашей стране и ее ближайшем стратегическом партнере?

— Законодательные меры по стимулированию развития ИИ приняты как в России, так и в нашей стране.

Так, Указом от 10 октября 2019 г. № 490 утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 года.

В ней дано определение ИИ как комплекса технологических решений, который позволяет имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека.

Стратегия ориентирует на то, чтобы Россия заняла в этой области одно из лидирующих мест. В качестве одной из целей развития ИИ определено обеспечение национальной безопасности и правопорядка. Фундаментальные и прикладные научные исследования в этой сфере пользуются приоритетной поддержкой государства.

Аналогичное определение искусственного интеллекта дано и в постановлении Совмина от 21 апреля 2023 г. № 280.

При этом в Концепции правовой политики Беларуси определены приоритетные направления развития законодательства в данной сфере. В нашей стране предстоит урегулировать вопросы применения ИИ, робототехники, киберфизических систем, беспилотного транспорта, а также системно пересмотреть кодексы по вопросам уголовной ответственности, в том числе на предмет цифровизации уголовного процесса. Законодательно определение закреплено в постановлении № 280.

Особое место ИИ занимает в силу открывающихся возможностей по практическому использованию этих технологий в различных сферах общественной жизни, в том числе в правоохранительной деятельности и при отправлении правосудия.

Важно глубоко осмыслить проблематику развития и применения технологий ИИ, проанализировать уже имеющийся опыт иных государств (в том числе в контексте его недостатков), найти оптимальный вариант правового регулирования соответствующих отношений.

— О каких вариантах идет речь?

— К таким вариантам следует отнести:

  • регулирование, которое стимулирует широкое использование ИИ с оперативным реагированием по мере понимания возникающих проблем;
  • регулирование на основе принципа предосторожности, запрещающее любое использование ИИ, кроме разрешенных исключений;
  • комплексное регулирование, сочетающее элементы первого и второго подходов.

При этом основной целью правового регулирования ИИ в любом из указанных вариантов должно быть предотвращение отрицательных, общественно опасных проявлений применения высокотехнологичных систем, в том числе глобального международного характера.