ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В УГОЛОВНО-ПРАВОВОЙ ДОКТРИНЕ
Аннотация и ключевые слова
Аннотация (русский):
Введение: в статье анализируются теоретические подходы к дефиниции искусственного интеллекта, а также рассматриваются вопросы применения в преступной деятельности общественно опасной инновации. Обосновывается целесообразность принятия мер уголовно-правового регулирования искусственного интеллекта. Материалы и методы: методологической основой проведенного исследования послужили общенаучные и частнонаучные методы научного познания, в частности нормативно-логический, диалектико-материалистический и другие методы. Материалами исследования явились действующее российское законодательство, научные публикации. Результаты исследования: анализ уголовного законодательства Российской Федерации свидетельствует, что использование искусственного интеллекта в целях реализации преступного умысла не имеет отражения в Уголовном кодексе Российской Федерации. Обсуждение и заключение: в статье рассмотрены походы к дефиниции «искусственный интеллект», проанализированы способы использования машинного разума в преступных целях, а также сформулировано предложение по совершенствованию действующих норм Уголовного кодекса Российской Федерации, а именно преобразование квалифицирующего признака «с использованием информационных технологий, в том числе сети Интернет».

Ключевые слова:
искусственный интеллект, информационные технологии, преступления, уголовное законодательство, технологии
Текст
Текст произведения (PDF): Читать Скачать

Введение

В настоящее время представление о безопасности меняет свою привычную форму. Важнейшими составляющими безопасности являются не только отсутствие прямых посягательств на охраняемые объекты, но и информационная защищенность данных объектов, высокий уровень систем аутентификации и наличие многоступенчатых форм защиты.

Слияние реального и виртуально мира происходит настолько стремительно, что нельзя выделить группу преступных посягательств, где невозможно применение информационных технологий для реализации отдельных элементов преступного умысла или же преступления в целом.

Преступниками применяется множество технических возможностей от стандартного использования смартфона и мессенджера до новейшего программного обеспечения.

Особый интерес представляет применение преступниками искусственного интеллекта, так как он является наиболее перспективной технологией. Возможность свободного доступа преступников к искусственному интеллекту представляет серьезную угрозу, а его использование значительно увеличивает общественную опасность деяния. Во-первых, применение искусственного интеллекта обеспечивает преступнику анонимность, так как правонарушителя и потерпевшего разделяет виртуальная среда. Во-вторых, использование новейших технологий создает мнимое представление у правонарушителя о правомерности действий или потенциальном шансе избежать наказания.

Обзор литературы

В уголовно-правовой доктрине отсутствует единый подход к сущности искусственного интеллекта. Отдельные аспекты применения машинного интеллекта в преступных целях затрагивают в своих работах М.А. Иващенко, И.Н. Мосечкин, Н.А. Колоколов, И.Р. Бегишев, М.Г. Щербаков, И.В. Савельев, В.А. Лаптев, А.А. Арямов и др.

Материалы и методы

Основой исследования послужили нормы действующего законодательства Российской Федерации, а также научные изыскания по рассматриваемой проблеме. Методическую основу составили общенаучные и частнонаучные методы: индукция, дедукция, анализ, синтез, нормативно-логический, формально-юридический и диалектико-материалистический методы.

Результаты исследования

Проблема толкования сущности искусственного интеллекта в рамках уголовно-правового поля исследовалась множеством ученых. Но в настоящее время в науке по-прежнему отсутствует единообразный подход к определению искусственного интеллекта.

В науке уголовного права определилось два основных подхода к термину «искусственный интеллект».

В соответствии с первым подходом искусственный интеллект представляет собой в больше степени техническое средство, позволяющее имитировать человеческую деятельность на основе естественного разума.

Данного подхода придерживается М.А. Иващенко [1]. Она считает, что наиболее оптимально дефиниция машинного разума зафиксировано в «Национальной стратегии развития искусственного интеллекта на период до 2030 года», утвержденной указом Президента Российской Федерации от 10.10.2019 № 4901, где отмечено, что искусственный интеллект является комплексом технологических решений, позволяющим имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека.

В.А. Лаптев придерживается определения, которое содержится в ГОСТ Р 43.0.5-2009 «Национальный стандарт Российской Федерации [2]. Информационное обеспечение техники и операторской деятельности. Процессы информационно-обменные в технической деятельности. Общие положения»2. В указанном ГОСТе искусственный интеллект определяется как моделируемая интеллектуальная деятельность мышления человека.

Концепция второго подхода состоит в том, что искусственный разум идентичен естественному, следовательно, искусственный интеллект обладает самостоятельностью и должен обладать статусом независимого субъекта. Данного подхода придерживается М.Г. Щербаков, определяя искусственный разум как «человекоподобную систему» [3].

Несмотря на наличие противоположных подходов, безусловным фактом остается то, что искусственный разум представляет собой серьезную угрозу, так как развитие информационных технологий позволяет преступнику беспрепятственно применить искусственный интеллект в своих целях, ему достаточно иметь лишь аппаратное и программное обеспечение.

Искусственный интеллект в настоящее время обладает настолько развитым функционалом, что в последующем может привести к его конкуренции с естественным интеллектом. Колоссальные возможности искусственного интеллекта используются в различных направлениях.

Серьезным вызовом для правового регулирования отношений по поводу применения систем искусственного интеллекта являются широкие возможности для его противоправного или преступного использования [4].

Так, машинный интеллект может быть использован правонарушителем в качестве «маскирующего» средства. Например, с его помощью можно осуществить изменение тембра голоса, а также скрыть особенности или дефекты речи, следы преступлений, оставленные в виртуальной среде, и др.

Наиболее известной «маскирующей» методикой является Deepfake. Принцип работы данной методики основан на том, что на исходный объект накладываются иные параметры, соответствующие другому человеку. Характерной особенностью Deepfake является то, что объектом преобразования может стать не только реальная личность, но и искусственно сгенерированный образ. С его помощью может быть получен доступ к какой-либо информации, а также посредством Deepfake, например, предварительно изменив внешние параметры лица и голоса, преступник может санкционировать денежные переводы со счетов других лиц.

В основе для реализации подобных действий используются генеративно-состязательные нейросети. Механизм состоит из двух этапов. Сначала нейросеть изучает реальный объект, а затем создает вторичный образ, который может быть схож с каким-либо реальным объектом или иметь собственные индивидуальные параметры.

В настоящее время нами не были обнаружены материалы отечественной судебной практики по уголовным делам, в рамках которых преступником был использован искусственный интеллект. Однако в европейских странах факты применения искусственного интеллекта в преступных целях существуют. Так, первый случай отмечен в 2019 году. Жертвой искусственного интеллекта стала британская компания. Руководителю компании поступил звонок якобы от главы концерна с распоряжением о переводе на счет поставщика 220 тыс. фунтов. Позже было установлено, что в ходе звонка были подобны тембр, акцент и особенности речи главы концерна, что и способствовало выполнению распоряжения. В действительности звонок осуществил искусственный интеллект, а денежный перевод был направлен в Венгрию на несколько банковских счетов, в результате преступника вычислить не удалось, а нанесенный ущерб покрыла страховая компания [5].

Использование подобных возможностей позволяет преступнику скрыть собственные исходные данные, что, в свою очередь, делает практически невозможным установление его личности.

Также преступник может использовать искусственный интеллект как запрограммированную модель для совершения преступления. В данном случае основа работы искусственного интеллекта будет состоять именно в реализации объективной стороны деяния. Например, действия искусственного интеллекта выстраиваются в единую цепочку последовательных шагов, которые приводят к совершению преступления. Первый шаг состоит в неправомерном получении доступа к информации из различных социальных сетей; второй шаг состоит в отборе и сохранении материала, порочащего репутацию человека; третьим шагом является использование преступником данных материалов для вымогательства денежных средств.

Но не всегда искусственный интеллект используется целенаправленно для совершения преступления. При выполнении программ искусственный интеллект может допустить ошибку, которая приведет к совершению преступления, или искусственный интеллект самостоятельно примет решение о неправомерных действиях.

Возвращаясь к уголовно-правовой доктрине, отметим, что использование искусственного интеллекта в уголовном законодательстве нормативно не отражено.

Именно отсутствие уголовно-правового регулирования и порождает множество вопросов, связанных с применением машинного интеллекта в преступных целях, или ошибок в работе искусственного интеллекта, которые приводят к совершению противоправных деяний. В научной среде ведутся дискуссии относительно того, чем признается искусственный интеллект (способом, средством или самостоятельным субъектов совершения противоправного деяния); какие именно признаки искусственного интеллекта должна отражать дефиниция; как верно квалифицировать деяния, в которых применяется искусственный интеллект?

Отметим также, что отсутствие законодательного регулирования порождает трудности и в следственно-судебной практике. Так, в настоящее время в Российской Федерации не вынесено ни одного обвинительного решения по делам о совершении преступлений с использованием искусственного интеллекта.

На наш взгляд, искусственный интеллект должен быть признан средством совершения преступления, поскольку признаками субъекта по определению искусственный интеллект не обладает (невозможно оценить критерии вменяемости и возрастные параметры), более того, реализуемые им задачи все же устанавливаются и осуществляются под руководством человека.

В связи с вышеизложенным считаем, что наиболее полно отражает сущностные признаки искусственного интеллекта Национальная стратегия развития искусственного интеллекта на период до 2030 года. Она дает четкое понимание того, что искусственный интеллект остается зависимым от тех задач, которые программирует ему человек, а результаты деятельности искусственного интеллекта лишь сопоставимы с естественным интеллектом, но не абсолютно идентичны.

Обсуждение и заключение

Резюмируя изложенное, укажем, что в современную эпоху законодатель должен учитывать научно-технический прогресс. В целях наиболее эффективного применения норм уголовного законодательства считаем необходимым закрепление искусственного интеллекта в уголовном законодательстве в качестве конструктивного признака, дополнив неоднократно упоминаемые в Уголовном кодексе Российской Федерации признаки «информационно-телекоммуникационные сети» и сеть Интернет, представив единый квалифицирующий признак в следующей редакции: «с использованием информационно-телекоммуникационных сетей, в том числе сети Интернет и искусственного интеллекта». Указанное предложение позволит установить единый теоретический и практический подходы к сущности искусственного интеллекта, а также квалификации преступления.

Список литературы

1. Иващенко М.А. Искусственный интеллект в уголовном законодательстве России // Академическая мысль. 2020. № 4 (13). URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-v-ugolovnom-zakonodatelstve-rossii?ysclid=ld1mf88c4i972968196 (дата обращения: 26.01.2023).

2. Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79 - 102. DOI: 10. 17-323/2072-8166.2019.2.79. 102

3. Щербаков М.Г. Проблемы правового регулирования трансформации правового статуса искусственного интеллекта: постановка проблемы // Ученые записки Крымского федерального университета имени В. И. Вернадского. Юридические науки. 2019. № 3. С. 73-81.

4. Дремлюга Р.И. Использование искусственного интеллекта в преступных целях: уголовно-правовая характеристика // Азиатско-Тихоокеанский регион: экономика, политика, право. 2021. № 3. С. 153. DOI: 10.24866/ 1813-3274/2021-3/153-165

5. Catherine Stupp. Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. The Wall Street Journal. Aug. 30, 2019.


Войти или Создать
* Забыли пароль?