UDK 343.1 Уголовное судопроизводство. Уголовно-процессуальное право
Introduction: the article examines theoretical attitudes to the definition of artificial intelligence, discusses the use of socially dangerous innovations in criminal activity. The expediency of taking measures of criminal law artificial intelligence is substantiated. Materials and Methods: universal scientific research and specific scientific methods provided the methodological basis for the study, in particular normative and logical, dialectical-materialistic and other methods. The materials of the research were the Russian legislation, as well as scientific publications. Results: the analysis of the criminal legislation of the Russian Federation indicates that the use of synthetic intellect for the purpose of implementing criminal intent is not reflected in the Criminal Code of the Russian Federation. In this regard, the author formulated proposals for improving legislation, in particular on the need to introduce additional into the Criminal Code of the Russian Federation. Discussion and Conclusions: the article discusses approaches to the definition of artificial intelligence, analyzes the ways of using machine intelligence for criminal purposes, and also formulates a proposal to improve the current norms of the Criminal Code of the Russian Federation, namely, the transformation of the qualifying attribute “using information technology, including the Internet”.
synthetic intellect, information technologies, crimes, criminal legislation, technologies
Введение
В настоящее время представление о безопасности меняет свою привычную форму. Важнейшими составляющими безопасности являются не только отсутствие прямых посягательств на охраняемые объекты, но и информационная защищенность данных объектов, высокий уровень систем аутентификации и наличие многоступенчатых форм защиты.
Слияние реального и виртуально мира происходит настолько стремительно, что нельзя выделить группу преступных посягательств, где невозможно применение информационных технологий для реализации отдельных элементов преступного умысла или же преступления в целом.
Преступниками применяется множество технических возможностей от стандартного использования смартфона и мессенджера до новейшего программного обеспечения.
Особый интерес представляет применение преступниками искусственного интеллекта, так как он является наиболее перспективной технологией. Возможность свободного доступа преступников к искусственному интеллекту представляет серьезную угрозу, а его использование значительно увеличивает общественную опасность деяния. Во-первых, применение искусственного интеллекта обеспечивает преступнику анонимность, так как правонарушителя и потерпевшего разделяет виртуальная среда. Во-вторых, использование новейших технологий создает мнимое представление у правонарушителя о правомерности действий или потенциальном шансе избежать наказания.
Обзор литературы
В уголовно-правовой доктрине отсутствует единый подход к сущности искусственного интеллекта. Отдельные аспекты применения машинного интеллекта в преступных целях затрагивают в своих работах М.А. Иващенко, И.Н. Мосечкин, Н.А. Колоколов, И.Р. Бегишев, М.Г. Щербаков, И.В. Савельев, В.А. Лаптев, А.А. Арямов и др.
Материалы и методы
Основой исследования послужили нормы действующего законодательства Российской Федерации, а также научные изыскания по рассматриваемой проблеме. Методическую основу составили общенаучные и частнонаучные методы: индукция, дедукция, анализ, синтез, нормативно-логический, формально-юридический и диалектико-материалистический методы.
Результаты исследования
Проблема толкования сущности искусственного интеллекта в рамках уголовно-правового поля исследовалась множеством ученых. Но в настоящее время в науке по-прежнему отсутствует единообразный подход к определению искусственного интеллекта.
В науке уголовного права определилось два основных подхода к термину «искусственный интеллект».
В соответствии с первым подходом искусственный интеллект представляет собой в больше степени техническое средство, позволяющее имитировать человеческую деятельность на основе естественного разума.
Данного подхода придерживается М.А. Иващенко [1]. Она считает, что наиболее оптимально дефиниция машинного разума зафиксировано в «Национальной стратегии развития искусственного интеллекта на период до 2030 года», утвержденной указом Президента Российской Федерации от 10.10.2019 № 4901, где отмечено, что искусственный интеллект является комплексом технологических решений, позволяющим имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека.
В.А. Лаптев придерживается определения, которое содержится в ГОСТ Р 43.0.5-2009 «Национальный стандарт Российской Федерации [2]. Информационное обеспечение техники и операторской деятельности. Процессы информационно-обменные в технической деятельности. Общие положения»2. В указанном ГОСТе искусственный интеллект определяется как моделируемая интеллектуальная деятельность мышления человека.
Концепция второго подхода состоит в том, что искусственный разум идентичен естественному, следовательно, искусственный интеллект обладает самостоятельностью и должен обладать статусом независимого субъекта. Данного подхода придерживается М.Г. Щербаков, определяя искусственный разум как «человекоподобную систему» [3].
Несмотря на наличие противоположных подходов, безусловным фактом остается то, что искусственный разум представляет собой серьезную угрозу, так как развитие информационных технологий позволяет преступнику беспрепятственно применить искусственный интеллект в своих целях, ему достаточно иметь лишь аппаратное и программное обеспечение.
Искусственный интеллект в настоящее время обладает настолько развитым функционалом, что в последующем может привести к его конкуренции с естественным интеллектом. Колоссальные возможности искусственного интеллекта используются в различных направлениях.
Серьезным вызовом для правового регулирования отношений по поводу применения систем искусственного интеллекта являются широкие возможности для его противоправного или преступного использования [4].
Так, машинный интеллект может быть использован правонарушителем в качестве «маскирующего» средства. Например, с его помощью можно осуществить изменение тембра голоса, а также скрыть особенности или дефекты речи, следы преступлений, оставленные в виртуальной среде, и др.
Наиболее известной «маскирующей» методикой является Deepfake. Принцип работы данной методики основан на том, что на исходный объект накладываются иные параметры, соответствующие другому человеку. Характерной особенностью Deepfake является то, что объектом преобразования может стать не только реальная личность, но и искусственно сгенерированный образ. С его помощью может быть получен доступ к какой-либо информации, а также посредством Deepfake, например, предварительно изменив внешние параметры лица и голоса, преступник может санкционировать денежные переводы со счетов других лиц.
В основе для реализации подобных действий используются генеративно-состязательные нейросети. Механизм состоит из двух этапов. Сначала нейросеть изучает реальный объект, а затем создает вторичный образ, который может быть схож с каким-либо реальным объектом или иметь собственные индивидуальные параметры.
В настоящее время нами не были обнаружены материалы отечественной судебной практики по уголовным делам, в рамках которых преступником был использован искусственный интеллект. Однако в европейских странах факты применения искусственного интеллекта в преступных целях существуют. Так, первый случай отмечен в 2019 году. Жертвой искусственного интеллекта стала британская компания. Руководителю компании поступил звонок якобы от главы концерна с распоряжением о переводе на счет поставщика 220 тыс. фунтов. Позже было установлено, что в ходе звонка были подобны тембр, акцент и особенности речи главы концерна, что и способствовало выполнению распоряжения. В действительности звонок осуществил искусственный интеллект, а денежный перевод был направлен в Венгрию на несколько банковских счетов, в результате преступника вычислить не удалось, а нанесенный ущерб покрыла страховая компания [5].
Использование подобных возможностей позволяет преступнику скрыть собственные исходные данные, что, в свою очередь, делает практически невозможным установление его личности.
Также преступник может использовать искусственный интеллект как запрограммированную модель для совершения преступления. В данном случае основа работы искусственного интеллекта будет состоять именно в реализации объективной стороны деяния. Например, действия искусственного интеллекта выстраиваются в единую цепочку последовательных шагов, которые приводят к совершению преступления. Первый шаг состоит в неправомерном получении доступа к информации из различных социальных сетей; второй шаг состоит в отборе и сохранении материала, порочащего репутацию человека; третьим шагом является использование преступником данных материалов для вымогательства денежных средств.
Но не всегда искусственный интеллект используется целенаправленно для совершения преступления. При выполнении программ искусственный интеллект может допустить ошибку, которая приведет к совершению преступления, или искусственный интеллект самостоятельно примет решение о неправомерных действиях.
Возвращаясь к уголовно-правовой доктрине, отметим, что использование искусственного интеллекта в уголовном законодательстве нормативно не отражено.
Именно отсутствие уголовно-правового регулирования и порождает множество вопросов, связанных с применением машинного интеллекта в преступных целях, или ошибок в работе искусственного интеллекта, которые приводят к совершению противоправных деяний. В научной среде ведутся дискуссии относительно того, чем признается искусственный интеллект (способом, средством или самостоятельным субъектов совершения противоправного деяния); какие именно признаки искусственного интеллекта должна отражать дефиниция; как верно квалифицировать деяния, в которых применяется искусственный интеллект?
Отметим также, что отсутствие законодательного регулирования порождает трудности и в следственно-судебной практике. Так, в настоящее время в Российской Федерации не вынесено ни одного обвинительного решения по делам о совершении преступлений с использованием искусственного интеллекта.
На наш взгляд, искусственный интеллект должен быть признан средством совершения преступления, поскольку признаками субъекта по определению искусственный интеллект не обладает (невозможно оценить критерии вменяемости и возрастные параметры), более того, реализуемые им задачи все же устанавливаются и осуществляются под руководством человека.
В связи с вышеизложенным считаем, что наиболее полно отражает сущностные признаки искусственного интеллекта Национальная стратегия развития искусственного интеллекта на период до 2030 года. Она дает четкое понимание того, что искусственный интеллект остается зависимым от тех задач, которые программирует ему человек, а результаты деятельности искусственного интеллекта лишь сопоставимы с естественным интеллектом, но не абсолютно идентичны.
Обсуждение и заключение
Резюмируя изложенное, укажем, что в современную эпоху законодатель должен учитывать научно-технический прогресс. В целях наиболее эффективного применения норм уголовного законодательства считаем необходимым закрепление искусственного интеллекта в уголовном законодательстве в качестве конструктивного признака, дополнив неоднократно упоминаемые в Уголовном кодексе Российской Федерации признаки «информационно-телекоммуникационные сети» и сеть Интернет, представив единый квалифицирующий признак в следующей редакции: «с использованием информационно-телекоммуникационных сетей, в том числе сети Интернет и искусственного интеллекта». Указанное предложение позволит установить единый теоретический и практический подходы к сущности искусственного интеллекта, а также квалификации преступления.
1. Ivashchenko M.A. Iskusstvennyj intellekt v ugolovnom zakonodatel'stve Rossii // Akademicheskaya mysl'. 2020. № 4 (13). URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-v-ugolovnom-zakonodatelstve-rossii?ysclid=ld1mf88c4i972968196 (data obrashcheniya: 26.01.2023).
2. Laptev V.A. Ponyatie iskusstvennogo intellekta i yuridicheskaya otvetstvennost' za ego rabotu // Pravo. ZHurnal Vysshej shkoly ekonomiki. 2019. № 2. S. 79 - 102. DOI: 10. 17-323/2072-8166.2019.2.79. 102
3. SHCHerbakov M.G. Problemy pravovogo regulirovaniya transformacii pravovogo statusa iskusstvennogo intellekta: postanovka problemy // Uchenye zapiski Krymskogo federal'nogo universiteta imeni V. I. Vernadskogo. YUridicheskie nauki. 2019. № 3. S. 73-81.
4. Dremlyuga R.I. Ispol'zovanie iskusstvennogo intellekta v prestupnyh celyah: ugolovno-pravovaya harakteristika // Aziatsko-Tihookeanskij region: ekonomika, politika, pravo. 2021. № 3. S. 153. DOI: 10.24866/ 1813-3274/2021-3/153-165
5. Catherine Stupp. Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. The Wall Street Journal. Aug. 30, 2019.