Kitobni o'qish: «Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России»
© Коллектив авторов, 2021
© Издательство «Прометей», 2021
Авторский коллектив
Ручкина Гульнара Флюровна – профессор, декан Юридического факультета ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации», доктор юридических наук, профессор;
Демченко Максим Владимирович – кандидат юридических наук, доцент, заместитель декана Юридического факультета по научной работе ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации»;
Попова Анна Владиславовна – доктор юридических наук, профессор, профессор Департамента международного и публичного права Юридического факультета ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации»;
Лапина Марина Афанасьевна – доктор юридических наук, профессор, главный научный сотрудник Центра исследований и экспертиз, профессор Департамента международного и публичного права Юридического факультета ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации»;
Павликов Сергей Герасимович – доктор юридических наук, профессор, руководитель Департамента правового регулирования экономической деятельности Юридического факультета ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации»;
Горохова Светлана Сергеевна – кандидат юридических наук, доцент, ведущий научный сотрудник Центра исследований и экспертиз, доцент Департамента международного и публичного права Юридического факультета ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации»;
Свиридова Екатерина Александровна – кандидат юридических наук, доцент, старший научный сотрудник Центра исследований и экспертиз, доцент Департамента международного и публичного права Юридического факультета ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации»;
Исмаилов Исмаил Шапурович – кандидат юридических наук, заместитель декана Юридического факультета по дополнительному профессиональному образованию и магистратуре ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации»;
Баракина Елена Юрьевна – кандидат юридических наук, лаборант-исследователь Центра исследований и экспертиз, старший преподаватель Департамента международного и публичного права Юридического факультета ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации».
Введение
Государство уделяет все большее внимание необходимости регулирования новых перспективных направлений технологического развития, которые активно развиваются. Это в полной мере относится и к вопросам регулирования в области робототехники, искусственного интеллекта. В целях развития искусственного интеллекта в России указом Президента Российской Федерации от 10 октября 2019 г. № 490 утверждена Национальная стратегия развития искусственного интеллекта до 2030 года в Российской Федерации (далее – Стратегия).
Стратегией определены задачи развития искусственного интеллекта в России, к которым относятся:
– поддержка научных исследований в целях обеспечения опережающего развития искусственного интеллекта;
– разработка и развитие программного обеспечения, в котором используются технологии искусственного интеллекта;
– повышение доступности и качества данных, необходимых для развития технологий искусственного интеллекта;
– повышение доступности аппаратного обеспечения, необходимого для решения задач в области искусственного интеллекта;
– повышение уровня обеспечения российского рынка технологий искусственного интеллекта квалифицированными кадрами и уровня информированности населения о возможных сферах использования таких технологий;
– создание комплексной системы регулирования общественных отношений, возникающих в связи с развитием и использованием технологий искусственного интеллекта.
Во исполнение Стратегии разработан федеральный проект «Искусственный интеллект» национальной программы «Цифровая экономика». В целях координации деятельности федеральных органов государственной власти, организаций бизнеса и науки постановлением Правительства Российской Федерации от 23 ноября 2019 г, № 1500 создана подкомиссия по развитию искусственного интеллекта, сопредседателями которой являются Министр экономического развития Российской Федерации и Президент, Председатель Правления ПАО Сбербанк. Главными задачами деятельности подкомиссии является рассмотрение предложений, связанных с развитием искусственного интеллекта, согласование мероприятий федерального проекта «Искусственный интеллект», содействие реализации «дорожной карты» по развитию высокотехнологичной области «Искусственный интеллект» и реализации соглашений, заключенных между Правительством Российской Федерации и ПАО Сбербанк, а также между Правительством Российской Федерации и АО «УК «РФПИ». Минэкономразвития подготовило проект концепции регулирования искусственного интеллекта (ИИ) и робототехники до 2023 г. По мнению разработчиков, документ должен внести регуляторную конкретику в уже утвержденную Президентом Российской Федерации Национальную стратегию по искусственному интеллекту. Целью Концепции регулирования технологий искусственного интеллекта и робототехники является формирование основ правового регулирования новых общественных отношений, складывающихся в связи с разработкой и применением систем с искусственным интеллектом, в том числе в части создания и использования роботов, а также снятие правовых барьеров, препятствующих разработке и применению указанных систем.
Несмотря на активность государства в развитии искусственного интеллекта, роботов и объектов робототехники, многие сферы нормативного регулирования остаются не разработанными и не исследованными, особенно по сравнению со многими зарубежными странами. Это определяет актуальность проведения научных исследований, выработки теоретических и практических положений в области правового регулирования рассматриваемых в работе отношений.
В рамках исследования были определены основные задачи, решение которых обеспечивает достижение цели настоящего исследования:
– исследовать риски использования киберфизических систем, искусственного интеллекта, роботов и объектов робототехники, в том числе с учетом требований информационной безопасности;
– исследовать соотношение правовых и нравственно-этических принципов использования киберфизических систем, и разработка этических правил взаимодействия человека с искусственным интеллектом, роботами и объектами робототехники;
– провести анализ правосубъектности искусственного интеллекта, роботов и объектов робототехники;
– проанализировать возможности создания гибкой системы нормативно-правового регулирования, допускающей возможности тестирования и ограниченного использования, гарантирующая безопасность населения и направленная на стимулирование развития искусственного интеллекта, роботов и объектов робототехники;
– обосновать предложения по созданию необходимых правовых условий для эффективного использования искусственного интеллекта, роботов и объектов робототехники в сфере права интеллектуальной собственности, в банковской и транспортной сфере.
В результате исследования планируется получить научные и прикладные результаты, в частности: разработать этические правила взаимодействия человека с искусственным интеллектом, роботами и объектами робототехники; подготовить аналитический отчет о рисках использования киберфизических систем, искусственного интеллекта, роботов и объектов робототехники с учетом требований информационной безопасности; описать теоретические подходы в юриспруденции к правосубъектности искусственного интеллекта, роботов и объектов робототехники и к содержанию гражданско-правовой ответственности в рассматриваемой сфере; разработать предложения по созданию необходимых правовых условий для эффективного использования искусственного интеллекта в сфере права интеллектуальной собственности, в банковской сфере, в транспортной сфере; издать монографию по материалам НИР для формирования банка рекомендуемой литературы в ходе подготовки обучающихся по соответствующим профилям программ магистратуры и аспирантуры.
Полученные результаты представлены в работе в виде конкретных выводов и рекомендаций органам государственной власти федерального и регионального уровня, к чьей компетенции относится выработка мер по созданию системы законодательного регулирования означенной сферы научного исследования в целях дальнейшего развития и упрочения цифровой экономики и достижения передовых позиций в мировом масштабе по использованию искусственного интеллекта, киберфизических систем, нейронных сетей, различных видов роботов и робототехники в Российской Федерации. Практическая значимость результатов работы состоит в возможности использования их в работе органов государственной власти и государственных органов Российской Федерации для разработки отдельных поправок, и изменений в законодательстве страны, носящих опережающий характер в целях преодоления пробелов в сфере технологического развития страны. Теоретическая значимость исследования заключается в возможности использования результатов исследования для развития общей теории права, информационного права, гражданского права, банковского и транспортного права, права интеллектуальной собственности и иных отраслевых юридических наук; информатики, биоэтики, медицины и др. в России. Научная новизна заключается в выявлении рисков использования киберфизических систем, искусственного интеллекта, роботов и объектов робототехники, в том числе с учетом требований информационной безопасности, определения соотношения правовых и нравственно-этических принципов использования киберфизических систем, и разработке этических правил взаимодействия человека с искусственным интеллектом, роботами и объектами робототехники, установления возможности создания гибкой системы нормативно-правового регулирования, допускающей возможности тестирования и ограниченного использования, гарантирующая безопасность населения и направленная на стимулирование развития искусственного интеллекта, роботов и объектов робототехники.
Глава 1
Исследование рисков использования киберфизических систем, искусственного интеллекта, роботов и объектов робототехники, в том числе с учетом требований информационной безопасности
В настоящем разделе мы предпримем попытку рассмотрения основных вопросов, связанных с выявлением, предупреждением и минимизацией рисков в процессе использования киберфизических систем, технологий искусственного интеллекта и робототехники в различных сферах общественных отношений, а также обоснуем необходимость правового регулирования указанных процессов.
Данная тема слабо освещена в отечественной правовой научной литературе. Наиболее системно риски, связанные с использованием технологий искусственного интеллекта раскрыты в 2017 г. П.М. Морхатом в монографии «Искусственный интеллект: правовой взгляд» [1]. Имеется ряд публикаций и других ученых-правоведов, которые затрагивали в своих исследованиях проблемы рисков при эксплуатации искусственного интеллекта, роботов и объектов робототехники. К примеру, И.В. Понкин и А.И. Редькина в статье «Искусственный интеллект с точки зрения права» выявили имеющие существенное значение для правового регулирования основные риски и неопределенности, связанные с искусственным интеллектом [2]; в коллективной монографии под редакцией А.В. Незнамова раскрыты тенденции зарубежного законодательства в области страхования рисков при использовании роботов и технологий искусственного интеллекта [3].
Однако можно с полной определенностью говорить о взятом Россией курсе на развитие информационного общества и устойчивый социально-экономический рост в условиях поступательного изменения экономического уклада посредством интеграции определенных достижений развития цифровых технологий, о чем свидетельствует первый этап исследования по фундаментальной научной теме: «Теория правового регулирования искусственного интеллекта, роботов и объектов робототехники в Российской Федерации» [4].
Тема рисков при использовании искусственного интеллекта и объектов робототехники неоднократно поднималась в зарубежной научной литературе, причем рассмотрению предавались как широкие теоретические вопросы выявления и оценки рисков в процессе использования искусственного интеллекта и роботов в различных сферах жизнедеятельности, так и более практические и узкие разработки, которые могут быть востребованы в прикладной деятельности по созданию и эксплуатации конкретных роботизированных объектов.
Исходные понятия
Для анализа рисков использования современных роботизированных и инфокоммуникационных технологий необходимо определиться с понятийным аппаратом.
Понятия «киберфизические системы» (далее – КФС), «искусственный интеллект» (далее – ИИ) и «робот» имеют множество определений [5]. В научной правовой литературе авторский и наиболее подробный тезаурус на русском языке рассматриваемых понятий представлен П.М. Морхатом в работе «Право и искусственный интеллект: Тезаурус» [6], а также в коллективной монографии под ред. А.В. Незнамова [7].
Однако в рамках настоящей работы мы будем придерживаться следующей терминологии, которая установлена в законодательстве и в нормативно-технической документации:
а) в Федеральном законе от 24.04.2020 № 123‐ФЗ и в Указе Президента РФ от 10.10.2019 № 490 ИИ раскрыт как комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе использующие методы машинного обучения), процессы и сервисы по обработке данных и поиску решений [8, 9]; в ГОСТ Р 43.0.8—2017 и ГОСТ Р 43.0.7—2011 ИИ трактуется более лаконично как «моделируемая (искусственно воспроизводимая) интеллектуальная деятельность мышления человека» [10, 11];
б) в ГОСТ Р 60.0.0.4—2019/ИСО 8373:2012. Национальный стандарт Российской Федерации. Роботы и робототехнические устройства. Термины и определения» робот1 (robot) определен весьма конкретно как «исполнительный механизм, программируемый по двум или более степеням подвижности, обладающий определенной степенью автономности и способный перемещаться во внешней среде с целью выполнения задач по назначению» [12].
В этом же стандарте дано понятие: «Робототехника (robotics) – наука и практика разработки, производства и применения роботов» [12]. Понятие «объект робототехники» ни в правовых, ни в технических нормах не закреплено. Исходя из приведенного понятия робототехники, к объектам робототехники можно отнести различные классы и категории роботов и робототехнические системы.
Термин КФС (англ. – Сyber Physical Systems, CPS) пока что нормативно не раскрыт, но, как правило, в научной литературе отечественные [14, 15, 273] и зарубежные [16, 17] специалисты в области информационной безопасности под КФС подразумевают единую информационно-технологическую среду, обеспечивающую интеграцию вычислительных ресурсов в физические процессы. Это техническая система, в которой взаимосвязаны вычислительные элементы и элементы физической природы, служащие источниками и потребителями информации.
Как видим, научная трактовка понятия КФС и нормативные, нормативно-технические трактовки понятий ИИ и робота имеют существенные различия. Так, ИИ определен на основе компьютерного моделирования весьма широко, КФС совмещает инфокоммуникационные технологии с физическими компонентами, а понятие робота не позволяет охватить широкий спектр классов и категорий роботов, которые имеют существенные различия. Исходя из приведенных терминов КФС, ИИ и роботов, можно утверждать, что подходы к выявлению и оценке рисков их использования, в том числе с учетом требований информационной безопасности могут быть различными и обладать определенными особенностями, быть в зависимости от специфики отдельных сфер их применения.
Следовательно, общие риски с учетом обеспечения информационной безопасности, свойственные всем видам КФС, ИИ, роботам и объектам робототехники, и соответственно возможности их правового регулирования будут лежать в плоскости нормативных правовых актов в данной области. А непосредственно риски использования отдельных разновидностей КФС, ИИ и роботов должны конкретизироваться при помощи технического нормирования, поскольку необходима разработка разных правил оценки и управления рисками для различных классов устройств. Именно по этому пути пошли как страны ЕС в развитии европейской роботизированной промышленности, исходя из смысла содержания Резолюции Европейского Парламента (далее – Резолюция) [18], так и наше государство.
Так, в Резолюции содержатся рекомендации по установлению критериев классификации роботов; по необходимости прохождения специальной регистрации и об обязательности оснащения роботов «черным ящиком», в котором записываются данные по каждой выполняемой операции, включая логику принятия решений; обоснование разработки правил тестирования новых роботов в реальных условиях; обоснование необходимости внедрения обязательного страхования для определенных видов роботов.
Важным документом для исследования рисков использования технологий ИИ является Руководство по этике для ИИ, принятое в ЕС [18]. Одним из трех основных принципов использования ИИ является принцип «не навредить». Руководством установлены общие правила разработки таких технологий: они должны быть безопасными, подотчётными, не носить дискриминационного характера, быть поднадзорными человеку.
Перечисленные документы ЕС, по сути, являются базовым юридическим фундаментом правового регулирования риск-ориентированного подхода использования современных роботизированных и инфокоммуникационных технологий.
В Российской Федерации проблемы обеспечения информационной безопасности при использовании КФС, ИИ, роботов и объектов робототехники путем учета, оценки и управления рисками находит свое отражение как в нормативных актах различного уровня (законы, указы Президента, постановления Правительства РФ, ведомственные нормативно-правовые акты), так и в нормативно-технических документах (технические регламенты, национальные стандарты).
Безусловно, что для успешного функционирования роботизированных и инфокоммуникационных технологий должны учитываться возникающие в результате такой деятельности риски [19].
Что такое риски?
Этимология слова «риск» (из французского risquе – «риск», итальянского risico) произошло из др. – греч. ῥιζικόν— «утёс», др. – греч. ῥίζα – «подножие горы»; «рискова́ть» – первоначально означало «лавировать между скал» [20]. Классически правовой риск рассматривается как присущая человеческой деятельности объективно существующая и в определённых пределах способная к оценке и волевому регулированию вероятность понесения субъектами правоотношений негативных последствий вследствие наступления неблагоприятных событий, закономерно связанных с разнообразными предпосылками (факторами риска) [21].
Следует также отметить активно развивающуюся реляционную теорию риска. Boholm Å., Corvellec H., раскрывая ее сущность, отмечают, что указанная теория выводит риски из расположенного познания, которое устанавливает отношения риска в контексте определенных непредвиденных обстоятельствах и определенном причинном воздействии. Сильная сторона реляционной теории, согласно концепции авторов, состоит в том, что она позволяет интерпретировать природу риска; отвечать вопросы о том, что относится к рискам и почему, а также предлагает новые подходы к управлению рисками, так как повышает уровень информированности о них всех заинтересованных субъектов [22].
Так, Head G.L.Э рассматривая теоретические вопросы корпоративного управления всевозможными рисками, делает акцент на субъективные факторы продуцирования рисков. Разные поколения управленцев, находившихся у руля управления корпорациями, имеют разные взгляды на один и тот же риск. Это касается также отдельно взятого индивида. Субъективные взгляды управленцев на корпоративном уровне могут иметь решающее значение на организацию управления реалиями рисков. Меняющаяся стратегия управления рисками может резко изменить действия менеджеров по управлению рисками [23].
Риск в классическом понимании в любых сферах жизнедеятельности людей (без использования КФС, ИИ или роботов) носит двойственный субъект-объектный характер, соответственно, элементы риска подразделяются на объективные (факторы и ситуация риска) и субъективные (субъект и волевое регулирование)» [21, c. 20]. Как правило, в гражданско-правовых отношениях «правовой риск – это текущий или будущий риск потери дохода, капитала или возникновения убытков в связи с нарушениями или несоответствием внутренним и внешним правовым нормам, таким как законы, подзаконные акты регуляторов, правила, регламенты, предписания, учредительные документы» [21, c. 21].
Представляется важным принятая в национальных стандартах России терминология рисков. Пункт 1.1 Национального стандарта Российской Федерации ГОСТ Р 51897—2011/Руководство ИСО 73:2009 от 16.11.2011 «Менеджмент риска. Термины и определения» [24] и пункт 3.1 Национального стандарта Российской Федерации ГОСТ Р ИСО 31000—2019 «Менеджмент риска. Принципы и руководство» [25], дают определение понятию риска как «следствия влияния неопределенности на достижение поставленных целей», давая также нижеследующие разъяснения: «Под следствием влияния неопределенности необходимо понимать отклонение от ожидаемого результата или события (позитивное и/ или негативное). Цели могут быть различными по содержанию… и назначению (стратегические, общеорганизационные, относящиеся к разработке проекта, конкретной продукции и процессу). Риск часто характеризуют путем описания возможного события и его последствий или их сочетания. Риск часто представляют в виде последствий возможного события (включая изменения обстоятельств) и соответствующей вероятности. Неопределенность – это состояние полного или частичного отсутствия информации, необходимой для понимания события, его последствий и их вероятностей».
Следует отметить, что в научной литературе высказывается точка зрения о том, что восприятие дефиниции риска в контексте неопределенности не является правильным. Так, T Ward S., Chapman C. разграничивают понятия «неопределенность» и «риск», отмечая при этом, что термин «риск» в большей степени поощряет перспективу угрозы, а неопределённость имеет широкое смысловое толкование. Акцент на неопределенности, по мысли авторов, улучшит управляемость рисками при реализации проекта, так как предоставит дополнительный управленческий ресурс для управления возможностями [26].
Статьей 2 Федерального закона от 27.12.2002 № 184‐ФЗ (действ. ред.) «О техническом регулировании» понятие риск определяется как «вероятность причинения вреда жизни или здоровью граждан, имуществу физических или юридических лиц, государственному или муниципальному имуществу, окружающей среде, жизни или здоровью животных и растений с учетом тяжести этого вреда» [27]. Понятие «риск» неразрывно связано с понятием «безопасность». Авторы комментария к закону подчеркивают, что «даже после принятия всех мер безопасности некоторый риск, именуемый, как правило, остаточный, всегда будет присутствовать. Такой риск рассматривается как допустимый, т. е. приемлемый для каждой конкретной ситуации с учетом существующих общественных ценностей (в т. ч. экономических, политических факторов, традиций) в конкретной стране и в конкретное время» [28]. Безусловно, при оценке и управлении рисками при использовании КФС, ИИ, роботов и объектов робототехники принцип допустимости рисков будет лежать в основе правового регулирования.
Нормативно определенные риски использования информационных и инфокоммуникационных технологий
Практически любая отрасль российского законодательства регулирует в той или иной мере отношения, связанные с техническим прогрессом, включая использование современных информационных и инфокоммуникационных технологий, являющихся «фундаментом» технологий искусственного интеллекта или готовых роботизированных изделий. Административное, информационное, финансовое, таможенное, экологическое законодательство регламентируют происходящие в обществе процессы цифровизации, нормативно придают им общественно-значимый и социально-ориентированный характер. В свою очередь риски, связанные с использованием КФС, ИИ и др. роботизированных технологий как значимое явление общественной жизни напрямую воздействуют не только на социально- экономические отношения, но и политические, экологические, а также и юридические отношения. К примеру, риски использования информационных и инфокоммуникационных технологий в финансовой сфере, возникая в недрах экономических отношений, оказывают влияние на правовую, политическую и финансовую системы страны. Риски использования информационных и инфокоммуникационных технологий в реальных секторах экономики (промышленности – особо опасные производственные объектов, электроэнергетике, недропользовании, сельском хозяйстве и др.) оказывают влияние на социальную сферу, экологические отношения, в конечном итоге правовую сферу.
Нельзя не отметить и обратную тенденцию. Риски, генерированные правовыми актами в области использования информационных и инфокоммуникационных технологий, порождают экономические, социальные, экологические и политические деформации.
В Российской Федерации в целом ряде законов и подзаконных нормативных правовых актов содержатся нормы, предусматривающие анализ, оценку, прогнозирование и минимизацию рисков в различных сферах общественных отношений.
При этом базовым нормативным правовым актом в части государственного управления рисками в Российской Федерации является Федеральный закон от 28 июня 2014 г. № 172‐ФЗ «О стратегическом планировании в Российской Федерации» [29]. Данный закон регулирует отношения, возникающие между участниками стратегического планирования в процессе целеполагания, прогнозирования, планирования и программирования социально-экономического развития Российской Федерации, субъектов Российской Федерации и муниципальных образований, отраслей экономики и сфер государственного и муниципального управления, обеспечения национальной безопасности Российской Федерации, а также мониторинга и контроля реализации документов стратегического планирования.
Согласно пункту 5 статьи 3 указанного Федерального закона, «прогнозирование – деятельность участников стратегического планирования по разработке научно обоснованных представлений о рисках социально-экономического развития, об угрозах национальной безопасности Российской Федерации, о направлениях, результатах и показателях социально-экономического развития Российской Федерации, субъектов Российской Федерации и муниципальных образований». В пункте 21 статьи 3 стратегический прогноз Российской Федерации понимается как «документ стратегического планирования, содержащий систему научно обоснованных представлений о стратегических рисках социально-экономического развития и об угрозах национальной безопасности Российской Федерации». Статья 7 вышеуказанного Федерального закона в числе принципов стратегического планирования выделяет принцип реалистичности, смысл которого определяется следующим образом: «при определении целей и задач социально-экономического развития и обеспечения национальной безопасности Российской Федерации участники стратегического планирования должны исходить из возможности достижения целей и решения задач в установленные сроки с учетом ресурсных ограничений и рисков» (пункт 9 статьи 7). Статья 16 определение рисков при достижении целей социально-экономического развития Российской Федерации и целевых показателей на долгосрочный период, с учетом задач обеспечения национальной безопасности Российской Федерации, установлено в качестве требования к подлежащей к разработке каждые 6 лет Стратегии социально-экономического развития Российской Федерации (подпункт 2 пункта 7 статьи 16). Стратегический прогноз Российской Федерации, разрабатываемый по поручению Президента Российской Федерации на двенадцать и более лет Правительством Российской Федерации, также должен включать «оценку рисков социально-экономического развития и угроз национальной безопасности Российской Федерации» (подпункт 1 пункта 2 статьи 23), разработку «оптимального сценария преодоления рисков и угроз с учетом решения задач национальной безопасности Российской Федерации» (подпункт 3 пункта 2 статьи 23). В числе основных задач мониторинга реализации документов стратегического планирования заявлены «проведение анализа, выявление возможных рисков и угроз и своевременное принятие мер по их предотвращению» (подпункт 6 пункта 2 статьи 40) [29].
Помимо вышеозначенного Федерального закона, нормы, предусматривающие необходимость управления рисками, встречаются, хотя и нечасто, в других нормативных правовых актах [30, 31, 32, 33, 34].
На необходимость учета рисков в различных сферах неоднократно обращал внимание Президент Российской Федерации в своих ежегодных посланиях. Так, в Послании Федеральному Собранию от 20.02.2019 Президент РФ подчеркнул, что «работать на стратегические цели необходимо уже сегодня… Мы обязаны двигаться только вперед, постоянно набирая темп этого движения» [35]. В монографии А.О. Турганбаева при исследовании перспектив развития административно-правового обеспечения стратегического планирования в государственном управлении сделан вывод о технологическом отставании России по внедрению новейших технологий в стратегическое планирование от государств как англосаксонской правовой системы (Австралия, Великобритания, Канада, США), так и некоторых государств Азиатско-Тихоокеанского региона (Китай, Сингапур, Таиланд, Южная Корея, Япония) [36, c. 144]. Только благодаря задействованию современных информационных и инфокоммуникационных технологий и систем искусственного интеллекта в стратегическом планировании, возможно, достичь главной цели государства – улучшение условий жизнедеятельности людей и повышение комфорта жизненной среды. Однако предвидеть многие риски, вызовы и проблемы, возникающие с использованием этих технологий будущего необходимо уже сейчас.