Kitobni o'qish: «Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта»

Shrift:

Посвящается моим друзьям и коллегам по Ассоциации содействия развитию политической экономии и права – истинному интеллектуальному сообществу.

И, конечно, Рэю



Своим подходом к воспитанию мы решаем, достаточно ли мы любим мир, чтобы взять на себя ответственность за него и одновременно спасти его от гибели, которую без обновления, без прибытия новых и молодых было бы не остановить. А еще мы этим решаем вопрос о том, достаточно ли мы любим наших детей, чтобы не вышвыривать их из нашего мира, предоставляя самим себе, не вырывать у них из рук шанс предпринять нечто новое и для нас неожиданное, а вместо этого подготовить их к их миссии – обновлению нашего общего мира.

Ханна Арендт. Между прошлым и будущим


Я говорю о праве сейчас, поймите, о той точке, в которой тела, запертые в клетках, становятся онтологией, точке, в которой структуры жестокости, силы, войны становятся онтологией. Аналоговое – я в него верю, в реконструкцию феноменологии восприятия, но не машиной. К нему теперь – как никогда прежде – приковано воображение.

Лоуренс Джозеф. В скобках


Frank Pasquale


New Laws of Robotics

Defending Human Expertise in the Age of AI


The Belknap Press of Harvard University Press

Cambridge, Massachusetts & London, England 2020


Перевод с английского Алексея Королева


Под научной редакцией Софьи Щукиной



“New Laws of Robotics: Defending Human Expertise in the Age of Al” by Frank Pasquale Copyright © 2020 by the President and Fellows of Harvard College

Published by arrangement with Harvard University Press.


© ФГБОУ ВО «Российская академия народного хозяйства и государственной службы при Президенте Российской Федерации», 2022

1. Введение

Ставки технологического прогресса растут с каждым днем. Объедините базы данных распознавания лиц с постоянно дешевеющими микродронами, и вы получите анонимную глобальную силу убийц, обладающих беспрецедентной точностью и смертоносностью. То, что может убивать, способно и исцелять. Роботы могли бы значительно расширить доступ к медицине, если бы мы больше инвестировали в их исследование и развитие. Фирмы делают тысячи шажков к автоматизации найма, обслуживания клиентов и даже менеджмента. Все эти процессы меняют баланс машин и людей и даже распорядок нашей повседневной жизни.

Предотвращение худших исходов революции искусственного интеллекта (ИИ) и в то же время реализация его потенциала будут зависеть от нашей способности выработать мудрое отношение к такому балансу. Для достижения такой цели в этой книге выдвигаются три аргумента, которые должны привести к улучшению нашей жизни. Первый аргумент эмпирический: непосредственно сейчас ИИ и роботы чаще всего дополняют, а не заменяют человеческий труд. Второй имеет ценностный характер: во многих областях мы должны сохранить такое положение вещей. Наконец, третий аргумент содержит политическое суждение: наши институты управления действительно способны достичь именно такого результата. Вот главный посыл этой книги: сегодня у нас есть средства руководить развитием технологий автоматизации, не становясь ее пленниками и не меняясь под их воздействием.

Эти идеи многим покажутся самоочевидными. Зачем писать в их защиту целую книгу? Дело в том, что из них следуют довольно интересные выводы, которые должны изменить способы организации социального сотрудничества и урегулирования конфликтов. Например, в настоящее время во многих странах приоритет отдается капиталу, а не труду, потребителям, а не производителям. Если мы хотим построить справедливое и стабильное общество, эти перекосы должны быть исправлены.

Исправить их будет непросто. Появившиеся за последнее время в избытке консультанты по менеджменту рассказывают одну простую историю о будущем труда: если машина может записать и воспроизвести то, что вы делаете, она вас заменит1. Эта перспектива массовой безработицы приковывает к себе внимание политиков и стратегов. Согласно этой теории, люди-работники становятся излишними в силу развития все более мощного программного обеспечения, роботов и предсказательной аналитики. Предполагается, что стоит только поставить достаточно камер и сенсоров, и менеджеры смогут создать симуляцию – вашего «цифрового двойника», то есть голограмму или робота, который будет выполнять работу человека не хуже, к тому же лишь за небольшую долю его зарплаты. Это представление задает суровую альтернативу: делайте роботов, или они заменят вас2.

Но возможна и другая история, которая на самом деле более правдоподобна. Практически во всех областях роботизированные системы могут повысить ценность труда, а не уменьшить ее. В этой книге рассказывается о врачах, медсестрах, учителях, сиделках, журналистах и представителях иных профессий, которые работают вместе со специалистами по робототехнике и компьютерным наукам, но не служат источниками данных для своей будущей замены. Их сотрудничество предвосхищает то технологическое развитие, результатом которого могут стать более качественные здравоохранение, образование, более высокий уровень жизни для всех нас, в то же время позволяющий сохранить осмысленный труд. Также они показывают, как право и публичная политика способны помочь нам в достижении мира и инклюзивного процветания, а не «гонки против машин»3. Но мы можем добиться этого только в том случае, если обновим законы робототехники, которыми определяется наше представление о технологическом прогрессе.

Законы робототехники Азимова

В рассказе 1942 г. «Хоровод» писатель-фантаст Айзек Азимов определил три закона для машин, которые могут воспринимать среду, обрабатывать информацию, а потом действовать4. В рассказе приводится выдержка из 56-го издания «Руководства по робототехнике» за 2058 г.:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит первому и второму законам.


Законы робототехники Азимова были крайне популярными. Они кажутся совершенно ясными, но применять их непросто. Может ли автономный дрон нанести удар по террористической ячейке? Первая часть первого закона («Робот не может причинить вред человеку») вроде бы запрещает такое действие. Но военный может тут же отослать ко второй половине первого закона (запрещающей «бездействие», которое «допустит, чтобы человеку был причинен вред»). Чтобы определить, какую часть закона следует применять, нам понадобилось бы обратиться к другим ценностям5.

Полем боя двусмысленности не исчерпываются. Рассмотрим, например, допускают ли законы Азимова существование автомобилей-роботов. Беспилотные транспортные средства обещают избавить нас от тысяч несчастных случаев на дорогах, происходящих ежегодно. Поэтому на первый взгляд ответ очевиден. С другой стороны, тысячи оплачиваемых водителей останутся без работы. Позволяет ли этот ущерб государству запретить или замедлить развитие беспилотных автомобилей? Три закона Азимова не способны предельно конкретно решить такие вопросы. Не объясняют они и то, как быть с недавним требованием защитников беспилотных автомобилей, которые заявили, что пешеходы должны учиться вести себя так, чтобы беспилотным машинам было проще ездить, а если пешеходы отказываются учиться, их следует наказывать.

Эти и многие другие двусмысленности объясняют, почему нормы, регламенты и судебные дела, связанные с робототехникой и ИИ, в нашем мире более сложны и замысловаты, чем законы Азимова. Постепенно мы освоим большую часть этого правового ландшафта. Но прежде я хочу ввести четыре новых закона робототехники, чтобы сориентировать наши дальнейшие исследования6. Они написаны для людей, создающих роботов, а не для самих роботов7. И хотя они еще более двусмысленны, чем законы Азимова, они лучше отражают то, как работает реальное законотворчество. Поскольку законодатели не могут предугадать каждую ситуацию, которую властям приходится регулировать, часто они предоставляют определенные права ведомствам, ставя при этом перед ними довольно расплывчатые задачи. Новые законы робототехники должны быть примерно такими же, то есть в них должны определяться общие принципы, тогда как конкретные права должны предоставляться специальным регулирующим ведомствам, обладающим значительным опытом в технических сферах8.

Новые законы робототехники

Помня об этих целях, можно предложить четыре новых закона робототехники, которые в этой книге будут изучаться и развиваться:


1. Роботизированные системы и ИИ должны дополнять профессионалов, а не заменять их9

Громкие предсказания о наступлении технологической безработицы подогревают популярные дискуссии о будущем труда. Некоторые эксперты предрекают то, что практически каждая работа обречена на вымирание под натиском технологического прогресса. Другие указывают на препятствия, лежащие на пути автоматизации. Для политиков вопрос в том, какие из этих препятствий роботизации имеют смысл, а какие следует изучить и убрать. Роботы-мясники имеют смысл, роботы-воспитатели кажутся нам сомнительными. Являются ли эти сомнения попросту луддитской реакцией, или они суть отражение более глубокого понимания природы детства? Правила лицензирования не позволяют сегодня рекламировать приложения, анализирующие симптомы, в качестве врачей, действительно занимающихся медициной. Но правильный ли это подход?

В этой книге исследуются подобные примеры и представляются эмпирические и одновременно нормативные аргументы в пользу замедления или, наоборот, ускорения внедрения ИИ в различных сферах. Здесь имеют значение многие факторы, относящиеся к конкретным рабочим местам и юрисдикциям. Однако общим организующим принципом является значение осмысленного труда для ощущения человеком собственного достоинства и для управления сообществами. Гуманная программа автоматизации должна отдавать приоритет инновациям, дополняющим работников на рабочих местах, которые являются или должны быть их полноценным призванием. Машинами следует заменять опасные или изматывающие виды работ, обеспечивая при этом тех, кто в настоящий момент эти работы выполняет, справедливой компенсацией и предлагая им переход на другие социальные роли.

Такой сбалансированный подход разочарует как технофилов, так и технофобов. И точно так же упор на правление оттолкнет как тех, кто порицает «вмешательство» в рынки труда, так и тех, кто ненавидит «класс профессиональных менеджеров». В той мере, в какой профессии можно приравнять к экономической кастовой системе, в которой одни работники получают несправедливые привилегии, такие подозрения вполне оправданны. Можно, однако, смягчить стратификацию, отстаивая высшие цели профессий.

Компромисс, составляющий ядро профессионализма, состоит в том, что работникам надо предоставить определенные права в решении вопросов организации производства, но в то же время вменить им в обязанность трудиться на благо всего общества10. Профессионалы, занимающиеся исследованиями как в университетах, так и в собственных фирмах, культивируют распределенные экспертные знания, сглаживая классические противоречия между технократией и народным правлением. Мы не должны подрывать или обескровливать профессии, вопреки мнению слишком многих защитников подрывных инноваций. Скорее, гуманная автоматизация потребует усиления уже существующих экспертных сообществ и создания новых.

Удачное определение профессий довольно объемно, оно должно включать многих работников, объединенных профсоюзами, особенно когда они защищают тех, кому служат, от неумных или опасных технологий. Например, профсоюзы учителей выступали против избыточной «зубрежки и тестирования» средствами автоматических систем и во многих других ситуациях также отстаивали интересы учеников. Профсоюзы, развивающиеся по пути профессионализации, то есть позволяющие своим членам защищать тех, кому они служат, должны получить важную роль в определении облика революции ИИ.

Иногда будет сложно доказать, что процесс, завязанный на человека, лучше автоматизированного. Общие финансовые показатели вытесняют сложные критические стандарты. Например, программы машинного обучения скоро смогут, основываясь на обработке естественного языка методом перебора, предсказать, какая из предложенных книг способна стать бестселлером. С чисто экономической точки зрения такие программы могут отбирать рукописи или сценарии фильмов лучше редакторов и режиссеров. Тем не менее люди, работающие в креативных индустриях, должны отстаивать свои профессиональные знания. У редакторов важная роль в издании, оценке, поиске и продвижении работ, которые публика, возможно, сейчас еще не хочет читать, хотя они ей и нужны. То же можно сказать о журналистах: даже если автоматическая генерация текста способна создать текст, максимизирующий доходы от рекламы, этот примитивный триумф никогда не заменит настоящего репортажа с истинно человеческой точки зрения, которую еще нужно приобрести. Профессиональные школы в университетах уточняют и пересматривают стандарты медиа, права, медицины и многих других областей, не позволяя им скатываться до уровня простых показателей, допускающих автоматизацию.

Даже в тех областях, которые, кажется, просто напрашиваются на автоматизацию, например, в логистике, клининге, сельском хозяйстве и горном деле, работники будут играть ключевую роль в процессе длительного перехода к ИИ и роботам. Сбор или создание данных, необходимых для ИИ, для многих станет трудной задачей. Благодаря нормам и регулированию их работа может стать более интересной и автономной. В частности, европейский закон о неприкосновенности частной жизни дает водителям возможность оспаривать тотальный мониторинг и контроль, от которого страдают дальнобойщики в США11. Это не значит, что такое опасное занятие должно остаться без контроля. Сенсоры способны указать на проблемы с рефлексами водителями. Но есть огромная разница между сенсорами, которые специально настроены на обнаружение проблем с безопасностью, и постоянной видео- и аудиозаписью любых действий водителя. Достижение правильного баланса между изматывающим надзором и разумным, фокусированным мониторингом может стать ключевой задачей в самых разных областях деятельности.

Также мы можем спроектировать такой технологической переход, который позволит не упускать людей из виду или, по крайней мере, предоставит им выбор. Например, Toyota продвигает автомобили с большим уровнем роботизации, начиная с режима «личный водитель» (который требует минимального контроля со стороны водителя) и заканчивая режимом «хранитель» (при котором компьютерные системы автомобиля сосредоточены на избегании аварий, тогда как самим транспортным средством управляет человек)12. На самолетах автопилоты работают уже многие десятилетия, однако у коммерческих перевозчиков в рубке обычно все еще находится по меньшей мере два человека. Даже обычный авиапассажир может быть благодарен за то, что сторонники полной автоматизации пока не стремятся избавиться от пилотов13.

Заметим, что транспорт – одна из наиболее простых областей применения ИИ. Как только пункт назначения задан, спорить о траектории путешествия нет смысла. В других областях все наоборот: клиент или потребитель может передумать. Ученики в классе в весенний денек могут оказаться слишком непоседливыми, чтобы раз за разом повторять таблицу умножения. Модник может вызвать своего дизайнера интерьеров, расстроившись из-за того, что выбранная им для гостиной гравюра оказалась слишком аляповатой. Тренер может засомневаться в том, нужно ли клиенту, который выглядит слишком уставшим, бежать по беговой дорожке еще минуту. В каждом из этих случаев самое главное – это коммуникация, а также проявляемые при общении людей навыки терпения, размышления и различения14.

Конечно, если тысячи тренеров вооружатся Google Glass и запишут все свои встречи, наверно, соберется какая-то божественная база данных из гримас и выпученных глаз, ругательств и триумфов, которая сможет определить оптимальный ответ уставшему бегуну. Но даже если просто задуматься о том, как построить такую базу данных, о том, что должно оцениваться как положительный или отрицательный результат и в какой мере, тут же придет осознание ключевой роли, которую люди будут играть в создании и поддержании ИИ и роботов в любом правдоподобном сценарии будущего. Искусственный интеллект так и останется искусственным, поскольку он всегда будет плодом человеческого сотрудничества15. Более того, большинство недавних достижений в ИИ нацелены на решение строго определенных задач, а не на выполнение работ как таковых или социальных ролей16.

Существует много примеров технологий, которые позволяют повысить производительность рабочих мест, сделать их более интересными или допускают и то, и другое. Агентство цифрового развития Италии отметило: «Технология часто заменяет не профессионала целиком, а лишь некоторые конкретные действия»17. Современные студенты-юристы едва ли могут поверить, что до интернета их коллегам приходилось перелопачивать пыльные тома, чтобы оценить обоснованность того или иного дела; поисковые программы значительно упрощают этот процесс и значительно расширяют список ресурсов, доступных в судебном разбирательстве. Нисколько не упрощая задачу, они могут, наоборот, значительно ее усложнить18. Если на поиск по книгам тратится меньше времени, а на интеллектуальный труд, в котором создается общая картина дела, – больше, для адвокатов это прямая выгода. Автоматизация может дать похожий прирост производительности и многим другим работникам, что не обязательно ведет к замене их труда. И это не просто наблюдение. Это вполне состоятельная цель программы развития19.


2. Роботизированные системы и ИИ не должны притворяться людьми

Перспектива гуманоидных роботов всегда манила, пугала и возбуждала – со времен Азимова и до головокружительной мимикрии «Мира Дикого Запада». Некоторые специалисты по робототехнике стремятся найти правильное сочетание металлических костей и пластиковой кожи, позволяющее вырваться из «зловещей долины», то есть избавиться от чувства жути при виде гуманоидного робота, который слишком сильно приближается к человеческим качествам, жестам и повадкам, но при этом не может их полностью воссоздать. Программы машинного обучения уже освоили искусство создания изображений «фейковых людей», а вскоре получат распространение и убедительные синтетические голоса20. Пока инженеры мучаются с тонкой настройкой этих алгоритмов, без ответа остается более важный вопрос: хотим ли мы жить в мире, в котором люди не знают, с кем они имеют дело – с другим человеком или машиной?

Существует принципиальное различие между гуманизацией технологии и подделкой исключительно человеческих качеств. Ведущие европейские специалисты по этике утверждают, что «должны быть (правовые) границы, определяющие, в какой мере людей можно заставлять верить в то, что они имеют дело с людьми, тогда как на самом деле они общаются с алгоритмами и умными машинами»21. Законодатели уже приняли законы об «идентификации ботов» в сетевых контекстах.

Несмотря на этот складывающийся этический консенсус, существуют отдельные области ИИ, например, программирование эмоций, когда анализируются и симулируются человеческие эмоции, задача которых – постоянно усложнять выявление различия между человеком и машинами. Такие исследовательские проекты способны привести к созданию передовых андроидов наподобие тех, что известны по фильму Стивена Спилберга «Искусственный интеллект», в котором машины внешне не отличались от человека. Специалисты по этике спорят о том, как должны проектироваться такие гуманоидные роботы. Но что если их вообще не стоит делать?

В больницах, школах, полицейских участках и даже в производственных цехах мало пользы от загрузки программного обеспечения в гуманоидную форму, а вреда много. Гонка за человекоподобием слишком легко может стать первым шагом на пути к замене человека. Некоторые люди, возможно, предпочтут такую замену в личной жизни, и право должно уважать их автономию в интимных вопросах. Однако безумным было бы общество, стремящееся к такой замене на рабочих местах и в публичной сфере. Подобная идея подменяет развитие человечества его устранением.

Этот аргумент может неприятно удивить или смутить технофилов, поскольку им отрицается содержание и посылка не только законов Азимова, но и обширной литературы о будущем технологий. Я надеюсь оправдать такой консерватизм тем, что последовательно, по главам, продумаю конкретные шаги, которые понадобилось бы сделать, чтобы достичь того научно-фантастического мира, где роботы неотличимы от людей. Для такого перехода необходим массовый контроль людей – и все для того, чтобы создать роботов, призванных дурачить людей или заставлять их относиться к машинам как к равным. Ни та, ни другая перспектива не кажется такой уж привлекательной.

Голос или лицо другого человека требует уважения и внимания; машины не имеют подобных прав на наше участие. Когда чат-боты обманывают ничего не подозревающих людей, которые думают, что они общаются с другими людьми, программисты чат-ботов действуют в качестве фальсификаторов, подделывающих черты реальных людей, чтобы повысить статус своих машин. Когда фальсификация денег достигает критической массы, подлинные монеты теряют ценность. То же самое ждет и человеческие отношения в обществах, которые позволят машинам свободно изображать эмоции, речь и внешний вид людей.

Подделка человека становится особой опасностью в том случае, когда корпорации и государства пытаются придать дружелюбный вид своим услугам и требованиям. Ассистенты Google поразили деловую прессу, изображая секретарей, которые назначают встречи, жутковато подражая даже «мычанию» и «ахам», которыми испещрена обычная беседа по телефону. Подобные междометия маскируют силу таких фирм, как Google, колебанием или уступчивостью, обычно заметными в неотрепетированной человеческой речи. Роботизированный звонок они облекают покровом человеческого запроса. Но тем, кто отвечают на такие звонки, несложно представить, как будет выглядеть злоупотребление – оно станет потоком телефонных вызовов из роботизированных кол-центров.

Подделка человека – не просто обман; она еще и нечестна, поскольку фальсификатор кажется лично заинтересованным и искренним, хотя на самом деле это совсем не так. Как мы сможем показать далее на разных примерах роботов (учителей, солдат, представителей по работе с клиентами и т. д.), неудовлетворенность и стресс при столкновении с неудачными имитациями человека – не просто следствие несовершенной технологии. Скорее в них отражается разумное предостережение об определенном пути развития самой технологии.


Роботизированные системы и ИИ не должны усиливать гонку вооружений с нулевой суммой

Споры о роботах-убийцах крайне важны для этики в международном праве. Глобальная коалиция организаций гражданского общества стремится заставить государства взять на себя обязательство не разрабатывать автономные системы оружия летального действия (АСОЛД (Lethal autonomous weapons systems, LAWS)). Сегодня некоторые факторы блокируют это вполне осмысленное предложение по ограничению технологий. Военачальники не доверяют своим коллегам из стран-конкурентов. Те, возможно, скрывают военные разработки в области ИИ, наращивают силы, публично отрицая при этом свои намерения. Усиливающиеся державы могут самоутверждаться, инвестируя средства в проекты наращивания вооружений, соответствующие их новому экономическому статусу, тогда как господствующие ныне армии требуют дополнительных ресурсов, которые необходимы для поддержания их относительного перевеса. Но это лишь один из способов начать гонку вооружений. Когда на сцену выходят ИИ и роботы, риски отставания от соперников становятся еще более значимыми, поскольку новые технологии обещают быть все более таргетированными, глобальными и быстро развертываемыми.

Политики, отстаивающие дело мира, возможно, будут проповедовать исключительно оборонительную стратегию (что нашло отражение в том, что в 1949 г. американское министерство обороны пришло на смену министерству войны). Тем не менее оборонные средства часто могут использоваться и как наступательные вооружения; достаточно вспомнить об автономных дронах, заточенных на уничтожение ракет, которые, однако, можно перепрограммировать так, чтобы убивать генералов. Соответственно, даже планы обороны могут быть агрессивными, что доказывает пример Стратегической оборонной инициативы (СОИ) Рональда Рейгана. В СОИ, получившей известность как «Звездные войны», должны были использоваться космические лазеры, которые бы сбивали советские ракеты. Если бы эта программа была внедрена, хрупкое равновесие сдерживания (обеспечиваемое гарантированным взаимным уничтожением ядерным оружием) было бы нарушено. АСОЛД, автоматические кибератаки и кампании по дезинформации – сегодня все это грозит подорвать давно сложившиеся ожидания, определявшие цели и границы международного конфликта. Мы должны найти новые способы ограничить их развитие и влияние.

Война поначалу может предстать исключительным положением, во время которого обычные этические аргументы перестают работать (или, по крайней мере, существенно ограничиваются). Однако третий новый закон робототехники применим и за пределами поля боя. Технологии, разрабатываемые в армии, также привлекают полицию, и все больше людей, занятых в области общественного порядка, стремятся использовать распознавание лиц для сканирования толпы в поисках преступников. Опираясь на методы машинного обучения, налоговые органы стремятся выявлять незадекларированные доходы путем анализа электронной почты и банковских счетов всех граждан. Сама возможность столь совершенного надзора заставит людей, обеспокоенных безопасностью, вкладываться в шифрование, которое, в свою очередь, будет подталкивать власти бросать все больше ресурсов на расшифровку.

Нам нужно найти способы сдерживания подобной динамики – и не только в военных и полицейских сценариях. Инвестирование в ИИ и робототехнику часто оказывается частью состязания за определенный набор ресурсов, например, в судопроизводстве, финансах и других областях, где люди конкурируют за позиционные преимущества. Для распределения таких ресурсов государство и корпорации создают для граждан и клиентов репутационные соревнования, в частности рейтингование, которое имеет значение в той мере, в какой позволяет пристыдить определенных людей (с низкими баллами) и превознести других (с высокими). Вначале кредитный рейтинг ограничивался одной областью жизни (определением кредитоспособности) и основывался на ограниченном множестве данных (истории выплат по кредитам). Но спустя десятилетия рейтинги и другие похожие оценки стали определять иные возможности, включая ставки страхования и возможности найма. В последнее время специалисты по сбору информации предложили еще больше источников данных для кредитного рейтинга, начиная с того, как люди печатают на клавиатуре, и заканчивая их политическими взглядами или сайтами, которые они посещают. Китайское правительство значительно расширило задачи подобного контроля, сделав так, что «социальный рейтинг» стал играть роль в определении того, на каких поездах или самолетах гражданин может передвигаться, в каких гостиницах останавливаться и в каких школах могут учиться его дети. Во многих областях Китая расширился объем потенциально используемых данных – начиная с того, как человек переходит улицу, как он относится к своим родителям, и заканчивая степенью его патриотизма и веры в коммунистическую партию и ее учение.

Система социального рейтинга и ее многочисленные западные аналоги вызвали немало споров, и неясно, до чего они способны дойти. Конечно, некоторые области применения таких систем могут оказаться достаточно ценными. Сложно жаловаться на медицинскую систему надзора, которая ускоряет отслеживание контактов, чтобы остановить распространение инфекционного заболевания и препятствует таким образом началу пандемии. Но когда те же инструменты используются для постоянного ранжирования всех и каждого, они становятся элементом подавления людей.

Основная опасность социального контроля средствами ИИ – это создание мира строгой регламентации. Конфликт и конкуренция – часть жизни, и мы должны быть готовы к тому, что технологическое развитие скажется и на них. Однако ИИ и роботы грозят сделать социальный контроль слишком совершенным, а конкуренцию (для того чтобы стать тем, кто способен навязывать контроль или уклоняться от него) – слишком жесткой. Безопасность и креативность человека развиваются в средах, в которых найден баланс предсказуемости и открытости, порядка и подвижности. Если мы не сможем ограничить робототехнику, встроенную в системы социального контроля, этому балансу придет конец.


4. Роботизированные системы и ИИ всегда должны содержать указание на идентичность своего создателя (или создателей), оператора (или операторов) и собственника (или собственников)

За роботов и алгоритмические системы отвечают люди. Конечно, некоторые программы могут сегодня порождать новые программы, которые, в свою очередь, дают начало другим. Но мы все еще может проследить родословную этих «детей и внуков разума» вплоть до их источника22. И мы должны сохранить это положение дел в обозримом будущем, несмотря на предсказуемое сопротивление со стороны некоторых апологетов полностью автономного ИИ.

На передовых рубежах ИИ, машинного обучения и робототехники подчеркивается автономия, будь то умных контрактов, высокочастотных трейдинговых алгоритмов (независимых, по крайней мере, в те промежутки времени, которые для людей незаметны) или будущих роботов. Существует туманное понятие «бесконтрольных» роботов, которые сбежали от своего создателя. Возможно, такие инциденты и в самом деле неизбежны. Тем не менее какой-то человек или организация должны за них отвечать. Требование, согласно которому у всякого ИИ или роботизированной системы должно быть лицо, отвечающее за его или ее действие, поможет ограничить те проекты, которые способны оказаться столь же опасными, как нерегулируемая биоинженерия вирусов.

Конечно, некоторые роботы и алгоритмы в своем развитии отступят от идеалов, запрограммированных их собственниками, в результате взаимодействия с другими людьми или машинами (представьте, к примеру, развитый беспилотный автомобиль, который будет развиваться в результате множества влияний, им испытываемых23). В подобных случаях может быть несколько сторон, ответственных за развитие данной машины и ее действия24. Независимо от того, что именно влияет на развитие подобных машин, исходный создатель обязан встроить в них определенные ограничения на развитие кода, чтобы можно было записывать факторы влияния и в то же время предотвращать возникновение негативных результатов. Когда же другой человек или организация взламывает либо отключает подобные ограничения, ответственным за проступки робота становится хакер.

1.Полезный обзор максималистских предсказаний дает Кевин Драм, который приходит к выводу, что «какую бы работу ни назвать, роботы смогут ее делать». См.: Kevin Drum, “You Will Lose Your Job to a Robot – and Sooner Than You Think,” Mother Jones, November/ December 2017, at https://www.motherjones.com/politics/2017/1o/ you-will-lose-your-job-to-a-robot-and-sooner-than-you-think/.
2.Экономические смыслы этого нарратива подробно рассматриваются в следующих книгах: Мартин Форд, Роботы наступают: развитие технологий и будущее без работы (Москва: Альпина нон-фикшн, 2016); Jerry Kaplan, Humans Xeed.Not Apply: A Guide to Wealth and Work in the Age of Artificial Intelligence (New Haven: Yale University Press, 2015); Robin Hanson, The Age of Em: Work, Love, and Life When Robots Rule the Earth (Oxford: Oxford University Press, 2016).
3.Eric Brynjolffson and Andrew McAfee, Race against the Machine: How the Digital Revolution Is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Economy (Lexington, MA: Digital Frontier Press, 2014).
4.Айзек Азимов, Хоровод, Чёрный столб (Москва: Знание, 1963). Позже Азимов ввел метапринцип, который он назвал нулевым законом робототехники (утверждающим, что люди не должны вредить человечеству). См.: Айзек Азимов, Миры Азейка Азимова. Кн. 8. Роботы и империя (Рига: Полярис, 1994). Isaac Asimov, Robots and Empire (New York: Doubleday, 1985), 312.
5.Jack Balkin, “The Three Laws of Robotics in the Age of Big Data,” Ohio State Law Journal 78 (2017): 1, 10. К чести Азимова следует отметить, что он вполне понимал эти двусмысленности и использовал их для создания драматического эффекта в своих рассказах.
6.Эти законы робототехники, как и законы Азимова, служат общим ориентиром, а потому возможны исключения и пояснения. Как хорошо известно специалистам по административному праву, многие нормативы являются не вполне прозрачными и нуждаются в пояснении (а также согласовании с другими, возможно, конфликтующими с ними, законами), предоставляемом специальными агентствами и судами.
7.В этом я следую второму принципу робототехники Исследовательского совета инженерных и физических наук Великобритании (UK EPSRC), которым утверждается, что «ответственность несут люди, а не роботы». См.: Margaret Boden, Joanna Bryson, Darwin Caldwell, Kirsten Dautenhahn, Lillian Edwards, Sarah Kember, Paul Newman et al., Principles of Robotics (2010), https:// epsrc.ukri.org/research/ourportfolio/themes/engineering/activities/ principlesofrobotics/.
8.Государство, гражданское общество, деловые ассоциации и профессиональные общества разрабатывали этические руководства для ИИ; одно из метаисследований подобных руководств см. в: Anna Jobin, Marcello lenca, and Effy Vayena, “The Global Landscape of Ethics Guidelines,” Nature Machine Intelligence i, 389–399 (2019), https://d0i.0rg/10.1038/s42256-019-0088-2. Также появилось много предложений и руководств, составленных регулирующими ведомствами. Согласно Агентству по основополагающим правам ЕС, в странах – членах ЕС насчитывается более 250 инициатив такого рода. Хотя четыре закона робототехники, предложенные в этой книге, не могут, скорее всего, служить основанием для всех этих, весьма разнообразных, документов, они на них в какой-то мере опираются, выделяя ключевые идеи, в которых отражаются общепринятые ценности.
9.Я сосредотачиваюсь на робототехнике, а не роботах, чтобы сделать упор на том, как в социальные системы встраивается технология датчика/процессора/активатора.
10.Harold Wilensky, “The Professionalization of Everyone?” American Journal of Sociology 70, no. 2: 137–158 (ядро профессионального статуса здесь описывается как «успешное притязание на исключительную техническую компетентность и следование идеалу службы»).
11.Эти средства правовой защиты также отражаются в более общей социальной расположенности к ИИ, выполняющему функцию дополнения. См.: The Federal Government of Germany, Artificial Intelligence Strategy 25 (2018), https://ec.europa.eu/knowledge4policy/publication/germany-artificial-intelligence-strategy_en («Потенциал ИИ, способного работать на благо всего общества, заключен в обещанном росте производительности, который должен сочетаться с улучшением ситуации, касающейся рабочей силы, делегированием монотонных или опасных работ машинам, чтобы люди могли сосредоточиться на применении своей креативности в решении проблем»).
12.Lucas Mearian, “A. I. Guardian-Angel Vehicles Will Dominate Auto Industry, Says Toyota Exec,” Computerworld, June 3, 2016.
13.Некоторые формы автопилотирования снижают квалификацию пилотов. См.: Николас Карр, Стеклянная клетка (Москва: КоЛибри, 2015). Но в то же время автопилотирование можно проектировать так, чтобы навыки пилота поддерживались или повышались, что позволит сохранить его профессионализм. См.: Дэвид Минделл, Восстание машин отменяется! Мифы о роботизации (Москва: Альпина нон-фикшн, 2017).
14.Так, даже фирмы, составляющие витрину революции ИИ, в частности Microsoft, утверждают, что их цель «не в том, чтобы заменить людей машинами, а в том, чтобы дополнить человеческие способности безграничной способностью ИИ анализировать огромные объемы данных и находить паттерны, которые в ином случае выявить было бы невозможно». См.: Microsoft, “The Future Computed: Artificial Intelligence and Its Role in Society” (2018), https://blogs.microsoft.com/wp-content/uploads/2018/o2/ The-Future-Computed_2.8.18.pdf.
15.Kate Crawford and Vladan Joler, Anatomy of an Al System (2018), https://anatomyof.ai/.
16.Information Technology Industry Council (ГП), Al Policy Principles Executive Summary 5 (2017), https://www.itic.org/public-policy/ ITIAIPolicyPrinciplesFINAL.pdf.
17.The Agency for Digital Italy, Artificial Intelligence at the Service of Citizens 37, 54, 62 (2018), https://ia.italia.it/assets/whitepaper.pdf. См. также: Artificial Intelligence Industry Alliance (China), Joint Pledge on Artificial Intelligence Industry Self-Discipline (2019), https://www. newamerica.org/cybersecurity-initiative/digichina/blog/translation-chinese-ai-alliance-drafts-self-discipline-joint-pledge/, где утверждается, что развитие ИИ не должно позволить «искусственному интеллекту ослабить или заменить позицию человека».
18.Frank Pasquale, “A Rule of Persons, Not Machines,” George Washington Law Review 87, no. 1 (2019): 1-55.
19.Beijing Academy of Al, Beijing Al Principles (2019), https://www. baai.ac.cn/blog/beijing-ai-principles.
20.Daniella K. Citron and Robert Chesney, “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security,” California Law Review 107 (2019): 1753–1819.
21.European Group on Ethics in Science and New Technologies, European Commission, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems 16 (2018), https://publications.europa.eu/en/publication-detail/-/publication/dfebe62e-4ceg-ne8-beid-oiaa75ed7iai, где цитируется фундаментальный принцип человеческого достоинства. См. также: IEEE, Global Initiative on Ethics of Autonomous and Intelligent Systems, Ethically Aligned Design 39 (1st. ed., 2019), https:// standards.ieee.org/content/ieee-standards/en/industry-connections/ ec/autonomous-systems.html: «Обязанность уважать человеческое достоинство, возможно, потребует определенных ограничений функций и способностей искусственных интеллектов, сузив их возможность заменять людей, человеческие функции и/ или „центральную мыслительную деятельность человека“, примерами которой являются суждение, рассуждение и оценка… Также она, возможно, не позволит ИИ обманывать людей или манипулировать ими».
22.Термин «дети разума» я заимствую у Моравека, хотя у меня совершенно другое представление о будущем робототехники. См.: Hans Moravec, Mind Children: The Future of Robot and Human Intelligence (Cambridge, MA: Harvard University Press, 1990).
23.Даже в подобных случаях можно навязать «бремя самострахования». См.: David С. Viadeck, “Machines without Principals: Liability Rules and Artificial Intelligence,” Washington Law Review 89, no. 1 (2014): 117, 150.
24.Термин «потенциально ответственные стороны» опирается на документ: Comprehensive Environmental Response, Compensation, and Liability Act, or CERCLA. 42 U.S.C. § 9607(a) (2012), в котором определяются четыре категории сторон, потенциально связанных обязательствами.
Yosh cheklamasi:
0+
Litresda chiqarilgan sana:
26 sentyabr 2022
Tarjima qilingan sana:
2022
Yozilgan sana:
2020
Hajm:
502 Sahifa 4 illyustratsiayalar
ISBN:
978-5-85006-352-8
Mualliflik huquqi egasi:
РАНХиГС
Yuklab olish formati: