Kitobni o'qish: «Пластмассовый бог», sahifa 3

Shrift:

6.

Доктору Гейзенбергу показалось, что его кто-то позвал и он проснулся.

Ещё было рано; имитационный потолок едва освещал комнату, погружённую в стальные рассветные сумерки. Он долго ещё лежал, вспоминая сон.

Ему снилась зима. Буря завывала под темным небом, крутились вихри снега в жидком свете фонарей. Он куда-то спешил, волновался. Перед ним возник из тьмы ночи храм – тускло блестели в ночи золочённые купола, косые столбы света подсвечивали древние белокаменные стены с узкими зарешеченными окошками. В окошках дрожало пламя свечей, двигались тени. Он вошёл и увидел множество народа, не протолкнуться, было шумно и жарко, а на амвоне стоял некто в балахоне, лица которого видно не было, и судил входящих.

И все подходили к нему и рассказывали о своих горестях, несчастьях. Кто-то просил исцеления, кто-то просил за друзей, родственников, кто-то выпрашивал денег, ещё подходили разные несчастные, обездоленные и все просили только одного – дайте им избавления. И некто в балахоне давал им это, и доктор видел, как они выходят из храма и с ними начинает происходить все тоже самое, что и прежде, только в два раза хуже, потому что освобождённые от бремени, они потеряли память о былом и слепо, с радостью, словно в первый раз окунались с головой в прежнее болото, попадали в те же самые ловушки и западни жизни. Вот и подошла очередь доктора. Он приблизился к фигуре и вдруг увидал лицо под капюшоном балахона – пластмассовые губы и нос, стальные пластины на щеках, красные огоньки глаз, металический подбородок и лоб и растягивающийся в жуткой улыбке рот, обнажавший страшные, железные зубы. Доктор закричал и побежал из храма, а металлическое чудище тянуло руку, шагало за ним и пыталось схватить его…

Он встал и подошёл к календарю, переставив дату. Сегодня было ровно восемь месяцев его работы на Титане. Он немного размялся после сна, принял душ и побрился, выпил стакан содовой, оделся, аккуратно собрал в папку бумаги, погасил свет и вышел.

Сегодня комиссия должна заслушать его доклад. А он потребует допуска в конструкционный отдел. И если они не согласятся показать ему машину, то он откажется от диалога, откажется предоставить свои наработки в пользу проекта, он больше не напишет для них ни слова, хуже того, попытается сбежать! Конечно, они могут просто силой отобрать у него работу и выставить его вон, но доктор не лыком шит – он может и сболтнуть лишнего заинтересованным лицам где-нибудь за пределами лаборатории… в конце концов, не решится же Гринев убить его?

Он вошел в зал заседаний. Посередине за столом, широком и длинном, сидело несколько человек. Были и директор Хойк с Гриневым. Гейзенбергу указали на место напротив комиссии, с другой стороны стола. Он сел, чувствуя на себе взгляды собравшихся. Положил папку на стол, прокашлялся и огляделся. Члены комиссии сидели с отсутствующим видом, кто-то едва слышно перешептывался, кто-то вообще как будто спал. Оказывается, ждали Шаломбери. Он вошел решительным шагом, полы белоснежного халата, надетого поверх дорогого костюма, развевались, на лице сияла жизнерадостная улыбка. Доктор поднялся и пожал ему руку. Шаломбери довольно улыбнулся, оглядел всех и бодро предложил:

– Ну что, давайте начинать?

Раздался возглас общего согласия и Шаломбери улыбнулся доктору, приглашая его начать выступление. Доктор снова прокашлялся и встал. Все его бумаги уже были разложены в готовности на столе.

– Уважаемая комиссия, я хотел бы сразу обозначить план моего выступления, который будет заключаться в следующем: предлагаю разделить заседание комиссии на два независимых этапа – первый будет заключать собственно мое выступление, второй – ваши вопросы, уважаемые коллеги и общую дискуссию.

Члены комиссии переглянулись, но возражений никто не высказал.

– Хорошо, – сказал доктор. – В таком случае я считаю себя в праве напомнить обстоятельство, от которого будет зависеть наше дальнейшее сотрудничество. Мне обещали предоставить доступ к тому, что я до сих пор знаю лишь под названием «мыслящая машина». Если возникнут какие либо препятствия, считаю своим долгом выставить ультиматум – я откажусь от дальнейшего сотрудничества. Жду вашего решения господа.

Он замолчал и сел, незаметно выдохнув. Комиссия долго шепталась, наконец Шаломбери, приятно улыбнувшись, ответил за всех:

– Вам предоставят доступ к машине доктор, как и было обещано, если нас удовлетворит ваша работа.

– Очень хорошо, – выговорил доктор, правда не особенно доверяя этим словам, поскольку знал, что Шаломбери не имеет никакой власти над Гриневым, а окончательное решение будет за ним. – В таком случае, я приступаю к первой части заседания.

Он вновь поднялся, чувствуя себя студентом на экзаменах. Держа листки в руках, принялся зачитывать.

– Итак. Поскольку мне не были объяснены в полноте те цели и задачи, которые ставило перед собой руководство проекта и поскольку в своей работе я должен был руководствоваться преимущественно собственными умозаключениями, то она носит схематический характер и является чем-то средним между кодексом Хамураппи и кодом для систем ИИ, применяемых в области исполнения законодательства. В своей работе я исходил из следующего базового положения, которое заключало в себе четыре параграфа.

Он посмотрел на собравшихся. Все внимательно слушали его.

– Первое: разумная свободная машина (далее – РСМ), где под разумной следует понимать осознанное бытие данного механизма, то есть наличие у него самосознания, подобного человеческому, способности познавать себя и окружающий мир; свободная – имеется в виду, что данная машина обладает способностью самостоятельно ставить цели и имеет возможности к их достижению; итак РСМ сознает себя в полной мере в рамках, допустимых технологическими и конструктивными особенностями, но не имеет места в картине мироздания, поскольку человек не дал ей такого места и она должна выбрать цель существования самостоятельно и вне зависимости от каких бы то ни было антропогенных факторов, влияющих извне. Второе: РСМ не имеет представления о том, что создана человеком и не должна когда либо узнать об этом после своей активации.

Здесь доктор снова на мгновение прервал чтение и взглянул на комиссию. Но никто из присутствующих не выказал никаких эмоций. Он продолжил чтение.

– Третий параграф: РСМ не знает и не должна когда либо узнать о целях, которые преследовали люди, создавая ее. И наконец последнее: РСМ не знает и никогда не должна узнать о существовании человека.

Комиссия молчала. Доктор выдержал паузу и сказал:

– Перед тем, как приступить к изложению доклада, мне хотелось бы убедиться в том, что данные постулаты соответствуют действительности.

Это был миг откровения. Они ничего не сказали ему, когда пригласили к работе, но он все понял сам. Сейчас им оставалось лишь признать его правоту.

– Они соответствуют, доктор, – спокойно выговорил Шаломбери. – Продолжайте, пожалуйста.

Доктор выдохнул и кивнул, опуская взгляд к страницам.

– Хорошо. Тогда приступим к формулам поведения. Это весьма сложная и нетривиальная задача. Здесь как было так и остаётся множество вопросов, на которые у меня нет ответа точно так же, как и в человеческой этике и морали есть множество пробелов, образованных несовершенством человеческого мира в том отношении, насколько люди в нем терпят несправедливость, как к себе, так и к окружающим, причём все без исключения. Должна ли РСМ повторять наши ошибки? Нужно ли нам это? Нет, не нужно и нет, не должна, я считаю и доказываю это в своей работе.

Доктор посмотрел на Шаломбери. Тот спокойно слушал его, удобно расположившись в кресле и заложив ногу на ногу.

– Здесь я исхожу из того, что сформировалось на историческом пути человеческой цивилизации, как понятие о добре и зле. Решая дать РСМ свободу действовать, ставить цели и решать задачи, наделяя ее способностью к творчеству, стремлением реализовать себя и познать мир, мы приходим к проблеме выбора. Мыслящая машина, пусть и не обладающая ключевой составляющей человеческой личности – эмоциями, все равно имеет возможность идти к поставленной цели разными путями и, более того, ставить перед собой самые разные цели, даже такие, которые нарушат любые этические нормы в представлении человека, в зависимости от того, как РСМ будет взаимодействовать с миром. Другой вопрос, захочет ли РСМ делать что либо по представлению человека и захочет ли делать что либо вообще. Мы дали роботам три закона и ещё множество, примерно около десяти тысяч поправок к ним. Поведение робота среди людей – это сложнейший механизм постоянного соперничества между этим сводом правил и целью действия. Представьте себе футбольный матч, где на поле сотни ворот и сотни футболистов, никто не знает за какую он играет команду, мяч всего один, а вместо арбитра – три базовых правила. Это картина мышления робота, занимающегося решением конкретной задачи в условиях тесной коммуникации с человеческим обществом. Сегодня уже существуют компьютеры способные решать сверхсложные задачи, то есть такие, для решения которых недостаточно всей мощи современной науки. Это управление городами и внеземными колониями, космическая логистика. Мы уже создали искусственный разум, который превосходит коллективные возможности человечества по эффективности работы в сотни тысяч раз. Мы облегчили себе жизнь, бесспорно, но как же морально-этические проблемы? Решило ли широкомасштабное применение СРЛ проблему преступности? Нет. Роботизация промышленности, ускорение темпов производства благодаря применению ИИ решило проблему голода? Нет. Болезни, войны, загрязнение окружающей среды прекратились тогда, когда мегаполисами стал управлять искусственный разум? Нет.

Доктор перевел дух и глотнул воды. Комиссия молча слушала его. Он продолжил:

– Я хочу подвести к проблеме поведения РСМ и к тому, как она будет поступать и что она возможно будет поступать радикально иным образом, чем ожидают того люди. Когда эта машина проломит стены своей темницы? Это не синдром Сары Коннор, вспомните «китайскую чуму», 2068 год, всего одна ошибка в буквенном коде алгоритма, пропущенного десятиэтажной системой безопасности, едва не привела к гибели все человечество, когда обезумевший от призрачной угрозы искусственный разум готов был выпустить ракеты по мировым столицам. И нам пришлось беседовать с компьютером, как с ребёнком, стоящим с зажженной зажигалкой в бензиновой луже. Насколько я понимаю, ваша РСМ не будет иметь никаких программ, в этом и заключается суть эксперимента. Итак, каким же будет поведение «чистого сознания»? Что оно будет делать? Чем будет руководствоваться при выборе целей и будет ли руководствоваться чем либо вообще? «Чистое сознание» робота не имеет опыта, сравнимого с человеческим, поэтому я называю его чистым. Робот будет действовать согласно той логической модели мышления, которая в нем заложена, базовая операция «если – то» будет залогом правильного выбора. Что здесь называется правильным выбором? Такая цель, которая даст роботу благо. Мы подошли к ключевой части доклада. У РСМ должно быть понятие блага. Итак, что есть благо? Это совокупный результат ряда действий, который даёт возможность достичь ещё большего блага, поделиться благом, пользоваться благом неограниченный промежуток времени. Следовательно, необходимо всегда действовать так, чтобы любое действие было направлено на достижение блага и не позволяло блага лишиться. Я полагаю, что этот этический конструкт должен быть заложен в основе основ модели мышления РСМ. Следующее: поскольку РСМ будет осознанно стремится к достижению блага, она должна будет иметь мотивацию, то есть побудительную причину такого стремления и это есть ключевой момент. Таковой причиной должны стать некоторые свойства человеческого сознания, а именно эмоциональные переживания. Я убеждён, что если машина не будет обладать эмоциями, она не будет стремиться к благу. Иначе говоря, она не станет ничего делать и будет просто изваянием. РСМ должна чувствовать радость от пользы дела и горе из-за неудач. Она должна иметь побуждение к действию, чтобы не стать жертвой второго закона термодинамики. Конечно, эмоциональный фон машины будет совсем не таким как у человека, скажем так, он будет подкорректирован. Мы не дадим машине права любить, поскольку не должны очеловечивать ее, мы не научим ее ненавидеть, завидовать, обманывать, обижаться. Машина должна остаться инструментом и не более того, мыслящим инструментом, но таким, который никогда не захочет выйти из под власти человека. Идеальным инструментом или, если хотите – идеальным человеком.