II. Роботы и люди (2)

[1] [2] [3] [4]

Конечно, так определенная «метафизика» существенно скоррелирована в своем виртуальном возникновении с «техническими параметрами» роботов. Если они не обладают «персонифицированными» характеристиками, то нет оснований ставить вопросы в порядке антропологически ориентированной аксиологии.

Достаточно своеобразна и верховная тема «ультимативного робота», уподобляющегося Господу Богу. О том, как я подхожу к этому в «Дневнике», я уже упоминал. А вот как ее трактует «отец трех законов роботехники» Айзек Азимов (это авторское, а не мое изложение новеллы «Последний вопрос») в семи коротеньких сценках. Все начинается в 2061 году, когда с помощью Мультивака земная энергетика подключается к Солнцу. Два техника Мультивака, упившись, вопрошают машину, можно ли будет еще что-нибудь сделать, когда энергия Солнца исчерпается. Ответ таков: «Данных для ответа недостаточно». Через много веков межпланетные полеты становятся реальностью, а растущая популяция Земли расползается по планетам. У каждой планеты есть свой электронный мозг, а у каждого корабля — свой Микровак, более совершенный, нежели Мультивак 2061 года. С течением времени вопрос, заданный некогда подвыпившими техниками, возникает вновь и вновь. Ответ остается прежним.

Спустя миллионы лет человечество распространяется по Галактике, люди — бессмертны и намереваются колонизировать другие звездные системы. Существует галактический АК[22], обслуживающий все человечество: любой человек может контактировать с ним благодаря своему контактному АК. Тем временем главный Мозг уже освободился от контроля людей; очередные поколения компьютеров «в поте лица своего» проектируют и создают новые поколения. Но и галактический АК не может объяснить, удастся ли когда-либо и как предотвратить неумолимое возрастание энтропии. Спустя сотни миллионов лет человечество добралось до удаленнейших туманностей. У людей уже нет физических тел. Они построены из лучевой энергии, составляющей их идентичность и личность. АК Всего Универсума — шар двухфутового диаметра, «почти невидимый», поскольку расположен он в «многомерном гиперпространстве». Но даже космический АК не знает ответа на исходный вопрос. Проплывают биллионы лет, человечество утратило индивидуальность, теперь оно — единая личность, состоящая из триллионов и триллионов существ, заполняющая Вселенную от края и до края, однако по-прежнему зависящая от постепенно угасающей энергии звезд. Человек снова вопрошает, возможно ли уменьшить энтропию, и снова не получает ответа.

Спустя триллионы лет угасают последние звезды и тепловая смерть охватывает Космос. Люди понемногу сплавились в единое целое с гипервселенским компьютером; он всеприсутствует, как и само гиперпространство, вечен, но не всеведущ; когда последний, сплавливающийся в единое целое с машиной, вопрошает ее все о том же, ответа он не получает.

«Потом материя и энергия кончились, а с ними — пространство и время. Космический („Вселенский“) АК существовал еще только ради того вопроса, на который не мог дать ответа в течение десятков триллионов лет после того, как полупьяный техник задал ему свой вопрос. Все собранные данные наконец сошлись в одной точке, и уже нечего было больше узнавать. Оставалось только упорядочивать. И стало так, что АК понял, как можно обращать исчезновение энтропии. Но уже не было человека, которому он мог бы передать это знание. В течение долгого безвременья АК раздумывал, что же делать. Его сознание охватывало все то, что прежде было Космосом, а теперь стало Хаосом. И сказал АК: „ДА БУДЕТ СВЕТ!“

И стал свет».

Мне кажется забавным, что концепция «компьютеризации» Универсума, явно висящая в воздухе, была очень похоже реализована мною в рассказе «Друг» (в котором угрюмый компьютер, строя козни человечеству, нападает на мысль, что он мог бы поочередно превращать планеты и солнца в собственное вещество, то есть «компьютеризовать Космос», и наконец приходит к мысли: «а может, это уже когда-то было», может, другой компьютер биллионы лет назад именно так и поступил, после чего «ему в голову ударило та-а-акое», что вызвало взрыв Мозга-Вселенной, то есть привело к разбеганию галактик, продолжающемуся и по сей день).

Тот же Азимов, как было сказано, изобрел «Три Закона Роботехники», звучащие так:

«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Законам».[23]

Как можно судить по статье Азимова в английском журнале «Сайнс» (декабрьский номер за 1968 г.), он к своим законам относился серьезнее, чем следовало бы. Разыскивая аналогию, на которой, как на модели, можно было бы показать опасности, возникающие в реляциях «человек-компьютер», Норберт Винер не случайно обратился к истории «Обезьянья лапа», а не к какому-либо одному из многотысячных рассказов научной фантастики.

Утопично предположение, будто Три Закона Роботехники Азимова можно было бы заложить в фундамент интеллектронного программирования. Этой проблемой я занимался в «Summa Technologiae», рассматривая возможную эволюцию отношений между цифровыми машинами и людьми, поэтому не хотелось бы повторять сказанное. Но и робота, снабженного каким-то эрзацем личности, невозможно сделать совершенно безопасным для окружения, учитывая такую рефлексию, которая, правда, не может считаться доказательством, но на след его наводит. Примем оптимистическое (недоказуемое строго) предположение, будто технически осуществимо построение системы, являющейся одновременно самопрограммирующимся роботом, в то же время не могущим предумышленно причинить зло человеку. Моделью такого робота будет ребенок из новеллы Я.Ю. Щепаньского «Бабочка», который, желая помочь бабочке, неумышленно ее убивает. В принципе же моральную оценку такого поступка можно дать лишь постольку, поскольку удается проследить уходящие максимально далеко причинные цепочки, запущенные данным действием. Тот, кто смотрит дальше и замечает такие возможные последствия своих действий, которых кто-либо другой на его месте не в состоянии предвидеть, порой действует не так, как этот другой. Но чем дальше в будущее уходит предвидение последствий действия, тем значительнее в предикции будет участие вероятностных факторов. Добро и зло скорее в виде исключения образуют полярную дихотомию: включение в оценку пробабилистического элемента делает принятие решения все более трудным. Поэтому гипотетический робот, имеющий аксиологически очень сильную защиту, в ходе реальных событий, презентующих присущую им степень сложности, чаще всего бы замирал, не зная, как поступить, тем самым уподобляясь тем восточным мудрецам, которые бездействие чтили превыше действия, кое в запутанных ситуациях просто не может быть этически не рискованным. Но робот, охваченный параличом в ситуациях, требующих активности, не был бы наиболее совершенным из всех технических устройств, и поэтому в конце концов сам конструктор вынужден был бы оставить некоторый люфт его экологическим предохранителям.

Впрочем, это только одна препона среди обильного их множества, поскольку теория решений показала нам сравнительно недавно, скажем, на примерах типа так называемого парадокса Эрроу, что существуют несовыполнимые ценности, хотя зачастую подобное положение интуитивно распознать не удается. Тот, кто принимает решения в запутанных ситуациях — а таковые относятся к общественно типичным, — никогда не действует ни исходя из полной информации, ни из предположения, что, решаясь на это, никому не причинит зла (например, когда он выполняет обязанности законодателя и т. д.). Того же, что логически оказывается невозможным, ни цифровая машина, ни какой-либо робот, так же, как и человек, реализовать не сумеет. Сверх того — и это уже третий пункт доказательства, — разумное устройство — это не более чем самопрограммирующийся комплекс, то есть прибор, способный преобразовывать — даже фундаментально — действовавшие до того законы собственного поведения под влиянием опыта (или обучения). А поскольку заранее невозможно точно предвидеть ни чему, ни каким образом такое устройство будет научаться, машина она или человек, то и невозможно конструктивно гарантировать появление этически совершенных предохранителей активности. Иначе говоря, «свободная воля» есть признак любой системы, снабженной свойствами, которые мы отождествляем с интеллектом. Вероятно, можно было бы вмонтировать в систему типа робота определенный аксиологический минимум, но он подчинялся бы ему лишь в такой степени, в какой человек подчиняется особо сильным инстинктам (например, инстинкту самосохранения). Однако же известно, что даже инстинкт самосохранения можно преодолеть. Стало быть, программирование аксиологии мозгоподобной системы может быть только пробабилистичным, а это означает всего лишь, что такое устройство может выбирать между добром и злом.

В упомянутой статье А. Азимов рассказывает, как когда-то он опубликовал два криминально-фантастических романа. Один из них, «Стальные пещеры» (в польском варианте — «Позитронный детектив»), был издан у нас. Личность помощника этого детектива, робота-андроида Дэниела Оливо, вызвала такой интерес у женщин, что они засыпали автора письмами, из которых Азимов, как он говорит, узнал, что «когда механический человек достаточно напоминает мужчину, притом „лучшего“, то он становится (для женщин) невероятно привлекательным».

Свое утверждение он подтверждает дальнейшим: сколько бы историй об андроидах он ни писал, приходящая после публикации почта почти всегда шла от женщин; это тем интереснее, что среди читателей научной фантастики мужчины превышают женщин в пропорции примерно 3:1. И наконец, с аналогичной реакцией в США сталкивались телевизионные сериалы, в которых действовал мистер Спок, правда, не робот, но «extraterrestial», то есть представитель «чужих», личность сильная, вполне уравновешенная, чисто интеллектуальная и лишенная эмоций, так вот, мистер Спок также был встречен с энтузиазмом женской половиной телезрителей.
[1] [2] [3] [4]



Добавить комментарий

  • Обязательные поля обозначены *.

If you have trouble reading the code, click on the code itself to generate a new random code.