Три закона роботехники:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам человека, кроме тех случаев, когда эти приказы противоречат Первому закону.
3. Робот должен заботиться о собственной безопасности в той мере, в которой это не противоречит Первому и Второму законам.
Перед фирмой «Ю. С. Роботс энд Мекэникл Мен Корпорейшн» стояла серьезная проблема. Этой проблемой были люди.
Питер Богерт, Главный Математик, встретил директора научно-исследовательского отдела Альфреда Лэннинга на пути к залу заседаний. Опираясь о перила балкона и свирепо хмуря седые брови, Лэннинг разглядывал расположенное внизу помещение вычислительного центра. Там стояла группа посетителей — мужчин и женщин различного возраста; с любопытством осматриваясь по сторонам, они внимали пояснениям своего гида.
— Компьютер, который вы видите, — рассказывал он, — самый большой в мире среди вычислительных машин подобного назначения. Он содержит пять миллионов триста тысяч криотронных ячеек и способен обрабатывать численные массивы, включающие более ста тысяч переменных. С его помощью специалисты «Ю. С. Роботс» производят сложнейшие вычисления, необходимые при проектировании позитронных мозгов для роботов новых моделей.
— Задания, поступающие в компьютер, предварительно кодируются на пленку с помощью этой клавиатуры, — гид показал рукой на панель с множеством клавиш и кнопок. — Она похожа на очень усложненную клавиатуру пишущей машинки или линотипа и содержит, кроме букв, ряд математических и логических символов. Здесь задание переводится с человеческого языка на логически строгий язык вычислительных машин. Затем оно вводится в компьютер, которому требуется всего около часа, чтобы выдать нашим специалистам полную позитронную карту мозга новой модели…
Лэннинг недовольно отвернулся и, наконец, заметил математика.
— А, Питер, это вы, — сказал он.
Богерт провел ладонями по голове, приглаживая свои и так уже идеально приглаженные черные волосы, и произнес, кивнув на группу экскурсантов:
— Не похоже, чтобы это вас сильно занимало, Альфред.
Лэннинг иронически хрюкнул. Идея о проведении подобных экскурсий возникла недавно; по мнению некоторых руководителей «Ю. С. Роботс», они должны были способствовать решению двух проблем. Во-первых, как утверждали психологи, ознакомление с процессом производства роботов способно уменьшить тот инстинктивный страх, который питали люди к этим механическим созданиям. Во-вторых, среди посетителей могли оказаться способные молодые люди, способные посвятить свою жизнь роботехнике.
— Вы правы, меня это не занимает, — сказал, наконец, Лэннинг. — Раз в неделю все работы приостанавливаются. Мы теряем много сотен человеко-часов, не получая взамен почти никакой пользы.
— Значит, притока новых специалистов пока не наблюдается?
— Нет, есть кое-что, но только в таких областях, которые не являются жизненно важными. Нам нужны творческие люди, способные к научной работе. Вы сами это знаете. Однако после запрещения использовать роботов на Земле роботехника стала непопулярной профессией.
— Проклятый комплекс Франкенштейна, — сказал Богерт, довольно удачно имитируя одну из любимых сентенций Лэннинга.
Но тот, оставив без внимания эту дружескую шпильку, продолжал:
— Я должен был бы использовать полезные результаты от этих посещений, но я не могу использовать то, во что не верю. Вы полагаете, что теперь каждый человек на Земле знает, что Три закона являются идеальной охранительной системой, что роботы просто не могут стать опасными? Посмотрите на этих, — он пренебрежительно ткнул вниз пальцем. — Большинство из них проходит через сборочный цех с трепетом и ужасом, как через кладбище с ожившими мертвецами. А потом, когда им показывают модель МЕК… Черт побери, Питер, модель МЕК, которая умеет сделать только два шага вперед, произнести «Добро пожаловать, сэр», пожать руку и затем сделать два шага обратно… матери хватают детей на руки и все в панике бросаются прочь… Можно ли ожидать, что мы найдем нечто полезное среди таких идиотов?
Богерт не ответил. Стоя рядом на балконе, они снова посмотрели вниз, на цепочку посетителей, проходивших теперь из вычислительного центра в секцию сборки позитронного мозга. Затем они продолжили свой путь в зал заседаний. Поэтому они не заметили Мортимера В.Джекобсона, шестнадцати лет от роду, который… Впрочем, следует быть справедливым к нему — он не хотел сделать ничего плохого.
В действительности же нельзя сказать, что Мортимер был в чем-то виноват. День недели и время проведения экскурсий были отлично известны работникам «Ю. С. Роботс». Все приборы и установки, расположенные по пути следования посетителей, подлежали обязательному отключению, поскольку было бы неразумным надеяться, что человеческие существа могут противостоять соблазну потрогать ручки, переключатели и кнопки. Кроме того, в задачу гида входило неусыпное наблюдение за теми, кто поддавался искушению.
Но на этот раз сопровождающий проходил в следующее помещение, когда Мортимер случайно оказался на самом конце цепочки. Он проходил мимо пульта, с помощью которого в компьютер поступали задания. Он даже не подозревал, что в этот момент в машину вводились исходные данные для проектирования новой модели, иначе он, будучи хорошим мальчиком, обошел бы пульт на расстоянии трех ярдов. Он не мог также знать, что пульт не был выключен из-за почти преступной небрежности дежурного техника.