Z-МЕХАНИКА
Сад камней
[ назад ] [ оглавление ] [ вперед ]
Философия трансгуманизма

Френк Дж. Типлер (Frank J. tipler)
Professor, Department of Mathematics, Tulane University
Web Page : http://www.math.tulane.edu/~tipler/

Frank J. Tipler отрывок из книги:
Физика бессмертия:
Новейшая космология, Бог и воскресение из мертвых.

The Physics of Immortality: Modern Cosmology, God and the Resurrection of the Dead (1995)


Название книги провакационно. Френк Типлерe не исповедует виталистические взгляды. И яркий пример тому - приведенный здесь фрагмент из второй главы его книги. В ней Типлер последовательно отстаивает позицию Тьюринга: " наш разум - это всего лишь компьютерная программа". Отстаивает очень активно. Ведь сконструированный профессором рай возможет только в случае если полная эмуляция души человека внутри компьютера возможна.
Прекрасно, что несмотря на "ненормальнось" идей, Типлер не просто вменяем, но еще и предельно ясен (чего нельзя сказать о многих "здравомыслящих"). Его просто интересно читать! По ходу аргументации он бегло разъясняет такие важные вопросы как "Агрументы Лукаса-Пенроуза", "Китайская комната Сирла". Кроме того он поясняет ряд ключевых вопросов типа: конечный-бесконечный автомат, "эмуляция", "симуляция" и много другое.
К сожалению, книга не издавалась на русском языке. У меня есть только переводы нескольких глав, выполненные Александром Ф, с которым я теперь, к сожалению, потерял связь и даже не знаю его фамилии. Я выставляя сюда маленький фрагмент того что у меня есть как очень яркий пример того, что такое "жесткий" (в терминологии Пенроуза) ИИ.

А. Семенов


Перевод Александра Ф.


Часть главы 2.
. . .
Может ли машина быть разумной?

Предположение о том, что люди способны создать разумную машину носит название строгого постулата ИИ, где ИИ означает "искусственный интеллект". Я заметил, что люди несведущие в компьютерной науке в огромном большинстве сомневаются в такой возможности, и это пока действительно лишь возможность, поскольку сейчас мы не можем создать такую машину. Позвольте мне сначала рассмотреть техническую возможность создания такой машины, а затем полностью необоснованный страх перед монстром Франкенштейна: даже если мы сможем создать такую машину, мы не должны этого делать, поскольку она уничтожит нас, своих создателей.

Прежде всего, как мы сможем узнать, что достигли успеха? Как мы сможем сказать, что компьютер стал разумным? А как мы узнаем, что человек разумен? Может быть он страдает заболеванием мозга и не может мыслить. К несчастью, есть такие люди. Ответ в отношении человека прост: поговорить с ним. Если он осмыслено отвечает на вопросы, которые вы ставите, тогда вы немедленно заключаете, что возможно он обладает полностью человеческим интеллектом. Но конечно, есть дефекты мышления, которые не выявляются за один раз. Так что с человеком нужно говорить еще и еще. После дней, недель и даже лет такого общения вы можете узнать, есть ли у данного человека дефекты мышления или нет.
Великий английский ученый Алан Тьюринг предложил применить тот же критерий к компьютерному разуму: если вы можете говорить с машиной - действительно говорить с ней, как с обычным человеком, тогда данная машина разумна. Если в течение нескольких лет машина ведет себя как собеседник, обладающий сознанием, она действительно им обладает. Этот алгоритм для определения разумности компьютера назван тестом Тьюринга. Когда он был впервые предложен в 1950-е годы, компьютеры не могли генерировать человеческую речь, они могли только печатать ответ на принтере или экране дисплея. Так что Тьюринг предложил свой тест в следующей форме.
Предположим, что у нас есть две комнаты, в одной находится человек, а в другой - компьютер. Снаружи комнат имеются клавиатура и экран, провода от которых ведут в комнаты. Там они подключены к другому экрану и клавиатуре, за которыми сидит человек или напрямую к компьютеру. Комнаты изолированы, так что человек снаружи не может знать где человек, а где - компьютер.
Теперь человек снаружи пытается угадать, где кто находится, печатая вопросы на клавиатуре и анализируя ответы на экране. Если спустя дни, недели и годы печатания вопросов и чтения ответов человек снаружи не сможет сказать в какой комнате компьютер, а в какой - человек, тогда компьютер прошел тест Тьюринга: человек говорил с компьютером годы, и последний вел себя как личность, следовательно он и есть личность.
Основная идея теста Тьюринга в том, что основой для персонификации является поведение: если компьютер ведет себя во всех отношениях как личность, тогда он является личностью. К несчастью, в прошлом были люди, которые считали что физическая форма является уместной основой для определения того, является ли существо "личностью" с полными человеческими правами. В 19 веке многие белые мужчины-европейцы были уверены, что неевропейцы и женщины всех рас не являются полноценными людьми и отказывали им в полных правах человека. Даже многие ученые (все белые мужчины-европейцы) полагали, что женщины и неевропейцы не являются вполне людьми. Мнение этих ученых радикально изменил тест Тьюринга в применениии к женщинам и неевропейцам: если им давали возможность, женщины и неевропейцы могли выполнить любую интеллектуальную задачу не хуже (и даже лучше) чем белые мужчины-европейцы. Следовательно, если последние являются полноценными людьми, то это же относится и к женщинам и неевропейцам. Будем надеяться, что мы способны учиться на своих ошибках и сможем воспринимать разумную машину как личность. Потому что, как мы увидим дальше, создание разумных машин - это не "человек, играющий в Бога", а скорее человечество, устанавливающее союз с Богом.

Однако, сегодня ни один компьютер не может пройти тест Тьюринга. Я совершенно спокойно выключаю свой настольный компьютер, не опасаясь, что меня арестуют за убийство. Вопрос в том, будет ли компьютер когда-либо способен пройти тест Тьюринга, и если это технически возможно, как долго нам придется ждать осуществления этого?
Чтобы ответить на этот вопрос мы должны оценить сложность человеческого мозга как компьютера. Приближенно сложность компьютера может быть описана двумя числами: одно представляет как много информации он может хранить, а второе говорит о том, насколько быстро он обрабатывает информацию.

Информационная емкость человеческого мозга определяется следующим образом. В человеческом мозге имеется порядка 1010 нейронов, каждый из которых имеет около 105 соединений с другими нейронами. Полагая, что каждый нейрон кодирует 1 бит, мы получим 1010 бит. Полагая, что каждое соединение кодирует один бит, мы получим значение 1015, поскольку верхняя граница числа синоптических соединениях коры и мозжечка составляет 1015. Нейрофизиологи в целом согласны, что информация в мозге сохраняется (некоторым образом) в синоптических соединениях. Измерения реального количества хранимой информации, сделанные нейрофизиологами дают величину между 1013 и 1016 бит для детей и 1014 и 1017 бит для семидесятилетних. Я получил величину между 1013 и 1017 бит от моего коллеги по институту теоретической физики венского университета Дитера Фламма. (Когда я был приглашенным профессором в венском университете в 1992, я показал Дитеру приведенные выше значения от 1010 до 1015 и он позвал своего друга нейробиолога, чтобы узнать мнение биологов об этих цифрах. Он ответил: "Вы, физики всегда пытаетесь сосчитать неисчислимое! Но в любом случае, информационная емкость составляет от 1013 до 1017 бит." Кибернетик Якоб Шварц используя для оценки значение один бит на синапс получает 1017 бит).

Другое значение, которое нам нужно - это скорость обработки информации в мозге. Скорость компьютера обычно измеряется флопами (от floating point operations per second - операции с плавающей запятой за секунду). Операция с плавающей запятой - это сложение, вычитание, умножение или вычитание двух чисел представленных в научной нотации. Например, предположим, что мы складываем 3,02*1010 и 5,74*109. Мы перемещаем десятичную запятую во втором числе чтобы получить тот же порядок 10 (десятичная запятая "плывет") и складываем, получая 3,59*1010. (Мы опускаем 4, потому, что у нас только 3 значащие цифры). Если вы несколько забыли научную нотацию, это вычисление займет у вас десять секунд, то есть ваша скорость вычислений составит 1/10 флоп .
Обычные компьютеры несколько быстрее. Ваш настольный компьютер может считать со скоростью до нескольких мегафлоп (то есть миллионов флоп),а в 1986, когда я впервые начал писать о компьютерах и мозге, самый быстрый из известных тогда суперкомпьютеров, Cray-2 имел скорость в 1 гигафлоп (миллиард флоп). В 1990 году скорость быстрейшего суперкомпьютера достигла 10 гигафлоп. В январе 1992 Thinking Machines Inc. создали для исследовательской лаборатории Лос Аламоса 100-гигафлоп машину СМ-5. Стоимость это машины составила 10 миллионов долларов, стандартная цена за суперкомпьютерной произведение искусства. Дэнни Хиллс, ведущий специалист Thinking Machines Inc. заявил в то время, что его компания готова построить компьютер на 2-терафлоп (то есть в 2 триллиона флоп) в любое время, если кто-нибудь заплатит за это цену в 200 миллионов долларов. (Терафлоп-компьютер часто называют ультракомпьютером).
Ну а насколько быстро обрабатывает информацию мозг?
От 1 до 10 % нейронов мозга срабатывают одновременно, со скоростью примерно 100 раз в секунду. Если каждый импульс нейрона приравнять к 1 флоп, то нижняя граница скорости получится в 10 гигафлоп. Если каждый синапс приравнять к флоп при каждом импульсе, то получим верхнюю границу в 10 терафлоп. Якоб Шварц предлагает величину в 10 миллионов флоп для оценки вычислительной мощности одного нейрона. Если это так, то для моделирования целого мозга потребуется 100000 терафлоп. Но сам Шварц признает, что это перебор. Кибернетик Ганс Моравец на основе тщательного анализа обработки информации в зрительном нерве полагает, что в целом человеческий мозг обрабатывает информацию со скоростью 10 терафлоп.

Давайте примем 1015 бит и 10 терафлоп как лучшие оценки информационной емкости и скорости обработки информации в человеческом мозге. Мы уже имеем машины, способные хранить 1015 бит информации, так что скорость остается единственным барьером на пути к созданию машины, способной пройти тест Тьюринга. Сколько же времени нам потребуется, чтобы достичь 10 терафлоп?
Не так уж много. В целом эксперты согласны, что наши быстрейшие суперкомпьютеры достигнут рубежа в 1000 терафлоп в 2002 году. Это соответствует фактору 100 кратного увеличения этой величины за последние семь лет. Моравец показал, что скорость компьютеров увеличивалась за последние сорок лет в 1000 раз каждые двадцать лет. Так что мы можем увидеть компьютеры со скоростью обработки информации, сопоставимой с мозгом в конце этого десятилетия. Моравец также обнаружил, что мощность настольных машин следует за мощностью самых быстрых из существующих компьютеров с задержкой примерно в тридцать лет. Если эта тенденция сохранится в будущем, тогда мы можем ожидать увидеть персональные компьютеры с человеческим уровнем обработки информации за цену нынешних машин, несколько тысяч долларов, где-нибудь в 2030 году. Это в пределах срока жизни большинства людей, которые сегодня в среднем возрасте или моложе. Заметим, что если я ошибся в отношении верхнего предела, и машинам, для того, чтобы пройти тест Тьюринга требуется 1017 бит и 100000 терафлоп (как полагают некоторые кибернетики и нейрофизиологи), тогда, поскольку мои оценки занижены в сто раз, нам потребуется всего лишь на семь лет больше, чтобы разработать компьютеры необходимой мощности. Очевидно, что семь лет - это небольшая разница: эволюции потребовалось 3,5 миллиарда лет, чтобы создать нас из одноклеточных организмов.

Конечно, существует достаточно людей, которые считают, что мы никогда не сможем создать разумную машину. Аргументы двух таких ученых, математического физика Роджера Пенроуза и философа Джона Сирла обсуждаются наиболее часто, поэтому я их рассмотрю здесь.

Пенроуз указывает, что теорема Геделя доказывает тот факт, что все компьютеры, как бы они не были мощны, подвержены фундаментальным ограничениям, и в этом он прав. Затем он утверждает, что люди не подвержены этим ограничениям, и я думаю, что здесь он ошибается.

Теорема Геделя в действительности основана на замечании, которое Св. Павел делает в своем послании Титу: "Один из них сказал,... "Критяне всегда лгут"" (Тит, 1:12). Интересным в этом утверждении, которое Павел относит к критянам является то, что если оно истинно, то оно ложно.
Рассмотрите похожее высказывание: "Данное утверждение ложно". То же самое - если это это выражение истинно, то оно ложно, и к тому же, если оно ложно, то оно истинно. В обоих случаях парадоксы возникают из-за ссылки на самого себя: два этих утверждения пытаются сказать что-то о самих себе.
То, что показал венский логик Курт Гедель, это то, что полная теория арифметики - та самая теория арифметики, с которой мы все знакомы, включающая сложение, вычитание, умножение и деление - содержит само-ссылающиеся утверждения подобные следующему: "Это утверждение недоказуемо". Если это верно, то данное выражение само недоказуемо, и арифметика неполна - говорят, что теория неполна, если содержит истинные утверждения, которые невозможно доказать исходя из аксиом этой теории. С другой стороны, если это выражение ложно, то тогда, поскольку оно эквивалентно выражениям арифметики, арифметика должна быть логически непоследовательна. Развивая этот аргумент дальше, мы приходим к тому, что если арифметика логически последовательна, она должна быть неполна, и следовательно должна быть неразрешима.
О теории говорят, что она неразрешима, если не существует алгоритма, который мог бы дать заключение о том, истинно или ложно любое произвольное утверждение этой теории. Алгоритм - это просто процедура, которая дает вам ответ на вопрос, если он существует. Например, если я вас спрошу: "Сколько будет 52 умножить на 27?", алгоритм, которым вы будете пользоваться, чтобы получить правильный ответ 1404 - эта та самая процедура для умножения двух чисел, которой вас учили в детстве. Задача, для которой существует алгоритм для ее решения называется разрешимой. Задача об умножении двух чисел разрешима, и вы знаете алгоритм для ее разрешения. Для неразрешимой задачи не существует такого алгоритма.

Что же говорит теорема Геделя об ограничениях компьютеров? В целом, эта теорема соответствует неразрешимости Проблемы Остановки.
Если мы хотим решить математическую задачу, используя компьютер, мы берем программу, загружаем ее в компьютер, вводим задачу, и запускаем компьютер на счет. Если задача разрешима, и мы выбрали правильную программу, тогда компьютер остановится после того, как выведет правильный ответ. Мы говорим, что программа остановилась. Однако, предположим, что компьютер работает над задачей несколько дней и не дает никакого ответа. Мы начнем беспокоится. Может быть задача неразрешима, а может быть мы выбрали неправильную программу. Если какое-нибудь из этих утверждений истинно, компьютер будет работать вечно и никогда не даст правильного ответа: он никогда не остановится. Для того, чтобы разрешить Проблему Остановки нам был бы необходим единственный алгоритм, который говорил бы нам, остановится ли данная программа, работая над данной задачей.
Тьюринг доказал, что Проблема Остановки неразрешима: не существует алгоритма, способного дать ответ, остановится или нет программа. Доказать, что Проблема Остановки неразрешима легко. Рассмотрим все "вычисляемые функции" - функция - это правило f, которое ставит в соответствие любому целому числу N другое целое число f(N), а вычисляемая функция - такая, для которой число f(N) может быть рассчитано при помощи некоторой программы для любого N. Поскольку любая компьютерная программа является всего лишь конечной последовательностью чисел, мы можем расположить все такие программы в виде пронумерованного списка {1, 2, ...N}, где 1 - это первая программа, 2 - вторая и так далее. Если функция является вычисляемой, она может быть выражена как некая конечная последовательность чисел, и таким образом мы можем расположить все вычисляемые функции точно так же, как мы это сделали с программами.
Давайте определим специальную само-ссылающуюся функцию G(N), которая будет либо на единицу больше, чем величина, получаемая в результате выполнения N-ой вычисляемой функции из списка над числом N, либо будет равняться нулю, если это число неопределенно, поскольку N-ная компьютерная программа никогда не остановится, если использовать N на вводе. Во-первых, мы заметим, что сама G(N) не может быть вычисляемой функцией, поскольку если N-ная компьютерная программа вычислит ее, то мы должны получить что G(N) равно G(N)+1, что невозможно. Но единственный вариант, когда функция G(N) не может быть вычисляемой - это когда она не может установить, остановится ли программа под номером N, если она имеет на входе число N.
Если вы смогли проследить мысленно все эти аргументы и понять, что они истинны (а так оно и есть), тогда вы превзошли в смысле Геделя ту машину, которую анализировали. То есть, вы поняли нечто, чего машина понять не может. Пенроуз заключает из этого, что мы, люди, понимаем логику так, как машина не может, и следовательно никакой компьютер, каким бы мощным он не был, не сможет пройти тест Тьюринга. Проблема, которую я вижу в аргументах Пенроуза в том, что существуют машины, способные превзойти нас.
По моему мнению (которое разделяют почти все эксперты в области компьютерной науки) аргумент Пенроуза по своей сути тот же самый, что и выдвинутый несколько лет назад оксфордским философом Джоном Лукасом. Интересный обмен мнениями, касающимися достоверности аргументов Лукаса-Пенроуза состоялся во время дискуссии "Сущность разума", которая состоялась в 1972 г. в Эдинбургском университете между философом Антони Кенни, Лукасом, и специалистом в области теории познания Кристофером Лонге-Хиггинсом:

    Кенни:... Вы помните, что Джон Лукас утверждал, будто разум не является машиной, поскольку если мы возьмем любую машину, работающую по алгоритму, мы сможем построить что-нибудь подобное формулировкам Геделя, то есть мы сможем увидеть истинность этой формулы, а машина не сможет. Когда Джон впервые привел этот аргумент, один из его критиков, мне кажется профессор Уитли, привел такой аргумент против: "Возьмем такое высказывание: Джон Лукас не может логично высказать это утверждение", сказал он, "очевидно, что любой другой человек, кроме Джона Лукаса может увидеть что оно истинно, без всякой нелогичности. Но также ясно и то, что Джон не может высказать это утверждение без нелогичности, следовательно это показывает, что у всех нас есть некое свойство, которого нет у него, что наделяет нас таким же превосходством над ним, как и над компьютерами....

    Лонге-Хиггинс:....[Лукас] полагал, что существует некоторое превосходство присущее людям, поскольку они всегда могут превзойти машину в Геделевском смысле, но не в явной форме. [Лукас утверждал], что машина никогда не смогла бы превзойти его. Но в самом деле, я могу написать программу, которая печатала бы вопрос [Уитли] к вам [Лукасу], и следовательно превзойти вас в Геделевском смысле.

    Кенни:... Хорошо, теперь он отброшен на позицию, которая означает, что разница между человеком и компьютером такая же, как между двумя людьми или двумя компьютерами.

    Лукас: Этого достаточно, хотя если бы любой компьютер вызывал бы у меня такую же неприязнь, как Кенни, тогда я мог бы быть уверен, что я именно таков, каким всегда себя представлял.

Версия этого аргумента, высказанная собственно Пенроузом была разгромлена в обзоре его книги "Новый разум короля", сделанным знаменитым кибернетиком Джоном МакКарти, изобретателем знаменитого языка программирования ЛИСП:

Аргумент Пенроуза против ИИ... состоит в том, что каков бы ни был набор аксиом, на основе которых программируется работа компьютера, например теория Зермело-Франкла, человек может сформулировать Геделевское высказывание для такой системы, которое будет истинным, но недоказуемым внутри системы.
Простейший ответ Пенроузу заключается в том, что для формулировки высказывания Геделевского достаточно однострочной программы на ЛИСП. Вообразите диалог между Пенроузом и компьютером с такой программой:

    Пенроуз: Скажи мне, какую логическую систему ты используешь и я приведу истинное высказывание, которое ты не сможешь доказать.

    Программа: Скажи мне, какую логическую систему ты используешь и я приведу истинное высказывание, которое ты не сможешь доказать.

    Пенроуз: Я не пользуюсь фиксированной логической системой.

    Программа: Я могу использовать любую систему, которая тебе нравится, хотя в основном я пользуюсь системой, основанной на варианте теории З-Ф, и происходящей из работы Давида МакАлестера 1980 г. Не напечатать ли справочное руководство? Ваше же предложение напоминает состязание, кто назовет число больше, причем я должен начать первым.

У Пенроуза есть другой аргумент в пользу того, что человеческий разум не может быть компьютерной программой: он находит крайне сложным представить себе происхождение такой программы. Но сам же Пенроуз описывает этот механизм:

    Если мы предположим, что работа человеческого мозга... является просто реализацией некого очень сложного алгоритма, тогда мы должны спросить себя, как такой невероятно эффективный алгоритм мог возникнуть. Стандартный ответ, конечно - естественный отбор. По мере того, как существа, имеющие мозг эволюционировали, те из них, которые обладали более эффективным алгоритмом, могли иметь лучшие шансы на выживание, и следовательно, можно вообразить... некоторого рода естественный отбор, который направлен на приближение ко все более эффективным алгоритмам.

Однако, Пенроуз считает, что "с этим трудно согласится", поскольку он полагает, что (1) любой отбор может действовать только на результат работы алгоритмов, но не на сами алгоритмы, и (2) "малые 'мутации' алгоритма скорее всего бесполезны, и трудно видеть, как путем случайных изменений может возникнуть серьезное улучшение."

Проблема с обоими этими доводами в том, что если считать их истинными, то они могут опровергнуть всю современную теорию биологической эволюции. Все живые существа развиваются по программе, закодированной в молекулах ДНК. Эти ДНК-программы возникли именно таким способом, с которым Пенроузу "очень трудно согласиться". Биологический естественный отбор может на самом деле действовать только на целый организм, а не на программу в ДНК. Кроме того, мутация гена - это почти всегда изменение к худшему. И тем не менее, именно естественный отбор, действующий на такие мутации (и другие случайные изменения генофонда) создал человеческий генотип. Даже оставляя в стороне сложность человеческого разума, само человеческое тело - это замечательно устроенная машина, более сложная, более приспособленная к реальности (то есть способная выжить), и более замечательная, чем любое создание человеческого разума. Человеческое тело настолько прекрасно и сложно, что до тех пор пока Дарвин не доказал обратного, полагали, что оно сотворено непосредственно сверхчеловеческой Личностью, Самим Богом. Поскольку мы знаем, что естественный отбор, действующий на случайные мутации может быть, и на самом деле был более творческим, чем любой человеческий разум, то совершенно логично полагать, что человеческий разум может создавать идеи и сам быть созданным по такому же механизму.
Пенроуз осознает, что его доводы против естественного механизма возникновения разума как программы также можно направить и против современной теории биологической эволюции:

    Для моего способа мышления все еще есть нечто таинственное в эволюции, с ее продвижением на ощупь к некой будущей цели. Вещи, как будто сами себя организуют, лучше, чем они "должны" это делать на основе эволюции слепого случая и естественного отбора. Может оказаться, что внешность весьма обманчива.

В самом деле, внешность действительно обманчива. Алгоритмы человеческого разума и человеческой ДНК - оба созданы "эволюцией слепого случая и естественным отбором". Развитие случайных алгоритмов, например "генентических алгоритмов" демонстрирует, как обманчива может быть внешность. Генетические алгоритмы - это компьютерные программы для поиска решений по тому самому способу, с которым Пенроузу "трудно согласиться". И в среднем, такие алгоритмы находят решения более быстро, чем обычные детерминистические алгоритмы.
В течение последних десяти лет, ученые очень разных дисциплин осознали, что случайность играет более существенную роль в изменениях, чем полагали прежде. Палеонтолог Давид Рауп представил убедительное свидетельство того, что исчезновение многих видов произошло благодаря непредсказуемым событиям, вроде столкновения с Землей гигантского метеорита (теперь этот механизм общепризнан в качестве объяснения для исчезновения динозавров 70 миллионов лет назад). Эволюционист Джон Мэйнард Смит еще более уверен в случайностях, чем Рауп:

    Если бы кто-нибудь попытался повторить всю эволюцию животных, начиная с раннего Кембрия (и чтобы удовлетворить Лапласа, сдвигая одно из животных на два фута влево), нет никакой гарантии, что результат будет тем же самым. Может не быть соревнования на суше, прогресса млекопитающих, и следовательно - не будет человека.

Экономист Пол Крюгман произвел революционный переворот в теории международной торговли в 80-е годы, установив тот факт, что любая страна может стать главным производителем какого-нибудь товара, если ей посчастливится его впервые произвести. Например, нет никакой серьезной причины для того, чтобы считать Сиэттл лучшим местом на Земле для производства больших самолетов, хотя большинство таких самолетов в настоящее время производятся здесь. Наиболее вероятная причина этого в том, что поскольку расходы на исследования и проектирование этих машин так высоки, в мире может быть только один или два таких производителя, а Сиэттл - это просто то место, где оказался главный производитель. Логика технологии и экономики требует, чтобы производство больших самолетов было сконцентрировано где-нибудь, и Сиэттл просто оказался этим самым "где-нибудь". Короче говоря, я думаю, что Пенроуз серьезно недооценивает важность случайности в эволюции и человеческом творчестве.

Но мой главный аргумент против пенроузовского отрицания ИИ - это ограничение Бекенштейна, согласно которому существует верхняя граница числа различных квантовых состояний, в которых может находится область конечного размера и энергии, и верхняя граница скорости, с которой могут происходить изменения этих состояний. Ограничение Бекенштейна будет обсуждаться позднее более подробно в главе 9 и в Приложении для ученых, так что сейчас я приведу только краткую формулировку. Согласно квантовой механике, любая физическая система исчерпывающе описывается ее квантовым состоянием. То есть система является своим квантовым состоянием. Физик Якоб Бекенштейн показал, что квантовые системы - а согласно физике, все что мы видим - это квантовые системы - имеют только ограниченное число состояний. В частности, человек может находится в одном из 101045 состояний, и претерпевать 4*1053 изменений в секунду. Эти числа, конечно, колоссальны, и если говорить о реальности, то скорее всего настоящие величины гораздо меньше, чем эти верхние пределы. Но они тем не менее конечны, и основаны на центральных законах квантовой механики. Таким образом доказано, что человек является конечным автоматом, и ничем кроме конечного автомата. Пенроуз - замечательный физик, естественно принимает достоверность ограничения Бекенштейна. Но это опровергает его утверждение о том, что человек не может быть машиной.
Нет нужды говорить, что Пенроуз не согласен. Читатель этой книги может заметить, что я питаю огромное уважение к Роджеру Пенроузу. Он создал общую глобальную теорию относительности, главную область моих исследований. Да и основная идея Точки Омега построена на пенроузовской концепции "п-границы", как я буду говорить в главе 4.
Рождер впервые сказал мне о своем несогласии в 1984, во время ланча на астрофизической конференции в Иерусалиме. На другой астрофизической конференции, на этот раз в Беркли, Калифорния в 1992, у нас была острая дискуссия с Роджером по поводу ИИ, снова за ланчем, но на этот раз к нам присоединился в качестве посредника П. Дэвис (Пол совершенно нейтрален в отношении ИИ, но склоняется в сторону скептицизма Роджера. Строгий постулат ИИ слишком "редукционистичен" для Пола).
В наших дебатах Роджер соглашался с ограничением Бекенштейна, но утверждал, что теорема Геделя исключает детерминизм, и число возможных состояний, разрешенных ограничением Бекенштейна для человека слишком велико, для чисто случайной эволюции между состояниями, способной объяснить прогресс математики. Следовательно, настаивал Роджер, должно быть нечто, управляющее скачками между квантовыми состояниями помимо квантовой механики, и следовательно мы не являемся конечными автоматами.
Я согласен с обоими доводами Пенроуза, но не принимаю его выводов. Мне все еще кажется, что разумная смесь случая и необходимости, постулируемая в современной эволюционной теории для объяснения создания человеческих существ, достаточна также для объяснения эволюции математики. Конечно это означает, что эволюционная история математики неизбежна не более, чем эволюция вида Homo Sapiens. В Теории Точки Омега прогресс неизбежен, но точная история этого прогресса - нет. Могут даже быть периоды отступления. Даже если бы и был неизвестный физике механизм, вызывающий переходы между состояниями, постулированный Пенроузом, двух ограничений Бекенштейна все еще достаточно, чтобы мы были конечными автоматами.

Компьютерная теория описывает два радикально различных типа автоматов: конечные и бесконечные. Поскольку это различие является ключевым в этой книге - тот факт, что мы - конечные автоматы, позволяет доказать, что однажды бесконечный автомат воскресит нас, я опишу оба этих типа в деталях.

Конечные автоматы ограничены в двух отношениях. Во первых, такой автомат имеет только конечное число состояний. Во вторых, время для такого автомата течет дискретно. На самом деле время может быть и непрерывным, но конечный автомат не видит этой протяженности. Его часы цифровые.
Давно известно, что система зрения у человека работает по дискретному принципу. Фильм или видеозапись в действительности состоит из серии дискретных картинок, мелькающих на экране со скоростью 25 кадров в секунду. Когда эти неподвижные картинки появляются на экране кинотеатра или телевизора, то создается иллюзия движения. Но его нет. Видеомагнитофон, кинопроектор и ваш мозг - это конечные автоматы. Для всех конечных автоматов время идет целыми числами: t = 1, 2, 3...

Конечные автоматы таким образом определяются значением их внутреннего состояния S(t) в данный момент времени t, и заданием правил, которыми они отвечают на любой внешний стимул. Поскольку автомат конечен, существует конечное число возможностей S(t), независимо от того, в какой момент времени это происходит: ( s1, s2, s3....sN ). В любой момент времени t, S(t) - одна из n возможностей. Ответный сигнал R(t+1) конечного автомата в момент времени t+1, помните, что время здесь идет дискретно, может зависеть только от от внешнего воздействия I(t) в момент времени t и внутреннего состояния S(t) автомата в момент t .
Внешний сигнал I(t) может вызвать изменение внутреннего состояния автомата. Поскольку время течет дискретными интервалами, внутреннее состояние S(t+1) в момент t+1 может зависеть только от входного сигнала I(t) в момент t и внутреннего состояния S(t) в момент t.
Конечный автомат полностью определяется заданием двух функций перехода S(t+1) и R(t+1). Каждая из этих функций определяется конечным числом входных значений, так что каждая может быть представлена в виде таблицы с конечным числом элементов. Например, рассмотрим простой автомат только с двумя состояниями, s1 и s2, и предположим, что он может воспринимать только два входных сигнала, которые мы обозначим числами 0 и 1. Пусть работа автомата будет заключаться в сохранении четности или нечетности количества единиц, которые он получает. Таблицы перехода выглядят следующим образом:

Эти таблицы показывают, что состояние S и сигнал на выходе R остаются теми же самыми если на входе 0, и изменяются, если на входе 1. Таким образом четное число единиц на входе не изменит состояния автомата. Это очень скучная машина, но все конечные автоматы вообще говоря похожи, разница только в размерах таблицы переходов. Поскольку человеческий мозг может кодировать 1015 бит, и, как мы рассмотрим в главе 9, число возможных состояний в которых может находится мозг составляет 101015, так что таблица переходов S(t) для человеческого мозга содержит 101015 элементов.
Теперь мы имеем точное определение конечного автомата, и ясно, что мы являемся именно такого рода машинами, даже если мистические пенроузовские квантовые скачки были бы реальными (Как я указывал не думаю, что такие силы существуют). Потому, что эффект любой такой силы может быть описан в точности как то, что называется "внешний сигнал".

Можно доказать некоторые достаточно общие теоремы об ограничениях конечного автомата. Вот одна из них:

    любой конечный автомат в отсутствие внешних стимулов с необходимостью придет к состоянию, после которого он будет бесконечно повторять совершенную периодическую последовательность состояний.

Доказательство этой теоремы простое. Поскольку число состояний, в которых может находиться автомат конечно, то после конечного числа шагов он вернется к тому состоянию, в котором уже побывал прежде. Но поскольку отсутствуют внешние сигналы, позволяющие определить в первый раз он пришел к этому состоянию, или уже побывал здесь, автомат будет снова и снова проходить через те состояния, где он уже побывал. Это первый пример того, что я называю Теоремами вечного возвращения. Такого рода теорема гласит, что физическая система должна возвращаться в свое предыдущее состояние вновь и вновь. Даже при наличии внешних стимулов, мы увидим, что конечный автомат, если он функционирует вечно, должен совершать такое вечное возвращение. Но, если внешний стимул не является периодическим, то последовательность состояний, в которые попадает конечный автомат тоже не будет периодической. Однако он обязательно будет возвращаться в свои предыдущие состояния. Конечный автомат, безусловно, очень занудная машина.
Бесконечные автоматы куда более интересны.


рис. II.1 (оригинальный рисунок мне не известен. Я использовал на мой взгляд наиболее подходящий. Прим. А. С. )

Машина Тьюринга - это прототип всех бесконечных автоматов. Она состоит из конечного автомата (называемого головкой) который соединен с бесконечной бумажной лентой. (Здесь слово "бесконечная" означает "неограниченная" или "потенциально бесконечная" , а не "действительно бесконечная"). Машина Тьюринга показана на рис. II.1. Бумажная лента разделена на клетки одинакового размера. Головка может совершать только пять действий. Во-первых, она может записывать один из фиксированных символов, число которых конечно, на ту клетку, на которой она находится (двух символов, например 0 и 1 достаточно). Во-вторых, она может читать символы, написанные в данной клетке. В третьих, она может запоминать прочтенное (существует только конечное число вариантов, которые она может увидеть в клетке). В четвертых, она может стирать написанное в данной клетке (и заменять другим символом). В пятых, она может передвигать ленту в точности на одну клетку вправо или влево. Как и для всех конечных автоматов время является здесь дискретной величиной. Каждая из рассмотренных выше операций требует одной единицы времени.
Головка действует как запоминающее устройство машины Тьюринга. Поскольку лента бесконечна, машина Тьюринга имеет возможности, оставляющие далеко позади любой конечный автомат. В частности, она способна симулировать любой конечный автомат. Поскольку таблица переходов для любого конечного автомата конечна, очевидно, что эти числа могут быть закодированы на ленте машины Тьюринга. Кроме того, эти числа могут быть закодированы таким образом, что машина Тьюринга может использовать их для расчета реакции любого конечного автомата на любой внешний стимул. В глубоком смысле, числа таблицы переходов, закодированные на ленте машины Тьюринга являются конечным автоматом. Все, что может совершить реальный автомат с данной таблицей переходов, может совершить его цифровой двойник на ленте машины Тьюринга. "Автомат", который существует в виде чисел в машине Тьюринга (или другого компьютера) и который не является реальным физическим устройством, называется виртуальной машиной. Вирутальная машина, имеющая ту же таблицу переходов, что и машина в реальном мире, представляет собой совершенную компьютерную симуляцию машины реального мира. Такая симуляция называется эмуляцией. Большинство компьютерных симуляцией, конечно же не являются эмуляциями. Сегодня могут быть эмулированы только самые примитивные машины, поскольку память компьютеров и скорость вычислений, необходимые для эмуляции могут быть очень большими. Но все конечные автоматы могут быть эмулированы машинами Тьюринга.

Машины Тьюринга могут эмулировать другие машины Тьюринга. На самом деле существует единственная машина Тьюринга, называемая универсальной машиной Тьюринга, которая может эмулировать все машины Тьюринга, включая саму себя. Мы можем таким образом иметь иерархию машин, эмулирующих другие машины. Машина Тьюринга Т0 может быть реальной машиной, но внутри ее имеется виртуальная машина Т1, а внутри последней - виртуальная машина Т2, которая в свою очередь кодирует машину Т3 и так далее. Эти уровни виртуальных машин внутри других виртуальных машин называются уровнями воплощения (имплементации). Очевидно, что машины более высоких уровней полностью исполняются в машинах низких уровней. Следовательно, с высокими уровнями ничего не произойдет, если одну или более машин низкого уровня заменить совершенно другими. Нужно лишь, чтобы замененные машины были бы способны эмулировать машины высоких уровней с той же самой скоростью. Как правило, для реальных компьютеров машины различных уровней не смешивают между собой, однако это сделано лишь для облегчения жизни программистам-людям, а не потому, что того требует математика. Если машина перенесена на более высокий уровень воплощения, говорят, что она подгружена, а если такой перенос происходит на более низкую ступень, то говорят, что машина выгружена.

Существует бесконечное число машин, которые полностью эквивалентны универсальной машине Тьюринга, и следовательно могут эмулировать любые другие машины. Десятки таких машин описаны в компьютерной литературе, но я ограничусь только двумя: компьютером бильярдных шаров и игрой Жизнь.

Компьютер бильярдных шаров состоит из шариков, которые сталкиваются между собой и с упругими стенками, причем такие столкновения подчиняются стандартной ньютоновской механике. Шарики двигаются по бесконечной плоскости с постоянной скоростью, пока не столкнуться со стенкой или с другими шариками. Эта плоскость может быть разделена на клетки, а присутствие или отсутствие шарика в клетке можно рассматривать как 0 или 1 соответственно. Такое разделение на клетки эквивалентно бесконечной ленте в машине Тьюринга, шарики эквивалентны символам, которые головка записывает на ленте, а столкновения играют роль головки. Строгий анализ показывает, что существуют такие наборы шариков и стенок, с помощью которых можно вычислить все, что позволяет вычислить машина Тьюринга.
Игра Жизнь - это простая компьютерная игра, изобретенная английским математиком Джоном Конвеем. Как и в случае бильярдного компьютера, имеется бесконечная плоскость, разделенная на клетки. Каждая клетка или пуста, или содержит единственную точку. При переходе от одной дискретной единицы времени к другой для изменений в каждой клетке есть лишь три возможности:

    1) в пустую клетку ставится точка;
    2) из клетки, содержавшей точку последняя удаляется;
    3) точка остается в той клетке, где и была.

Правило для выбора между этими тремя возможностями очень простое: каждая клетка граничит с восемью соседними. Точка будет добавлена в пустую клетку, если три из ее соседей содержат точки. Если клетка уже содержит точку, она сохранит ее до тех пор, пока двое или трое ее соседей будут также содержать точки, иначе она удаляется. Пример поведения точечной структуры называемой глайдером, эволюционирующей в течение пяти временных шагов приведен ниже. Глайдер изменяет свою форму, но на пятом шаге он ее восстанавливает такой, как она была на первом, и вся система в целом оказывается перемещенной в новое место на плоскости. Создавая структуры, подобные глайдеру, в игре жизни можно симулировать и эмулировать любую машину, которую может эмулировать машина Тьюринга.



("планер" я тоже взял из имеющейся у меня коллекции изображений, так как текст перевода был лишен рисунков. Прим. А.С.)

Если вы понаблюдаете за такими примерами лет шестьдесят, станет совершенно ясно, что невозможно представить себе машину, способную сделать то, чего не может сделать универсальная машина Тьюринга. Это хорошо демонстрирует то, что такой машины не существует.

Гипотеза о том, что такой машины не существует, или говоря другими словами, гипотеза о том, что универсальная машина Тьюринга (или ее эквивалент) может эмулировать любую машину называется тезисом Черча-Тьюринга. Обсуждавшаяся выше Проблема Остановки, также применима и к машине Тьюринга, и таким образом ни одна машина не может разрешить эту проблему.

Тот факт, что многие машины являются универсальными ввел в заблуждение Джона Сирла, философа из Калифорнийского университета. Он выдвинул широко обсуждаемый аргумент против строгого постулата ИИ известный под названием эксперимента с китайской комнатой. Давайте вообразим, говорит Сирл, что я нахожусь в комнате, заполненной книгами, которые все вместе кодируют компьютерную программу, способную пройти тест Тьюринга, но на китайском языке. Мы знаем, что работа любой программы эквивалентна тому, что мы открываем некую книгу, читаем то, что в ней написано, стираем некоторые из этих записей, некоторые из них запоминаем, переходим к следующей книге и так далее. (Эта процедура представляет собой еще одну универсальную машину).
Предположим, кто-то подсунул под дверь клочок бумаги, на котором написано что-то по-китайски. Поскольку я (Сирл), не знаю китайского языка, для меня эти эта надпись - просто бессмысленные значки. Однако, следуя утверждениям приверженцев строгого постулата ИИ, я могу, следуя инструкциям в книгах (и соответственно модифицируя эти книги) сделать надпись на другом клочке бумаги, точно так же не имеющую для меня смысла, которая будет признана за корректную фразу на китайском теми китайцами, что находятся за дверью. Таким образом, обмениваясь этими бумажками, мы завяжем разговор, и люди за дверью, говорящие по-китайски будут думать, что в комнате также находится китаец. Следовательно, говорит Сирл, я пройду тест Тьюринга на китайском. Если бы тест Тьюринга был корректным тестом на разумность, можно было бы заключить, что я понимаю китайский. Но я уже сказал ранее, что не понимаю по-китайски. Следовательно, тест Тьюринга фундаментально ошибочен и поэтому мы видим, что "понимание" не является свойством компьютерных симуляций; ни один компьютер, как бы сложен он не был, не может думать.

Я думаю, что фундаментально ошибочна основная предпосылка Сирла, а не тест Тьюринга. Человек не сможет вручную симулировать программу, способную пройти тест Тьюринга точно так же, как он не может допрыгнуть до Луны. Все мы знаем, что до Луны нельзя допрыгнуть, но это можно доказать, используя законы физики. Это очень простой расчет, который замечательно иллюстрирует, как физики могут доказывать физическую невозможность какого-либо процесса в принципе. Затем я проведу аналогичный расчет, чтобы показать, что симуляция вручную программы, проходящей тест Тьюринга, также физически невозможна, опровергая таким образом аргумент Сирла.

Для того, чтобы достичь Луны, необходимо иметь скорость, достаточную для преодоления гравитационного поля Земли. Это так называемая вторая космическая скорость, около 11 километров в секунду. Чтобы развить такую скорость на дистанции в один метр - это типичная длина прыжка - нужно иметь ускорение в шесть миллионов g. Такое ускорение попросту расплющит человека. Даже космонавты, покидая Землю испытывают ускорение около 6 g. Большинство людей теряет сознание, если ускорение превысит 10g. (Рекорд выносливости для человека составляет около 20g). Кинетическая энергия человека весом в 50 кг, двигающегося со скоростью 11 километров в секунду, составит 760000 ккал. Поскольку в среднем человеку в день требуется около 2000 ккал, то эта энергия, затрачиваемая за десятую долю секунды составит его годовую потребность. Килограмм жира имеет пищевую энергетическую ценность 9290 ккал (белки и углеводы вполовину меньше), так что даже если прыгун весом в 50 килограмм будет полностью состоять из жира, эта энергия составит лишь 460000 ккал. Человек не может допрыгнуть до Луны. Но, конечно это ясно каждому и без вычислений.

Менее очевидно, что так же невозможно вручную симулировать компьютерную программу, достаточно сложную, чтобы пройти тест Тьюринга. Причина неочевидности в том, что все когда-нибудь прыгали, но очень немногие пытались вручную симулировать программы. Если мои предыдущие оценки информационной емкости человеческого мозга как 1015 бит корректны, то поскольку книга в среднем кодирует 106 бит (в этой книге немногим более 107 бит), для того, чтобы закодировать человеческий мозг может понадобится 100 миллионов книг. Для того, чтобы их хранить, понадобится 35 больших университетских библиотек. Из опыта мы знаем, что для того, чтобы получить доступ к какой-либо информации в собственной памяти, нам нужно порядка 100 секунд. Таким образом, чтобы вручную симулировать программу, проходящую тест Тьюринга, человеку понадобится снять с полок, просмотреть, и вернуть обратно на полку около 100 миллионов книг за 100 секунд. Если каждая книга весит около полкилограмма, и в среднем книга перемещается на один метр в процессе ее снятия с полки и возвращения обратно, тогда за 100 секунд понадобится истратить энергию в 3*1019 джоулей; потребленная мощность составит 3*1011 мегаватт. Поскольку обычно человек потребляет около 100 ватт, то потребуется энергия 3*1015 человек, в миллион раз больше, чем все нынешнее население Земли. Обычно, крупная атомная электростанция дает 1000 мегаватт, так что для ручной симуляции программы потребуется энергия 300 миллионов таких электростанций. Как я и говорил выше, человек не может допрыгнуть до Луны и вручную симулировать программу, способную пройти тест Тьюринга.

В действительности все сложнее. Пенроуз полагает, что возможно не потребуется всех ресурсов человеческого мозга, чтобы симулировать "единичное мыслительное явление". Однако в настоящее время уже известно, что для мышления требуется значительная часть ресурсов мозга, поскольку динамическое сканирование мозга размышляющего человека показывает, что по крайней мере 1% мозга, а возможно и больше, активируется в случае "единичного мыслительного явления". (Вспомните, что в моих оценках скорости вычислений в мозгу я полагал, что только от 1 до 10% мозга активны в данный момент времени). Динамическое сканирование мозга, выполняемое методом MRI (Magnetic Resonance Imaging) позволяет различать кровь в разной степени насыщенную кислородом в масштабе до 1 квадратного миллиметра поверхности мозга. Активные нервные клетки используют кислород быстрее, чем неактивные, и таким образом его убыль указывает на активность в какой-либо области. Поскольку такое сканирование не определяет электрическую активность, оно дает нижнюю границу размеров активного региона. По мере того, как мыслительная активность человека возрастает, так же растет и процент активной части в мозгу. Из этих экспериментов по сканированию мозга ясно, что прохождение теста Тьюринга требует ресурсов большей части мозга.

Вычисления, которые я только что привел, предполагают, что компьютер будет работать последовательно, и нам понадобится один человек, чтобы вручную симулировать его работу. Но первый компьютер, который будет обладать достаточной вычислительной мощностью, чтобы пройти тест Тьюринга, несомненно будет параллельным устройством. Последовательная машина выполняет только одну инструкцию за один момент времени, в то время, как параллельная - много инструкций. В таком случае для реализации предложения Сирла потребуется все население Индии (800 миллионов человек). Это более возможная ситуация, но для того, чтобы приблизиться к мощности 10 миллиардов нейронов человеческого мозга потребуется все человечество планеты. Но это означает разрешение аргумента Сирла, поскольку очевидно, что человечество в целом может "знать" то, что не под силу одному человеку. Например, ни один человек не обладает достаточными знаниями, чтобы построить автомобиль. Это не означает просто собрать автомобиль из деталей. Нужно еще сделать эти детали, добывать руду и выплавлять металл. И все детали этих процессов нужно знать в точности, а не приблизительно. Ни один отдельно взятый человек не обладает такими знаниями, они доступны только всей человеческой расе, коллективу. Таким образом, совершенно естественно, что человечество (или население Индии) коллективно может говорить на китайском, даже если ни один из отдельных людей, моделирующих компьютерную программу вручную не может этого сделать. Аналогичная ситуация происходит и в мозгу - ни один отдельный нейрон не может думать, но интегрированные в целостный мозг, нейроны безусловно обладают этим свойством. Кроме того, 10-терафлопный компьютер, параллельный или последовательный, сможет произвести поиск в памяти объемом в 1015 бит за 100 секунд, и затрачивая при этом мощность меньше чем киловатт. Так что мы можем уверенно полагать, что 10-терафлопный компьютер сможет выполнить программу, способную пройти тест Тьюринга.

Сирл также полагал, что необходимые затраты энергии могут быть снижены путем интериоризации программы, проходящей тест Тьюринга. То есть, человек в китайской комнате "запоминает правила вычислений, китайские символы, и делает все вычисления у себя в голове". Запомнить содержимое 100 миллионов книг? Невозможно! Помимо собственных номеров книг, содержимое каждой книги состоит полностью из таблиц чисел, как мы помним. Даже человек с фотографической памятью должен затратить на одну книгу не менее часа, а поскольку в году немногим менее 10000 часов, запоминание всех книг потребует 10000 лет, если не считать времени на еду и сон. Повторим, что это не может быть сделано. Эксперимент с китайской комнатой Сирла требует от нас вообразить логически невозможное: обычный человек, выполняющий работу, которая не может быть им выполнена.

Основной идеей Сирла в эксперименте с китайской комнатой является утверждение "Компьютер обладает синтаксисом, а не семантикой". То есть, все программы манипулируют символами в соответствии с некоторыми формальными правилами (синтаксисом). Они не понимают того, что значат эти символы (семантика). Это верно, манипуляция символами сама по себе не требует понимания их значения. Однако, когда программа создается, она разрабатывается для конкретных условий, в которых определенные наборы символов будут приводить к тому, что физические устройства будут выполнять определенные действия. Например, 5546 может привести к тому, что клапан 46 будет открыт, если компьютерная программа обслуживает химический завод. То есть символ "5546" означает: "Открыть клапан 46". В других условиях, если я запущу программу для обслуживания химического завода на своем настольном компьютере, ничего не случится, если появится набор символов %%$^. Эти символы бессмысленны для моего настольного компьютера. (Откуда взялось это %%$^? - спросите вы - Мы говорили о 5546! Вот откуда - %%$^, это то, что получится, если вы напечатаете 5546, держа нажатой клавишу верхнего регистра. Небольшое изменение условий превратило значимые символы в бессмыслицу).

Суммируя, можно сказать, что значение символов возникает из соединения их с окружающей средой через физические устройства компьютера, а не из манипулирования с ними. Программа, выполняемая на компьютере, соединенном с химическим заводом не просто симулирует контроль производства, а делает это на самом деле.

Если программа, способная пройти тест Тьюринга, будет работать на 10-терафлопном компьютере в китайской комнате, и те тексты, которые компьютер будет читать и печатать, будут иметь смысл на китайском языке, мы сможем заключить, что эта программа прежде работала в условиях, которые позволяли ей взаимодействовать с людьми, и выучить значения слов по крайней мере в одном из человеческих языков. Разумная программа может выучивать значения слов точно так же, как это делают дети. У меня двое дочерей, в 1993 году им было 4 и 7 лет, и я видел, как они учились говорить. Сначала они использовали слова не совсем правильно, но по мере того, как они контактировали с другими людьми, с окружающим миром, прислушиваясь к тому, что говорят другие, их словоупотребление становилось более правильным и словарный запас рос. Мои дети уже выучили, и учат до сих пор, то, что обозначают слова в реальном мире. Они учатся тому, что значат те звуки, которые они издают. То же самое может быть и с программой, проходящей тест Тьюринга. Цель программы, создаваемой на основе строгого постулата ИИ в том, чтобы она, будучи исполняемой на компьютере, который взаимодействует с реальным миром, была бы способна продвинуть саму себя к разумности. То же самое делают и мои дети - они создают сами себя, и я наблюдаю за этим. Когда им было год от роду, они не могли пройти тест Тьюринга, а теперь они сделают это с легкостью.

Таким образом, ошеломляюще очевидно, что в ближайшие тридцать лет мы сможем создать машину, которая будет так же разумна, как и человек, а может быть и более. Должны ли мы позволить этому свершиться? Я полагаю, что те аргументы против этого шага, которые обращены к ученым, занимающимся данной проблемой, являются близорукими, это продукт страха и невежества, а не рационального размышления. Мы сами являемся "разумными машинами". Существует мощный практический аргумент в пользу создания разумных машин. Такие машины повысят наше благосостояние, даже если они будут нас превосходить. Одной из наиболее твердо доказанных теорем экономики является Теория Сравнительной Выгоды, которая оправдывает свободную торговлю. Она говорит, что если два индивидуума, или страны, или расы, производят продукты с разной эффективностью, для них обоих выгоден свободный торговый обмен, даже если одна из сторон делает все лучше, чем другая. Это применимо к отношениям между людьми и разумными машинами так же, как и к торговле между странами. Конечно, для людей было бы неразумным пытаться поработить разумные машины или уничтожить их. В романе о Франкенштейне, созданном Мери Шелли, "монстр" был разумнее любого человека, и изначально он был настроен по дружески. Он начал атаковать людей только после того, как они первые атаковали его.

Но главной причиной, по которой мы должны создать разумные машины, является то, что без их помощи человечество обречено. С их же помощью мы сможем выжить и будем жить вечно. Чтобы понять это, давайте сначала посмотрим, как они могут помочь нам колонизовать космическое пространство.

. . .



Вопросы? Предложения? Претензии?
Обсудить материал в моем ЖЖ


[ назад ] [ оглавление ] [ вперед ]
A Semenov 2007
[ вверх ]

Hosted by uCoz