6. Сильная версия искусственного интеллекта

В этом пункте произошло одно из наиболее вызывающих восхищение изменений во всей двухтысячелетней истории материализма. Развивающаяся наука искусственного интеллекта предложила ответ на приведенный выше вопрос: различные материальные структуры могут быть ментально эквивалентными, если они представляют различные технические реализации (hardware implementations) одной и той же компьютерной программы. В самом деле, получив такой ответ, мы способны видеть, что сознание как раз и есть компьютерная программа, а сам мозг — лишь одно из неопределенного списка разных материальных воплощений компьютера (или его “жидких воплощений” / “wetwares”)[30], которые могут быть у сознания. Сознание так же относится к мозгу, как программа к ее техническому оснащению. Искусственный интеллект и функционализм объединились, и одним из самых потрясающих аспектов этого союза оказалось то, что можно быть последовательным материалистом в отношении сознания и по-прежнему, вместе с Декартом, полагать, будто мозг не так уж и важен для сознания. И поскольку сознание является компьютерной программой, а программа может быть выполнена с помощью любого технического обеспечения (если только техническое обеспечение достаточно мощно и стабильно для выполнения шагов программы), собственно ментальные аспекты сознания могут быть конкретизированы, изучены и поняты без знания того, как работает мозг. Даже если вы материалист, то от вас не требуется, чтобы для изучения сознания вы изучали мозг.

Эта идея дала рождение новой дисциплине — “когнитивной науке”. Позднее я подробнее расскажу о ней (в главах VII, IX и X), в данный же момент я прослеживаю новейшую историю материализма. Дисциплина искусственного интеллекта и философская теория функционализма сблизились благодаря идее о том, что сознание есть именно компьютерная программа. Я окрестил этот взгляд как “сильный искусственный интеллект” (Searle 1980a); его также назвали “компьютерным функционализмом” (Dennett 1978).

Как мне представляется, возражения сильному ИИ демонстрируют ту же самую смесь возражений с позиции здравого смысла и более или менее специальных возражений, которую мы находили в других случаях. Специальные трудности и возражения в отношении искусственного интеллекта в обоих из его версий — сильной или слабой — многочисленны и сложны. И я не буду пытаться суммировать их. В целом они имеют отношение к определенным трудностям в программировании компьютеров таким образом, который позволил бы им удовлетворять тесту Тьюринга. В пределах самого лагеря ИИ всегда были трудности вроде “проблемы фреймов” и неспособности получить адекватные оценки “немонотонного рассуждения”, которое должно отражать реальное человеческое поведение. Вне лагеря ИИ возникли возражения, подобные возражениям Хьюберта Дрейфуса (1972), в соответствии с которыми то, как работает человеческое сознание, достаточно отличается от работы компьютера.

Возражение сильному ИИ с позиции здравого смысла сводилось к тому, что компьютерная модель психики (computational model of the mind) упускала такие важные, относящиеся к психике вещи, как сознание (consciousness) и интенциональность. Я полагаю, что одним из наиболее известных аргументов против сильного ИИ явился мой аргумент “китайской комнаты” (Searle 1980a), который показал, что система могла бы запустить программу, способную дать совершенную имитацию некоторой человеческой способности, вроде способности понимать китайский язык, даже несмотря на то что эта система вообще не понимает китайский. Просто вообразим, что некто, не понимающий по-китайски, заперт в комнате со множеством китайских символов и компьютерной программой для ответа на вопросы по-китайски. Внешнее воздействие на данную систему состоит из китайских символов в форме вопросов; на выходе системы находятся китайские символы, представляющие собой ответы на поставленные вопросы. Мы могли бы предположить, что данная программа столь хороша, что ответы на вопросы неотличимы от ответов носителя китайского языка. Но опять же ни человек внутри, ни какая-либо другая часть системы в буквальном смысле слова не понимает китайский. И поскольку у запрограммированного компьютера нет ничего такого, чего не было бы у этой системы, то такой компьютер — как компьютер — также не понимает китайский. Поскольку программа сугубо формальна или синтактична, а также потому, что сознаниям присуще ментальное или семантическое содержание, любая попытка воспроизведения сознания с помощью чисто компьютерных программ упускает сущностные черты сознания.

В пределах общей материалистической традиции в дополнение к бихевиоризму, теориям типового тождества, теориям тождества в отдельном, функционализму и сильному ИИ в философии сознания были и другие теории. Одна из них, происхождение которой относится к началу 60-х годов в работах Пола Фейерабенда (1963) и Ричарда Рорти (1965), была недавно возрождена в различных формах такими авторами, как П.М.Черчленд (1981) и С.Стич (1983). Это взгляд, согласно которому ментальные состояния вообще не существуют. Данный взгляд называется “элиминативный материализм”, и сейчас я обращаюсь к нему.