1.13. Доказательство Джона Серла
1.13. Доказательство Джона Серла
Прежде чем представить свое собственное рассуждение, хотелось бы упомянуть о совсем иной линии доказательства — знаменитой «китайской комнате» философа Джона Серла{17} — главным образом для того, чтобы подчеркнуть существенное отличие от нее моего доказательства как по общему характеру, так и по базовым концепциям. Доказательство Серла тоже связано с проблемой «понимания» и имеет целью выяснить, можно ли утверждать, что функционирование достаточно сложного компьютера реализует это свойство мышления. Я не буду повторять здесь рассуждение Серла во всех подробностях, а лишь кратко обозначу его суть.
Дана некая компьютерная программа, которая демонстрирует имитацию «понимания», отвечая на вопросы о какой-то рассказанной ей предварительно истории, причем все вопросы и ответы даются на китайском языке. Далее Серл рассматривает не владеющего китайским языком человека, который старательно воспроизводит все до единой вычислительные операции, выполняемые в процессе имитации компьютером. Когда вычисления выполняет компьютер, получаемые на его выходе данные создают некоторую видимость понимания; когда же все необходимые вычисления посредством соответствующих манипуляций воспроизводит человек, какого-либо понимания в действительности не возникает. На этом основании Серл утверждает, что понимание как свойство мышления не может сводиться исключительно к вычислениям — хотя человек (не знающий китайского) и воспроизводит каждую вычислительную операцию, выполняемую компьютером, он все же совершенно не понимает смысла рассказанной истории. Серл допускает, что возможно осуществить моделирование получаемых на выходе результатов понимания (в полном соответствии с точкой зрения B), поскольку он полагает, что это вполне достижимо посредством компьютерного моделирования всей физической активности мозга (чем бы мозг при этом ни занимался) в тот момент, когда его владелец вдруг что-либо понимает. Однако главный вывод из «китайской комнаты» Джона Серла заключается в том, что сама по себе модель в принципе не способна действительно «ощутить» понимание. То есть для любой компьютерной модели подлинное понимание остается, в сущности, недостижимым.
Доказательство Серла направлено против точки зрения A (согласно которой любая «модель» понимания эквивалентна «подлинному» пониманию) и, по замыслу автора, в поддержку точки зрения B (хотя в той же мере оно поддерживает и C или D). Оно имеет дело с пассивным, обращенным внутрь, или субъективным аспектами понимания, однако при этом не отрицает возможности моделирования понимания в его активном, обращенном наружу, или объективном аспектах. Сам Серл однажды заявил: «Несомненно, мозг — это цифровой компьютер. Раз кругом одни цифровые компьютеры, значит, и мозг должен быть одним из них»{18}. Отсюда можно заключить, что Серл готов принять возможность полного моделирования работы обладающего сознанием мозга в процессе «понимания», результатом которого оказалась бы полная тождественность внешних проявлений модели и внешних проявлений действительно мыслящего человеческого существа, что соответствует точке зрения B. Мое же исследование призвано показать, что одними лишь внешними проявлениями «понимание» отнюдь не ограничивается, в связи с чем я утверждаю, что невозможно построить достоверную компьютерную модель даже внешних проявлений понимания. Я не привожу здесь аргументацию Серла в подробностях, поскольку точку зрения C она напрямую не поддерживает (а целью всех наших дискуссий здесь является как раз поддержка C и ничто иное). Тем не менее, следует отметить, что концепция «китайской комнаты» предоставляет, на мой взгляд, достаточно убедительный аргумент против A, хоть я и не считаю этот аргумент решающим. Более подробное изложение и различные контраргументы представлены в [340], обсуждение — там же и в [203]; см. также [80] и [341]. Мою оценку можно найти в НРК, с. 17-23.