7. Третье затруднение: синтаксис не имеет каузальных воздействий
В естественных науках существуют способы объяснения, указывающие на механизмы, являющиеся причиной выработки феноменов, которые изначально предполагается объяснить. Такой подход особенно распространен в биологических науках. Примером могут являться теория болезни, ссылающаяся на микробов, теория ДНК и наследуемых особенностей и даже дарвиновская теория естественного отбора. В каждом случае указан каузальный механизм, и в каждом случае это указание дает объяснение результату, производимому этим механизмом. Если вернуться и взглянуть на “начальную версию”, становится ясно, что именно такой вид объяснения предпосылает когнитивизм. Предполагается, что механизмы, по которым процессы в мозге осуществляют познание, являются вычислительными, и, точно указав на программы, мы определим причины познания. Одна из прекрасных сторон этой исследовательской программы, как это часто замечается, заключается в том, что нам не нужно знать подробности о работе мозга для того, чтобы объяснить познание. Процессы в мозге — это лишь техническая реализация когнитивных программ, но само объяснение познания дано на уровне программы. Стандартная точка зрения, заявленная Ньюеллом (1982), утверждает то, что существует три уровня объяснения: уровень технической реализации (hardware), уровень программы и уровень интенциональности (последний уровень Ньюелл называет уровнем знания (the knowledge level). Особый вклад когнитивной науки осуществляется именно на уровне программы.
Но, если правильно все, что я говорил до сих пор, то тогда этот проект в чем-то должен оказаться сомнительным. Раньше я думал, что когнитивистская теория была ложной относительно своей каузальности, но теперь я затрудняюсь сформулировать ее в какой бы то ни было связной форме, даже в форме какого-либо эмпирического тезиса. Сам тезис заключается в том, что существует очень много символов, манипуляция которыми происходит в мозге, т.е. нулей и единиц, проносящихся через мозг со скоростью света и невидимых не только для невооруженного глаза, но и для самого сильного электронного микроскопа, и именно они являются причиной познания. Но затруднение заключается в том, что нули и единицы, как таковые, не имеют каузального воздействия, потому что они вообще существуют лишь в глазах наблюдателя. Выполняемая программа не обладает никаким каузальным воздействием, за исключением воздействия, которым обладает выполняющий эту программу прибор, потому что у программы нет ни настоящего существования, ни онтологии вне выполняющего ее прибора. Говоря языком физики, такой вещи как отдельный “уровень программы” не существует.
Вы сможете в этом убедиться, если вернетесь к начальной версии и припомните различия между механическим компьютером и человеческим компьютером Тьюринга. В человеческом компьютере Тьюринга действительно существует уровень программы, внутренне присущий системе, и на этом уровне компьютер осуществляет каузальную функцию, превращая входные данные (input) в выходные (output). Это происходит потому, что человек постоянно следует правилу для осуществления определенного вычисления, и это каузально объясняет его действия. Но, когда мы программируем компьютер на выполнение того же вычисления, приписывание вычислительной интерпретации зависит от нас, внешних гомункулов. Нет никакой ин-тенциональной каузальности, внутренне присущей системе. Человеческий компьютер беспрестанно следует правилам, и этот факт объясняет его поведение, но механический компьютер буквально не следует никаким правилам. Он сконструирован так, как будто следует правилам, поэтому для практических коммерческих целей не важно то, что он, на самом деле, не следует никаким правилам. Он не может следовать правилам, потому что у него нет интенционально-го содержания, внутренне присущего системе, функционирующей каузально, чтобы вызывать поведение. А когнитивизм убеждает нас в том, что мозг работает как продающийся в магазинах компьютер, и что эта работа является причиной познания. Но без гомункула, как у компьютера, так и у мозга есть только схемы, а схемы не имеют никаких каузальных воздействий, помимо тех, которые присущи выполняющим программу приборам. Так что, похоже, когнитивизм никак не сможет предоставить каузального основания познания.
Здесь, как мне кажется, кроется загадка. Любой, кто хоть иногда имеет дело с компьютером, знает, что мы действительно зачастую даем каузальные объяснения, ссылаясь на программу. Например, мы можем сказать, что, нажав эту клавишу, я получил такой-то результат, потому что машина выполняет программу vi, а не программу emacs. Это похоже на обычное каузальное объяснение. Загадка состоит в том, как мы можем согласовать тот факт, что синтаксис как таковой не имеет никакого каузального воздействия, с тем, что мы действительно приводим каузальные объяснения, апеллирующие к программе. И, более пристрастно, сможет ли такой вид объяснения предоставить подходящую модель для когнитивизма? Спасет ли это когнитивизм? Сможем ли мы, например, спасти аналогию с термостатом, сказав, что точно так же, как понятие “термостат” используется в каузальных объяснениях независимо от физического аспекта его употребления, понятие “программа” может использоваться в объяснении без учета того, как программа применяется на физическом уровне?
Чтобы исследовать эту загадку, давайте расширим начальную версию и посмотрим, как когнитивистская исследовательская методика функционирует в реальной исследовательской деятельности. Идея заключается в том, чтобы запрограммировать обычный компьютер так, чтобы он симулировал какую-нибудь когнитивную способность, такую как зрение или язык. Затем, если мы достигаем хорошей симуляции, эквивалентной, по крайней мере, машине Тьюринга, мы строим гипотезу о том, что компьютер-мозг применяет ту же программу, что и обычный компьютер. А для проверки гипотезы мы ищем косвенное психологическое свидетельство, например время реакции. Создается впечатление, что мы можем каузально объяснять поведение компьютера-мозга, истолковывая программу в том же смысле, в каком мы объясняем работу обычного компьютера. Что здесь не так? Похоже ли это на совершенно законную программу научного исследования? Мы знаем, что преобразование обычным компьютером входных данных в выходные данные объясняется программой, и в мозге мы обнаруживаем такую же программу, следовательно, мы имеем каузальное объяснение.
Относительно этого проекта нас сразу же должны обеспокоить две вещи. Первое, мы бы никогда не приняли подобного вида объяснения ни для одной части мозга, если бы действительно понимали, как она работает на нейробиоло-гическом уровне. Второе, мы бы никогда не приняли это объяснение для других видов систем, вычислительные функции которых мы можем симулировать. Для иллюстрации первого пункта обратимся, например, к известному рассмотрению того “Что говорит глаз лягушки ее мозгу” (Lettvin, et al. 1959 in McCulloch 1965). Этот случай описан только в терминах анатомии и физиологии нервной системы лягушки. Типичный произвольно выбранный пассаж выглядит так:
Постоянные детекторы контраста (Sustained Contrast Detectors) Ни один анмиелиновый аксон этой группы не реагирует, когда общее освещение выключено. Если острая грань какого-нибудь предмета более светлого или темного, чем фон, появляется в его поле и останавливается, он сразу начинает разряжаться и продолжает разрядку, безотносительно формы грани или того, является ли предмет больше или меньше, чем поле восприятия (стр. 239).
Я никогда не слышал, чтобы кто-нибудь говорил, что это всего лишь техническое применение, что необходимо выяснить какую программу использует лягушка. Я не сомневаюсь, что можно произвести компьютерную симуляцию “детекторов насекомых” у лягушки. Быть может, кто-нибудь это сделал. Но все мы понимаем, что, как только становится ясно, как зрительная система лягушки работает в действительности, “вычислительный” уровень становится излишним.
Для иллюстрации второго опасения рассмотрим симуляции других видов систем. Я, например, печатаю эти слова на машине, которая симулирует поведение старой механической пишущей машинки.[74] Что касается качества симуляции, то программа текстового редактора симулирует пишущую машинку лучше, чем любая известная мне программа ИИ симулирует мозг. Но ни один здравомыслящий человек не скажет: “Наконец-то мы понимаем, как работают пишущие машинки, они являются реализацией программы текстового редактора”. Дело просто в том, что вычислительные симуляции не дают каузального объяснения симулируемого явления.
Так что же происходит? Мы, в общем, не предполагаем, что вычислительные симуляции процессов в мозге предоставляют нам какое-либо объяснение вместо или в дополнение к нейробиологическому объяснению того, как на самом деле работает мозг. И мы, как правило, не используем выражение “X- вычислительная симуляция от Y” для определения симметрического отношения. Другими словами, мы не предполагаем, что если компьютер симулирует пишущую машинку, то и пишущая машинка симулирует компьютер. Мы не предполагаем, что каузальное объяснение поведения урагана предоставляется программой, симулирующей погоду. Так почему же мы должны делать исключение из этих принципов относительно неизвестных процессов в мозге? Существует ли уважительная причина для подобного исключения? И какого рода каузальным объяснением является объяснение, опирающееся на формальную программу?
Я полагаю, что решение проблемы заключается в следующем. После исключения из системы гомункула, у вас остается лишь схема событий, которой кто-либо извне может приписать вычислительную интерпретацию. Сама по себе схема может дать каузальное объяснение только в том случае, когда вы знаете, что в системе существует некая схема, и вы знаете то или иное причинное взаимодействие является частью, составляющей эту схему. И вы можете, например, на основании более ранних состояний предсказывать более поздние. Более того, если вы заранее знаете, что система была запрограммирована внешним гомункулом, вы можете приводить объяснения, отсылающие к интенциональности гомункула. Вы, например, можете сказать, что машина работает именно так, потому что она выполняет программу vi. Подобным образом вы можете объяснить, что эта книга начинается с рассуждения о несчастливых семьях и не содержит длинных пассажей о трех братьях, потому что это “Анна Каренина” Толстого, а не “Братья Карамазовы” Достоевского. Но вы не можете объяснять такую физическую систему как пишущая машинка или мозг, идентифицируя схему, общую для этой системы и ее компьютерной симуляции, потому что существование схемы не объясняет того, как в действительности сама система работает в качестве физической системы. В случае с познанием схеме присущ слишком высокий уровень абстракции, чтобы объяснять такие конкретные (и, следовательно, физические) явления, как наличие зрительного восприятия или понимание предложения.
Мне кажется очевидным, что мы не можем объяснить то, как функционируют пишущие машинки и ураганы, указав формальные схемы, общие для них и их компьютерных симуляций. Почему же это не очевидно в случае с мозгом?
Здесь мы подходим ко второй части решения загадки. Расширяя начальную версию когнитивизма, мы молчаливо предполагали, что мозг может выполнять алгоритмы для познания так же, как их выполняет человеческий компьютер Тьюринга и механический компьютер. Но именно это предположение было ошибочным. Для иллюстрации задайте себе вопрос, что происходит, когда система выполняет алгоритм. Человеческий компьютер сознательно проходит шаги алгоритма, так что этот процесс является как каузальным, так и логическим: логическим, потому что алгоритм предоставляет набор правил для получения выходных символов из входных символов, и каузальным, потому что агент осуществляет сознательное усилие для прохождения этих шагов. В случае с механическим компьютером вся система должна включать и внешнего гомункула, и вместе с гомункулом она будет как каузальной, так и логической: логической, потому что гомункул осуществляет интерпретацию работы машины, и каузальной, потому что прохождение процесса осуществляется через техническую составляющую (hardware) машины. Но соответствие этим требованиям не может быть достигнуто посредством грубых, слепых, несознательных нейрофизиологических операций в мозге. В мозге как компьютере нет никакого сознательного интенционального применения алгоритма в том смысле, в котором это происходит в человеческом компьютере, но в нем также не может быть никаких неосознаваемых применений, таких, какие имеют место в механическом компьютере, потому что здесь необходим внешний гомункул для привязывания вычислительной интерпретации физическим явлениям. Самое большее из того, что мы можем найти в мозге, это схема событий, являющаяся формально схожей с выполняемой механическим компьютером программой, но эта схема сама по себе не имеет никакого собственного каузального воздействия и, следовательно, ничего не объясняет.
В целом, тот факт, что приписывание синтаксиса не устанавливает никакого каузального воздействия, является смертельным для утверждения о том, что программы дают каузальное объяснение познанию. Давайте вспомним, что из себя представляют когнитивистские объяснения, и рассмотрим их последствия. Объяснения, подобные рассмотрению Хом-ским синтаксиса естественных языков или Марром зрения, осуществляются путем установления набора правил, по которым символы входных данных превращаются в символы выходных данных. У Хомского, например, отдельный входной символ “S” может быть превращен в любое из бесконечного числа предложений путем повторного применения набора синтаксических правил. У Марра, представления двухмерного зрительного комплекса обращаются в трехмерные “дескрипции” мира в соответствии с определенным алгоритмом. Трехчастное различение Марра вычислительной задачи, алгоритмического решения этой задачи и технического применения алгоритма (подобно различениям Ньюелла) стало очень популярным примером общей схемы объяснения.
Если воспринимать эти объяснения наивно, так, как это делаю я, то их можно сравнить с высказыванием о находящемся в комнате человеке, который выполняет действия в соответствии с определенным набором правил для образования английских предложений или для получения трехмерных дескрипций, в зависимости от рассматриваемого нами случая. Но теперь давайте зададимся вопросом о том, какие факты действительного мира соответствуют этим объяснениям применительно к мозгу. Например, в случае Хомского мы не должны думать, что агент сознательно осуществляет повторяющиеся действия в соответствии с правилами; но мы также и не должны думать, что он бессознательно продумывает способ выполнения набора правил. Скорее правила являются “вычислительными”, и мозг осуществляет вычисления. Но что это значит? Предполагается, что мы должны рассматривать мозг как обычный компьютер. Причина приписывания определенного набора правил обычному компьютеру и мозгу должна быть единой в обоих случаях. Но мы видели, что в обычном компьютере такое приписывание всегда зависит от наблюдателя, оно зависит от гомункула, приписывающего техническим стадиям (hardware states) вычислительные интерпретации. Без гомункула не существует вычисления, а есть только замкнутая электронная цепь. Так каким же образом мы помещаем в мозг вычисление без гомункула? Насколько я знаю, ни Хомский, ни Марр никогда не задавались подобным вопросом и даже не знали, что такой вопрос существует. Но без гомункула установление состояний программы не имеет никакой объясняющей силы. Имеет место лишь физический механизм мозг, с его различными физическими и физическими/ментальными каузальными уровнями описания.
Больше книг — больше знаний!
Заберите 30% скидку новым пользователям на все книги Литрес с нашим промокодом
ПОЛУЧИТЬ СКИДКУ