4. Китайская комната и другие возражения

We use cookies. Read the Privacy and Cookie Policy

4. Китайская комната и другие возражения

Противники сильного ИИ, конечно же, подчас выдвигали конкретные доводы против этой позиции. Наиболее известным из них мы обязаны Джону Серлу, излагающему их, в частности, в статье 1980 г. «Сознания, мозги и программы». Я отвечу на них в рамках очерченной модели.

Китайская комната

В ходе знаменитого аргумента против сильного ИИ, Серл (Searle 1980) доказывает, что любая программа может быть имплементирована без порождения ментального. Доказательство построено на демонстрации того, что он считает контрпримером для тезиса о сильном ИИ: Китайской комнаты, внутри которой субъект, манипулирующий символами, симулирует человека, понимающего китайский язык. Китайская комната задумана как иллюстрация системы, имплементирующей программу — какой бы они ни была — при отсутствии релевантного сознательного опыта.

В изначальной версии Серл направляет свой аргумент скорее против машинной интенциональности, чем против машинного сознания, доказывая, что у Китайской комнаты отсутствует «понимание». Ясно тем не менее, что, по сути, речь идет о сознании. Ядро этого аргумента, если он верен, напрямую устанавливает, что система Китайской комнаты лишена сознательных состояний, таких как сознательное переживание понимания китайского языка. Серл считает, что интенциональность предполагает сознание, так что этого достаточно для того, чтобы убедиться, что комната лишена и интенциональности. Другие, впрочем, отрицают это. В любом случае, мы можем отвлечься от вопроса о связи между сознанием и интенциональностью и сформулировать проблему исключительно в терминах сознания. При этом можно чуть лучше высветить спорные моменты.

(Иначе говоря, мы можем разделить выводы Серла на две части: (1) программы не достаточно для сознания; и (2) программы не достаточно для интенциональности. Серл полагает, что из (1) следует (2), но другие отрицают это. Яснее всего будет, если сфокусировать аргумент о сильном ИИ на (1): все стороны согласятся, что, если (1) верен, то наиболее интересная разновидность сильного ИИ обречена, и даже Серл согласился бы, что опровержение (1) показало бы, что аргумент Китайской комнаты не проходит. Связь между сознанием и интенциональностью можно выделить тогда в отдельный вопрос, не критичный для аргумента против ИИ.

Действуя подобным образом, мы избегаем ситуации, при которой оппоненты выступают против (2), не беспокоясь об опровержении (1). К примеру, возражения, сфокусированные на связи между Китайской комнатой и ее окружением (Fodor 1980; Rey 1986), и возражения, процедурно или функционально объясняющие интенциональность (Boden 1988; Thagard 1986), могут в лучшем случае прояснить вопрос об интенциональности, но они никак не повышают правдоподобность вывода о сознательности Китайской комнаты. В результате они оставляют такое чувство, будто проблема, которую ставит перед ИИ этот сценарий, так и не была рассмотрена. Максимум, что они делают, так это оспаривают вспомогательную посылку о том, что интенциональность предполагает сознание [182].)

Аргумент Китайской комнаты разворачивается следующим образом. Возьмем любую программу, которая, как предполагается, передает какой-то из аспектов сознания, к примеру, понимание китайского языка или наличие ощущения красного. Далее эта программа может быть имплементирована англоязычным субъектом, не знающим других языков, — будем называть его демоном — в черно-белой комнате. Демон вручную следует всем правилам, специфицированным программой, ведя записи о всех релевантных внутренних состояниях и переменных на клочках бумаги, при необходимости стирая и обновляя их. Мы можем также вообразить, что демон соединен с роботизированным телом, получая цифровые данные от перцептивных датчиков, манипулируя ими согласно программным спецификациям и посылая результирующие данные на моторные эффекторы. Здесь можно говорить о совершенной имплементации программы. Тем не менее кажется очевидным, что у демона нет сознательного понимания китайского и что он лишен ощущения красного. Поэтому имплементация программы не достаточна для этих сознательных переживаний. Сознание предполагает не только имплементацию релевантной программы.

Защитники сильного ИИ обычно возражали так, что они соглашались, что демон не понимает по-китайски, но доказывали, что понимание и сознание должны быть атрибутированы системе, включающей в свой состав демона и клочки бумаги. Серл заявлял об очевиднейшей неубедительности такого возражения. Действительно, в утверждении о том, что система, состоящая из субъекта и клочков бумаги, обладает коллективным сознанием, есть нечто контринтуитивное. На этой стадии аргумент заходит в тупик. Защитники ИИ доказывают, что система обладает сознанием, оппоненты находят этот вывод нелепым, и дальнейшее продвижение кажется затруднительным. Думаю, однако, что приведенные ранее доводы дают возможность выйти из тупика к сильному ИИ.

Допустим, что программа, о которой мы говорим, в действительности является комбинаторным автоматом, отражающим на нейронном уровне организацию носителя китайского языка, смотрящего на сочное красное яблоко. Демон в комнате имплементирует этот КоА, располагая клочками бумаги для каждого элемента вектора состояния и обновляя их на каждом временном шагу в соответствии с правилами перехода от состояния к состоянию. Мы можем развернуть аргументы блекнущих и скачущих квалиа, сконструировав спектр случаев, занимающих промежуточное положение между исходным носителем китайского языка и Китайской комнатой[183]. Сделать это нетрудно. Вначале мы можем вообразить, что нейроны в голове носителя китайского языка последовательно заменяются крошечными демонами, каждый из которых дуплицирует входяще — исходящую функцию нейрона[184]. При получении стимулов со стороны соседних нейронов демон производит соответствующие вычисления и, в свою очередь, стимулирует соседние нейроны. По мере замены все большего количества нейронов демоны берут верх, пока весь череп не оказывается заполнен миллиардами демонов, реагирующих на сигналы друг друга и на входящие чувственные данные, производящих вычисления, сигнализирующих другим демонам и, в свою очередь, стимулирующих моторные окончания. (Если кто-то будет возражать, сказав, что все эти демоны никогда не смогут поместиться в череп, то взамен можно вообразить сценарий с устройствами радиопередачи, находящимися вне черепа.)

Далее, мы постепенно уменьшаем число демонов, удваивая их работу. Сперва мы заменяем два соседних демона одним демоном, делающим их работу. Новый демон будет фиксировать внутреннее состояние обоих симулируемых им нейронов — можно представить, что эта запись будет храниться на клочке бумаги в каждой из локаций. Каждый из этих клочков бумаги будет обновляться в зависимости от сигналов, поступающих от соседних нейронов и от состояния другого клочка бумаги. Консолидация демонов будет продолжена, пока в конце концов на их месте не окажется один-единственный демон и миллиарды крошечных клочков бумаги. Можно представить, будто каждый из этих клочков находится в месте изначального расположения соответствующего ему нейрона, а демон мечется по мозгу, обновляя каждый из этих клочков в качестве функции состояний соседних клочков и, при необходимости, чувственных данных.

Несмотря на все эти изменения, итоговая система имеет ту же функциональную организацию, что и исходный мозг. Каузальные отношения между нейронами в исходном случае отражаются в каузальных отношениях между демонами в промежуточном случае и между клочками бумаги — в конечном случае. В этом конечном случае каузальные отношения опосредуются действиями демона — клочок бумаги воздействует на состояние демона, который воздействует на соседний клочок бумаги — но они тем не менее являются каузальными отношениями. Если мы посмотрим на функционирование этой системы в ускоренном режиме, то мы увидим вихрь каузальных взаимодействий, точно соответствующий нейронному вихрю.

Мы, таким образом, сможем применить аргументы от блекнущих и скачущих квалиа. Если итоговая система лишена сознательного опыта, то должна существовать промежуточная система с блеклыми сознательными переживаниями. А это неправдоподобно по уже известным нам причинам. Мы можем также вообразить, что мы поочередно подключаем то нейронную цепь, то соответствующую ей резервную цепь, имплементированную демонами или одним демоном и клочками бумаги. Как и прежде, это привело бы к скачущим квалиа при неизменной функциональной организации, так что система не смогла бы заметить разницу. И опять-таки гораздо более правдоподобным выглядит допущение, что квалиа не будут меняться.

Оправданным, стало быть, кажется заключение, что итоговая система имеет точно такие же сознательные переживания, что и исходная система. Если нейронная система порождала переживания чего-то ярко-красного, то их будет порождать и система демонов, равно как и сеть клочков бумаги, опосредованных демоном. Но этот итоговый случай, разумеется, всего лишь копия системы, находящейся в Китайской комнате. Мы тем самым нашли позитивное основание считать, что та система действительно обладает сознательными переживаниями, в частности, теми, которые связаны с пониманием китайского языка и переживанием красного.

Подобный взгляд на вещи проясняет два момента, которые могли бы оставаться затемненными серловским описанием Китайской комнаты. Во-первых, «клочки бумаги» в комнате — это не просто кучи формальных символов. Они образуют конкретную динамическую систему, каузальная организация которой прямо соответствует организации исходного мозга. Это обстоятельство затемняется медлительностью связываемой с ними манипуляции символами, а также присутствием демона, осуществляющего эту манипуляцию; и тем не менее сознательный опыт порождает именно конкретная динамика этих клочков бумаги. Во-вторых, демон играет сугубо второстепенную роль. Ключевая каузальная динамика связана с клочками бумаги, соответствующими нейронам в исходном случае. Демон всего лишь оказывает вспоможение этим каузальным отношениям. Образ демона, мечущегося внутри черепной коробки, делает очевидным то обстоятельство, что атрибутирование переживаний системы демону было бы серьезным смешением уровней. Факт сознательности демона может искушать на предположение, что если переживания системы вообще где-то существуют, то они существуют именно в демоне; но в действительности сознательность демона не имеет никакого отношения к функционированию системы. Функции демона могла бы выполнить простая таблица соответствий. Ключевым аспектом системы является динамика символов.

Аргумент Серла интуитивно впечатляет нас из-за причудливости программной имплементации, затемняющей реализацию релевантной каузальной динамики. Но при избавлении от образов, навеваемых присутствием нерелевантного демона и медлительностью перетасовки символов, мы увидим, что каузальная динамика в комнате в точности отражает каузальную динамику в черепной коробке. И тогда предположение о том, что эта система порождает опыт, уже не будет казаться столь неправдоподобным.

В одной из версий серловского аргумента демон запоминает правила вычисления и внутренним образом имплементирует программу. Конечно, на практике люди не могут запомнить даже сотню правил и символов, не говоря уже о многих миллиардах, но можно вообразить, что демон с модулем суперпамяти был бы в состоянии запомнить все правила и состояния всех символов. В этом случае опять-таки можно ожидать, что система породит сознательные переживания, которые не будут переживаниями демона. Серл доказывает, что если кто-то и должен иметь переживания, то им может быть только демон, так как все процессы обработки информации протекают внутри него, однако эта ситуация должна рассматриваться как пример реализации двух ментальных систем в одном и том же физическом пространстве. Устройство, порождающее китайские переживания, никак не совпадает с организацией, порождающей переживания демона. Понимающее китайский устройство состоит в каузальных отношениях миллиардов локаций модуля суперпамяти; демон же, повторю, действует лишь в качестве каузального вспоможения. Это становится очевидным при рассмотрении спектра случаев, когда демон, мечущийся в черепной коробке, постепенно запоминает правила и символы — до тех пор, пока не интернализирует все их. Соответствующая структура постепенно перемещается из черепной коробки в суперпамять демона, но опыт остается неизменным и совершенно обособленным от переживаний демона.

Можно было бы предположить, что поскольку мой аргумент предполагает дуплицирование организации мозга, он устанавливает лишь слабую разновидность сильного ИИ, тесно увязанную с биологией. (При обсуждении возражения, называемого им «Симулятором мозга», Серл выказывает удивление тем обстоятельством, что сторонник ИИ выдвигает возражение, подразумевающее детальную симуляцию человеческой биологии.) Однако в таком случае мы недооценили бы силу этого аргумента. Программа симуляции мозга — это просто тонкий край нашего клина. Узнав, что одна программа может порождать ментальное даже при ее имплементации в духе Китайской комнаты, мы полностью нейтрализуем аргумент Серла, претендующий на универсальный характер: мы знаем, что демон и бумага в Китайской комнате действительно могут фундировать независимое сознание. И тогда мы открываем шлюзы для целого спектра программ, которые могли бы оказаться кандидатами на роль программ, порождающих сознательный опыт. Границы этого спектра — это открытый вопрос, но Китайская комната не является препятствием на этом пути.

Синтаксис и семантика

Второй аргумент, выдвинутый Серлом (Searle 1984), звучит так:

1. Компьютерная программа имеет синтаксический характер.

2. Синтаксис недостаточен для семантики.

3. Сознания семантичны.

4. Поэтому имплементации программы недостаточно для сознания.

Опять-таки, это выдвигается как аргумент об интенциональности, но он может рассматриваться и как аргумент о сознании. Серл считает, что главной разновидностью интенциональности является феноменологическая интенциональность, внутренне присущая сознанию.

Этот аргумент можно интерпретировать и критиковать разными способами, но главная его проблема состоит в том, что он не придает должного значения ключевой роли имплементации. Программы — это абстрактные вычислительные объекты, и они сугубо синтаксичны. Можно быть уверенным, что ни одна программа как таковая не может претендовать на наличие в ней ментального. Но имплементации программ — это конкретные системы с каузальной динамикой, и они не есть нечто сугубо синтаксичное. Имплементация имеет каузальный вес в реальном мире, и благодаря этому весу возникает сознание и интенциональность. Синтаксична программа; имплементация же имеет семантическое содержание.

Серл мог бы попробовать доказать, что и имплементации в определенном смысле синтаксичны — возможно, потому, что динамика имплементаций детерминируется формальными принципами. Однако «синтаксичность» имплементаций имеет смысл, никак не связанный с тем, в котором можно правдоподобно утверждать, что синтаксис недостаточен для семантики. Хотя тезис о том, что статичный набор абстрактных символов лишен внутренних семантических свойств, и может быть правдоподобным, гораздо менее очевидным кажется утверждение, что формально специфицированные каузальные процессы не могут фундировать ментальное.

Мы можем следующим образом спародировать этот аргумент:

1. Рецепты синтаксичны.

2. Синтаксис недостаточен для рассыпчатости.

3. Пирожные рассыпчаты.

4. Значит, имплементации рецепта недостаточно для пирожного.

В таком виде указанный дефект бросается в глаза. Аргумент не проводит различия между рецептами, являющимися синтаксическими объектами, и имплементациями рецептов, полноценными физическими системами в реальном мире. Вся работа, опять-таки, проделывается отношением имплементации, соотносящим области абстрактного и конкретного. Рецепт имплицитно специфицирует класс физических систем, которые могут рассматриваться как имплементации этого рецепта, и именно эти системы обладают такими характеристиками, как рассыпчатость. Аналогичным образом программа имплицитно специфицирует класс физических систем, которые могут рассматриваться в качестве ее имплементаций, и именно они порождают такие характеристики, как ментальное.

Симуляция — это всего лишь симуляция

Одно из популярных возражений против искусственного интеллекта (напр., Searle 1980; Hamad 1989) состоит в том, что симуляция феномена не тождественна его воспроизведению. К примеру, при компьютерной симуляции пищеварения никакая пища в действительности не переваривается. Симуляция урагана — это не настоящий ураган; при его симуляции на компьютере никто не промокает. При симуляции тепла реальное тепло не выделяется. Так почему же мы должны ожидать появления настоящего сознания при его симуляции? Почему мы должны ожидать, что именно в этом случае вычислительный процесс не просто симуляция, но и нечто реальное?

Нет сомнений, что для многих свойств симуляция не является воспроизведением. Симулированное тепло — это не реальное тепло. Имеются, однако, и такие свойства, для которых симуляция есть воспроизведение. К примеру, симуляция системы с каузальной петлей есть система с каузальной петлей. Так что реальный вопрос состоит здесь в том, как отличить типы X, при которых симуляция X действительно есть X, от иных?

Ответ, как я полагаю, может быть таким: симуляция X оказывается X именно в тех случаях, когда свойство быть X является организационным инвариантом. Дефиниция организационного инварианта — такая же, как и раньше: свойство есть организационный инвариант, когда оно зависит только от функциональной организации фундирующей системы, а не от каких бы то ни было иных деталей. Вычислительная симуляция физической системы может ухватывать ее абстрактную каузальную организацию и гарантировать ее воспроизводимость при любой имплементации, вне зависимости от состава имплементирующей инстанции. Подобная имплементация будет в таком случае воспроизводить любые организационные инварианты изначальной системы, однако другие свойства будет утрачены.

Свойство быть ураганом не является организационным инвариантом, так как оно отчасти зависит от таких неорганизационных свойств, как скорость, форма и физических состав фундирующей системы (система с теми же каузальными взаимодействиями, очень медленно имплементированная на большом количестве бильярдных шаров, не была бы ураганом). Пищеварение и тепло сходным образом зависят от различных аспектов фундирующих физических субстратов, не являющихся всецело организационными. Мы могли бы постепенно заменять биологические компоненты пищеварительной системы — так, чтобы реакции, основанные на действии кислоты, заменялись каузально изоморфными взаимодействиями кусочков металла, и это уже не было бы пищеварением. Так что нам не стоит ожидать, что симуляция систем с этими свойствами сама будет обладать ими.

Но феноменальные свойства не таковы. Как я доказывал в главе 7, эти свойства представляют собой организационные инварианты. И если это так, то отсюда следует, что надлежащая симуляция системы с феноменальными свойствами сама будет обладать ими — благодаря воспроизведению высокодетализированной функциональной организации изначальной системы. Организационная инвариантность принципиально отличает сознание от других упомянутых свойств и открывает путь сильному ИИ.