3. В защиту сильного ИИ
3. В защиту сильного ИИ
Имплементация КоА поразительно напоминает реализацию функциональной организации. Вспомним, что функциональная организация определяется специфицированием множества абстрактных компонентов, множества состояний каждого компонента и системы отношений зависимости, указующих на то, как состояния каждого компонента зависят от предыдущих состояний и от данных на входе, а также на то, как данные на выходе зависят от предшествующих состояний. Понятие КоА, по сути дела, является непосредственной формализацией указанного понятия.
Действительно, при наличии любой функциональной организации того типа, который был описан в главе 7, из нее можно напрямую извлечь КоА. Нужно лишь допустить, что векторы состояния КоА располагают элементами для каждого компонента этой организации и что формальные переходы состояний КоА соответствуют отношениям каузальной зависимости между компонентами. Реализация функциональной организации практически не отличается от имплементации соответствующего КоА. Небольшие различия, связанные, в частностью, с различным обращением с данными на входе и выходе, есть, но они несущественны.
Предложенная мной концепция имплементации, таким образом, проясняет связь между каузальной и вычислительной организацией. Так мы можем увидеть, что при применении вычислительных описаний к физическим системам они, по сути, предоставляют нам формальное описание каузальной организации системы. Вычислительный язык оптимально подходит для спецификации подобной абстрактной каузальной организации. Можно даже попробовать показать, что именно поэтому вычислительные понятия получили столь широкое распространение в когнитивной науке. В объяснении поведения сложной когнитивной системы наибольшее значение имеет абстрактная каузальная организация системы, и вычислительные формализмы оказываются идеальным каркасом, с помощью которого может быть описана и проанализирована подобная организация[181].
Указанная связь упрощает защиту сильного искусственного интеллекта. Я уже приводил доводы в пользу принципа организационной инвариантности, согласно которому относительно любой системы, наделенной сознательными переживаниями, верно, что система, обладающая такой же высокодетализированной функциональной организацией, будет обладать качественно идентичными сознательными переживаниями. Мы, однако, знаем, что любая функциональная организация может быть абстрагирована в КоА, всегда имплементируемый при реализации этой организации. Из этого следует, что для данной сознательной системы М ее высокодетализированная функциональная организация может быть абстрагирована в КоА М, такой, что любая система, имплементирующая М, будет реализовывать такую же функциональную организацию и поэтому будет обладать сознательными переживаниями, качественно неотличимыми от переживаний исходной системы. А это и есть сильный искусственный интеллект.
К примеру, на основе нейронного описания мозга мы могли бы получить абстрактный КоА, располагающий элементами вектора состояния для каждого нейрона и подсостояниями для каждого элемента, отражающими соответствующий диапазон состояний для каждого из нейронов. Правила перехода от состояния к состоянию в КоА отражают тип зависимости состояния каждого нейрона от состояния других нейронов и соотнесенность нейронных состояний и данных на входе и на выходе. Если значимы не только нейронные компоненты мозга, то можно включить и их. Любая физическая система, имплементирующая этот КоА, будет иметь такую высокодетализированную функциональную организацию, которая будет дуплицировать функциональную организацию мозга на нейронном уровне. Согласно принципу инвариантности, эта система будет обладать переживаниями, неотличимыми от тех, которые связаны с мозгом.
Заманчиво представлять компьютер просто как устройство с входом и выходом, между которыми есть место лишь для формальных математических манипуляций. Подобный взгляд на вещи, однако, игнорирует тот ключевой факт, что внутри компьютера — так же как и внутри мозга — имеется богатая каузальная динамика. В самом деле, в обычном компьютере, понейронно имплементирующем симуляцию моего мозга, есть место для реальной каузальности напряжений различных цепей, в точности отражающей паттерны каузальности между нейронами. Каждому нейрону будет соответствовать участок памяти, репрезентирующий этот нейрон, и каждый из этих участков будет физически реализован напряжением в каком-то физическом месте. За возникающий сознательный опыт отвечают именно эти каузальные паттерны электрических цепей, так же как за его возникновение отвечают каузальные паттерны нейронов мозга.
Тезис сильного искусственного интеллекта можно защищать и напрямую, используя аргументы от блекнущих и от скачущих квалиа. При наличии любых двух имплементаций КоА между ними будет спектр случаев, в которых физические компоненты имплементации заменяются по одному при сохранении паттерна их каузального взаимодействия с остальной частью системы. Если одна из систем обладает сознанием, и если КоА является абстрактным выражением ее высокодетализированной функциональной организации, то из упомянутых аргументов следует, что вторая система должна обладать сознанием и что она должна быть наделена неотличимыми сознательными переживаниями. Если бы вторая система не обладала сознанием, то существовала бы промежуточная система с блекнущими квалиа. Если бы вторая система не обладала сознанием или имела другие осознанные переживания, то мы смогли бы сконструировать промежуточную систему со скачущими квалиа. Такие последствия неправдоподобны по причинам, указанным в главе 7. Но если принять, что квалиа не могут блекнуть или скакать подобным образом, то из этого следует, что вторая из изначально имевшихся у нас систем обладает переживаниями, неотличимыми от переживаний первой системы, что и означает признание истинности тезиса о сильном искусственном интеллекте.
Здесь есть небольшая тонкость. Аргумент предполагает, что организация мозга может быть абстрагирована в КоА-описание. Для этого нужно лишь, чтобы релевантная организация могла быть описана в терминах конечного множества частей, каждая из которых имеет конечное множество релевантных состояний. Однако это можно было бы оспорить. Не исключено, к примеру, что для каждого нейрона требуется бесконечное множество состояний, чтобы передать непрерывность соответствующих процессов, имеющую важное значение. И можно было бы утверждать, что переходы между этими бесконечными состояниями могли бы оказаться невычислимыми. Позже я еще рассмотрю подобное возражение; пока же я готов принять вывод, что если когнитивная динамика вычислима, то надлежащая вычислительная организация будет порождать сознание. Иначе говоря, тут меня больше интересуют внутренние, а не внешние возражения. Тем не менее позже в этой главе я отвечу на ряд внешних возражений.