3.17. Робот ошибается и робот «имеет в виду»?
3.17. Робот ошибается и робот «имеет в виду»?
Важнейший вопрос из тех, с какими нам предстоит разобраться на данном этапе, звучит так: готов ли робот безоговорочно согласиться с тем, что — при условии его построения в соответствии с некоторым набором механизмов M — формальная система Q(M) корректным образом включает в себя всю систему его математических убеждений в отношении ?1-высказываний (равно как и с соответствующим предположением для системы QM(M))? Такое согласие подразумевает, прежде всего, что робот верит в обоснованность системы Q(M), — т.е. в то, что все ?1-высказывания, являющиеся ?-утверждениями, действительно истинны. Наши рассуждения требуют также, чтобы всякое ?1-высказывание, в истинность которого робот в состоянии безоговорочно поверить, являлось непременно теоремой системы Q(M) (т.е. чтобы в рамках системы Q(M) робот мог бы определить «машину для доказательства теорем», аналогичную той, возможность создания которой в случае математиков-людей допускал Гёдель, см. §§3.1, 3.3). Вообще говоря, существенно не то, чтобы система Q(M) действительно играла такую универсальную роль в отношении потенциальных способностей робота, связанных с ?1-высказываниями, а лишь то, чтобы она была достаточно обширна для того, чтобы допускать применение гёделевского доказательства к самой себе (и, соответственно, к системе QM(M)). Позднее мы увидим, что необходимость в таком применении возникает лишь в случае некоторых конечных систем ?1-высказываний.
Таким образом, мы — как, собственно, и робот — должны учитывать возможность того, что некоторые из ?-утверждений робота окажутся в действительности ошибочными, и то, что робот может самостоятельно обнаружить и исправить эти ошибки согласно собственным внутренним критериям, сути дела не меняет. А суть дела заключается в том, что поведение робота в этом случае становится как нельзя более похоже на поведение математика-человека. Человеку ничего не стоит оказаться в ситуации, когда он (или она) полагает, что истинность (или ложность) того или иного ?1-высказывания неопровержимо установлена, в то время как в его рассуждениях имеется ошибка, которую он обнаружит лишь значительно позднее. Когда ошибка наконец обнаруживается, математик ясно видит, что его ранние рассуждения неверны, причем в соответствии с теми же самыми критериями, какими он руководствовался и ранее; разница лишь в том, что ранее ошибка замечена не была, — и вот ?1-высказывание, полагаемое неопровержимо истинным тогда, воспринимается сейчас как абсолютно ложное (и наоборот).
Мы вполне можем ожидать подобного поведения и от робота, т.е. на его ?-утверждения, вообще говоря, полагаться нельзя, пусть даже он и удостоил их самолично статуса ?. Впоследствии робот может исправить свою ошибку, однако ошибка-то уже сделана. Каким образом это обстоятельство отразится на нашем выводе относительно обоснованности формальной системы Q(M)? Очевидно, что система Q(M) не является целиком и полностью обоснованной, не «воспринимает» ее как таковую и робот, так что его гёделевскому предположению G(Q(M)) доверять нельзя. К этому, в сущности, и сводится суть оговорки (b).
Попробуем выяснить, может ли наш робот, приходя к тому или иному «неопровержимому» заключению, что-либо иметь в виду, и если да, то что именно. Уместно сопоставить эту ситуацию с той, что мы рассматривали в случае математика-человека. Тогда нас не занимало, что конкретно случилось обнаружить какому-либо реальному математику, нас занимало лишь то, что может быть принято за неопровержимую истину в принципе. Вспомним также знаменитую фразу Фейнмана: «Не слушайте, что я говорю; слушайте, что я имею в виду!». Похоже, нам нет необходимости исследовать то, что робот говорит, исследовать нужно то, что он имеет в виду. Не совсем, впрочем, ясно (особенно если исследователь имеет несчастье являться приверженцем скорее точки зрения B, нежели A), как следует интерпретировать саму идею того, что робот способен что бы то ни было иметь в виду. Если бы было возможно опираться не на то, что робот ?-утверждает, а на то, что он в действительности «имеет в виду», либо на то, что он в принципе «должен иметь в виду», то тогда проблему возможной неточности его ?-утверждений можно было бы обойти. Беда, однако, в том, что в нашем распоряжении, по всей видимости, нет никаких средств, позволяющих снаружи получить доступ к информации о том, что робот «имеет в виду» или о том, что, «как ему кажется, он имеет в виду». До тех пор, пока речь идет о формальной системе Q(M), нам, судя по всему, придется полагаться лишь на доступные ?-утверждения, в достоверности которых мы не можем быть полностью уверены.
Не здесь ли проходит возможная операционная граница между точками зрения A и B? Не исключено, что так оно и есть; хотя позиции A и B эквивалентны в отношении принципиальной возможности внешних проявлений сознательной деятельности в поведении физической системы, люди, этих позиций придерживающиеся, могут разойтись в своих ожиданиях как раз в вопросе о том, какую именно вычислительную систему можно рассматривать как способную осуществить эффективное моделирование мозговой активности человека, находящегося в процессе осознания справедливости того или иного математического положения (см. конец §3.12). Как бы то ни было, возможные расхождения в такого рода ожиданиях не имеют к нашему исследованию сколько-нибудь существенного отношения.