Тест Тьюринга

Тест Тьюринга

Представьте себе, что появилась новая модель компьютера, объем памяти и число логических ячеек которого больше, чем у человеческого мозга. Представьте далее, что такие компьютеры грамотно запрограммированы и в них введено огромное количество необходимых данных. Производители убеждают вас, что эти устройства могут на самом деле мыслить, и, возможно, утверждают, что подобные компьютеры в действительности являются разумными. Или они идут еще дальше и заявляют, что эти машины могут чувствовать — чувствовать боль, радость, сострадание, гордость и т. п., и что они на самом деле понимают, что делают. То есть, как будто бы утверждается, что машины обладают сознанием.

Как нам понять, можно ли верить производителям? Когда мы покупаем устройство, мы, как правило, судим о его качестве лишь по полезным для нас функциям.

Если устройство работает по назначению, оно нас устраивает. Если нет — его ремонтируют или меняют на новое. Чтобы проверить справедливость утверждений производителей о наличии человеческих качеств у данного устройства, мы должны, в соответствии с указанным критерием, всего лишь потребовать от устройства поведения, повторяющего поведение человека в отношении данных качеств. Если устройство поведет себя удовлетворительно, к производителям нет претензий, и компьютер не требует возврата для ремонта или замены.

Такая схема дает существенно операционалистский подход к рассмотрению подобных вопросов. Операционалист скажет вам, что компьютер мыслит, если компьютер ведет себя точно так же, как и человек в момент раздумий. Примем, для начала, эту операционалистскую точку зрения. Естественно, от компьютера здесь не требуется расхаживать по комнате, подобно тому, как мог бы вести себя размышляющий о чем-то человек. Еще меньше мы озабочены тем, чтобы компьютер был внешне похож на человека или напоминал на ощупь человеческое тело: эти качества не имеют отношения к назначению компьютера. То, что нас действительно интересует — его способность выдавать схожие с человеческими ответы на любой вопрос, какой нам заблагорассудится ему задать. И мы примем, что компьютер на самом деле думает (чувствует, понимает и т. д.), если его манера отвечать на наши вопросы будет неотличима от человеческой.

Этот подход очень горячо отстаивался в знаменитой статье Алана Тьюринга [1950] «Вычислительные машины и интеллект», появившейся в 1950 году в философском журнале Mind. (Фамилию Тьюринг мы еще встретим позже.) В этой статье впервые была предложена идея того, что сейчас называют тестом Тьюринга. Тест предназначался для ответа на вопрос о том, можно ли резонно утверждать, что машина думает. Пусть утверждается, что некоторый компьютер (подобный тому, который продают производители из описания выше) в действительности думает. Для проведения теста Тьюринга компьютер вместе с человеком-добровольцем скрывают от глаз опрашивающей[22] (проницательной). Опрашивающая должна попытаться определить, где компьютер, а где человек, задавая им двоим пробные вопросы. Вопросы, а еще важнее — ответы, которые она получает, передаются в безличной форме, например, печатаются на клавиатуре и высвечиваются на экране. Единственная информация, которой будет располагать опрашивающая — это то, что она сама сможет выяснить в процессе такого сеанса вопросов и ответов. Опрашиваемый человек честно отвечает на все вопросы, пытаясь убедить женщину, что он и есть живое существо; компьютер, однако, запрограммирован таким образом, чтобы обмануть опрашивающую и убедить ее в том, что человек на самом деле он. Если в серии подобных тестов опрашивающая окажется неспособной «вычислить» компьютер никаким последовательным образом, то считается, что компьютер (или компьютерная программа, программист, разработчик и т. д.) прошел данный тест.

Можно возразить, что тест на самом деле не очень-то честный по отношению к компьютеру. Если бы роли человека и машины поменялись, и человеку нужно было бы прикидываться компьютером, определить «кто есть кто» не составило бы никакого труда: опрашивающей лишь стоило бы задать какой-нибудь очень сложный арифметический пример. Хороший компьютер тут же выдал бы правильный ответ, а человек оказался бы в замешательстве. (Здесь, однако, следует проявить осторожность. Среди людей известны «вычислительные дарования», способные в уме решать весьма нетривиальные счетные задачи с безошибочной точностью и без всяких видимых усилий. Например, сын неграмотного крестьянина Иоганн Мартин Захария Дазе[23], живший в Германии с 1824 по 1861 год, в уме перемножал любые два восьмизначных числа менее чем за минуту, а за шесть минут он перемножал два двадцатизначных числа! Такие способности не мудрено принять за результат работы компьютера. Более поздний пример (1950-е годы) — столь же исключительные вычислительные способности Александра Айткена, профессора Эдинбургского университета. Нужно, чтобы арифметическое задание опрашивающей было гораздо сложнее — например, перемножить два тридцатизначных числа за две секунды. Хороший современный компьютер запросто справится с таким упражнением.)

Итак, часть задачи программистов состояла бы в том, чтобы в некоторых вещах компьютер казался глупее, чем он есть на самом деле. Если опрашивающая задает сложный арифметический пример, подобный приведенному выше, компьютер должен притвориться, что не в силах на него ответить — иначе его немедленно изобличат! Я, правда, не думаю, что задача сделать компьютер глупее в указанном смысле является серьезной проблемой для программистов компьютеров. Главная сложность — научить компьютер отвечать на простейшие вопросы на проверку «здравого смысла», с которыми у человека вообще не будет проблем!

У конкретных вопросов такого типа есть, однако, одно слабое место. Каков бы ни был вопрос, легко придумать способ заранее научить компьютер отвечать на данный вопрос точно так же, как на него ответил бы человек. И тем не менее, недостаток понимания компьютером сути весьма вероятно обозначится при продолжительном опросе, особенно если вопросы носят нестандартный характер и требуют настоящего осмысления. Искусство опрашивающей должно включать как умение изобрести оригинальные вопросы, так и умение дополнить их позже другими вопросами на понимание таким образом, чтобы выяснить, действительно ли вопросы были усвоены. Кроме того, она может периодически подбрасывать бессмысленные вопросы (сможет ли компьютер их распознать?), или вставлять один-другой с виду бессмысленный, но на деле все-таки имеющий смысл вопрос. Например, она может спросить: «Я слышала, что сегодня утром носорог летел вверх по Миссисипи на розовом воздушном шаре. Что Вы об этом думаете?» (Тут можно живо представить себе, как лоб компьютера покрывается капельками холодного пота — если выбрать наименее подходящую метафору.) Он может оказаться начеку и ответить: «Пожалуй, это звучит странно». Что ж, пока неплохо. Женщина: «Правда? Мой дядя как-то проделал это, причем туда и обратно, только на сероватом с полосками. Чего же тут странного?» Ясно, что без понимания компьютер скоро будет разоблачен. Отвечая на первый вопрос, он может даже ляпнуть: «Носороги не летают», — если в банках памяти удачно всплывет информация о том, что у них нет крыльев. Или ответить на второй вопрос, что носороги не бывают полосатыми. А дальше женщина может, например, подсунуть совершенно бессмысленный вопрос, заменив отдельные слова: «под Миссисипи», или «внутри розового воздушного шара» и т. п., и выяснить, хватит ли у компьютера здравого смысла, чтобы обнаружить существенное различие!

Оставим на время в стороне вопрос о том, возможно ли (а если да, то когда станет возможно) создание компьютера, который пройдет тест Тьюринга. Предположим вместо этого — исключительно для того, чтобы обсудить проблему — что такие машины уже созданы. Возникает резонный вопрос, должен ли прошедший тест компьютер непременно быть признан мыслящим, чувствующим, понимающим и т. д.? Этот вопрос мы рассмотрим очень скоро, а пока обсудим некоторые связанные с ним аспекты. Например такой: если производители честны во всех своих самых смелых заявлениях и их устройство есть мыслящее, чувствующее, понимающее, сознательное существо, то покупка устройства возлагает на нас моральную ответственность. Так непременно должно быть, если производителям можно верить. Использовать такой компьютер для наших нужд и не учитывать его переживаний было бы предосудительно. С моральной точки зрения такое использование — это то же, что и жестокое обращение с рабом. Прежде всего, мы были бы должны избегать причинить компьютеру боль, которую, по утверждениям производителей, он способен чувствовать. Выключение компьютера, возможная его продажа после того, как компьютер к нам привык, были бы сопряжены для нас с моральными проблемами. Таких проблем возникло бы великое множество, и они были бы того же сорта, что и проблемы, которые возникают у нас в отношениях с другими людьми и живыми существами. Все это стало бы для нас вопросом первостепенной важности. И крайне важной для нас (да и для административных органов!) стала бы уверенность в том, что реклама производителей типа:

Каждое мыслящее устройство прошло тщательное тестирование по Тьюрингу группой наших экспертов

действительно является правдой.

Несмотря на очевидную абсурдность некоторых аспектов рассматриваемого вопроса (в частности, моральных), мне кажутся достаточно обоснованными доводы в пользу того, что успешно пройденный тест Тьюринга есть указание на присутствие мысли, интеллекта, понимания или сознания. В самом деле, на чем еще могут основываться наши убеждения в присутствии этих качеств у других людей, кроме как на беседе с ними? Строго говоря, другие критерии тоже существуют: выражение лица человека, движения его тела и, вообще, его действия могут оказать на нас весьма сильное влияние. Не будет ничего сверхъестественного, если (возможно, в недалеком будущем) появится робот, который сможет удачно имитировать человеческую мимику и жесты. Тогда необходимость прятать робота и человека от опрашивающей отпадет, но критерии теста, которые будут у нее в распоряжении, останутся неизменными.

Лично я готов к тому, чтобы значительно упростить тест Тьюринга. Мне кажется, что требовать от компьютера идеального подражания человеку так, чтобы стать неотличимым от него в каких-то существенных вопросах, это требовать от компьютера больше, чем надо. Мне бы хватило, чтобы наша проницательная опрашивающая по ответам на свои вопросы просто убедилась, что имеет дело с сознательным разумом, пусть даже чужеродным. Вот то, что реально недостижимо во всех созданных на сей день компьютерных системах. Предвижу, однако, вероятность того, что после разоблачения компьютера у опрашивающей может возникнуть (возможно, подсознательное) нежелание приписать ему разумные качества даже тогда, когда она способна эти качества различить. Или наоборот, у нее может создаться впечатление «присутствия чужеродного разума», и она станет подыгрывать компьютеру, даже если «чужеродного разума» и нет. Поэтому исходный вариант теста Тьюринга гораздо предпочтительней в силу большей объективности, и ниже я обычно буду придерживаться той схемы. Присущая ей «несправедливость» по отношению к компьютеру, о которой говорилось выше (чтобы пройти тест, компьютер должен уметь все, что и человек, а человек не обязан иметь способности компьютера), не смущает сторонников теста Тьюринга, считающих этот тест точным испытанием на способность мыслить, чувствовать и т. д. Во всяком случае, многие из сторонников теста придерживаются той точки зрения, что до того, как компьютер будет способен в действительности пройти тест, ждать осталось недолго — скажем, до 2010 года. (По прогнозам самого Тьюринга, 30 %-ное успешное прохождение теста с опрашивающим «средних» способностей и всего с 5-минутным ограничением на продолжительность опроса могло бы быть реализовано к 2000 году.) Они уверены, что даже такая «предубежденность» не способна существенно отодвинуть эту дату!

Все вышеизложенное становится важным, коль скоро ставится вопрос по сути: дает ли операционалистская схема приемлемый набор критериев, позволяющих судить о присутствии или отсутствии мыслительных способностей у объекта? По мнению некоторых, — нет, не дает. Имитация, какой бы искусной она ни была, не должна быть с необходимостью тем же, что и оригинал. Я занимаю в этом отношении скорее промежуточную позицию. Общий принцип, к которому я склоняюсь, состоит в том, что любая, даже самая искусная, имитация всегда должна быть обнаружима достаточно тщательным тестированием. Хотя, конечно, это скорее вопрос веры (или научного оптимизма), чем доказанный факт. Таким образом, в целом я готов принять тест Тьюринга как грубо адекватный в том контексте, в котором он определяется. То есть, если компьютер действительно окажется способен ответить на все заданные вопросы в точности так же, как на них ответил бы человек, и тем самым последовательно и честно[24]) надуть нашу проницательную опрашивающую, то в отсутствие свидетельств об обратном моим предположением было бы то, что компьютер действительно думает, чувствует и т. д. Использование мною слов «свидетельство», «действительно» и «предположение» подразумевает, что когда я говорю о мышлении, чувствах, понимании, или, в частности, сознании, я не отношусь к этим понятиям как к элементам общепринятой лексики, а имею в виду конкретные и объективные «вещи», присутствие или отсутствие которых в физических телах есть то, в чем мы хотели бы удостовериться. И это я считаю ключевым моментом. Пытаясь уловить присутствие данных качеств, мы делаем предположения на основании всех доступных нам свидетельств. (В принципе, точно так же действует астроном, пытаясь вычислить массу далекой звезды.)

Какие же свидетельства об обратном принимать во внимание? Наперед заданные правила установить сложно. Однако, я сразу подчеркну: тот факт, что компьютер может состоять из транзисторов и проводов, а не нейронов и кровеносных сосудов, сам по себе не является аргументом, который я рассматривал бы как свидетельство об обратном. Меня не покидает мысль, что когда-нибудь будет построена удовлетворительная теория сознания — удовлетворительная в смысле логической последовательности и физической приемлемости, чудесной согласованности с другим физическим знанием. Ее предсказания будут в точности соотноситься с представлениями человека об уровне и условиях существования его собственного сознания, — и такая теория может оказаться в действительности плодотворной в разрешении проблемы предполагаемого наличия сознания у нашего компьютера. Можно даже пофантазировать о «детекторе сознания», сконструированном по принципам такой теории — абсолютно надежном в случае человека, но дающем расходящиеся с тестом Тьюринга результаты в случае компьютера. Интерпретация результатов тестов Тьюринга тогда потребует особой осторожности. По моему мнению, отношение к вопросу о пригодности теста Тьюринга отчасти зависит от предположений о том, как будет развиваться наука и техника. Ниже нам еще придется вернуться к некоторым из этих рассуждений.

Данный текст является ознакомительным фрагментом.