Свойственны ли компьютерам капризы и причуды?

We use cookies. Read the Privacy and Cookie Policy

Компьютер представляется нам бездушной машиной, действующей в строгом соответствии с заложенной в нее программой, что само по себе исключает какую бы то ни было свободу и неопределенность. Однако в нашей книге уже рассматривались задачи, не имеющие однозначных решений; например задача о нарушении симметрии: куда покатится шар, помещенный в чашку с двумя углублениями? или же проблема восприятия: какое из изображений — ваза или лица — окажется воспринято первым? Предоставьте компьютеру подобные исходные данные, и он непременно зависнет. Решение задач такого рода следует предоставить случаю: несколько случайных флуктуаций могут «подтолкнуть» компьютер к дальнейшим вычислениям, а затем и к окончательному решению задачи. Все перепады «настроения» компьютера суть результат предварительного программирования, однако и в том случае, когда мы ничего подобного намеренно в программу не вкладывали, выдаваемые компьютером решения могут представляться как причуды или капризы. Особенно часто случается это при работе со сложными программами, содержащими множество различных процессов — проводя аналогию с психологической сферой, можно говорить о том, что одна конфликтная ситуация здесь следует за другой.

Таким образом, мы вплотную подошли к вопросу о том, насколько вообще способен компьютер воспроизвести процессы, характерные для высшей нервной деятельности. На примере распознавания текста мы уже установили, что степень сложности чрезвычайно возрастает даже при переходе от буквы к слову, не говоря уже о следующем шаге, о следующем уровне иерархии — переходе к значению предложения. Кажется, что хотя компьютер и способен воспроизвести своего рода «перекрестную связь» или, иными словами, способен к ассоциативному мышлению, он тем не менее значительно уступает в этом человеческому мозгу. И все же нельзя исключить вероятность того, что и здесь компьютер однажды сумеет превзойти мозг — не только в отношении объемов информации, которые он способен обработать, но и в самом способе обработки этой информации. Пока же думать об этом еще рано — и факт существования современных исследований в особом направлении, называемом «разработка искусственного интеллекта», ничего здесь не меняет. Несмотря на это, мы вполне можем позволить немного пофантазировать. Уже сегодня есть компьютеры, способные в определенной мере «разговаривать», а некоторые из них даже распознают (пусть и с ограничениями) простые слова и фразы, т. е. устную речь. Насколько эти способности делают машину похожей на человека? Способен ли компьютер испытывать какие-то чувства? Обладает ли он сознанием? Эти вопросы лежат за пределами собственно синергетиче-ских исследований, все же по преимуществу естественнонаучных. Тем не менее, мы коснемся здесь некоторых идей, воздержавшись, разумеется, от каких бы то ни было готовых ответов; сделано это будет, скорее, с целью дать читателю пищу для размышлений.

Что позволяет людям судить о существовании чувств? С одной стороны, мы сами способны испытывать эти чувства; с другой стороны, мы можем рассказать о своих чувствах другим людям и даже в каком-то смысле описать эти чувства. Наша способность сообщить об испытываемых нами чувствах основана, по существу, на том, что другой человек и сам способен испытывать некие чувства, иначе он никогда не понял бы, о чем идет речь. Здесь мы уже исходим из предположения, что чувства, испытываемые одним человеком, совпадают (или, по крайней мере, схожи) с чувствами другого человека. Нам никогда не удастся каким-либо образом проверить это положение объективно — вероятность того, что оно верно, велика, но убедиться в его истинности мы не в состоянии.

Прежде чем задаться вопросом о существовании чувств у компьютера, нам следует разобраться с вопросом о том, как обстоит положение с чувствами в живой природе. Люди, пожалуй, признают существование чувств у животных — в частности, чувства боли — пусть даже эти чувства у них не столь ярко проявляются, как у самих людей. Иначе складывается отношение людей к существованию чувств у представителей растительного мира. Мы срубаем деревья, срываем цветы и собираем урожай зерновых, ничуть не задумываясь о том, испытывают ли эти живые существа хоть какие-то чувства. Причина такого отношения наверняка заключена в том, что растения не могут нам ничего сообщить — в отличие от животных, которые способны издавать звуки, или пытаться вырваться, или укусить, т. е. как-то отреагировать на происходящее.

Все это говорит о том, что человек склонен признать существование чувств, только если речь идет о подобных ему самому существах, способных при этом каким-либо образом сообщить о своих переживаниях. Приведет ли дальнейшее развитие компьютеров к тому, что они станут подобны человеку? Мы уже сегодня с помощью относительно простых средств (скажем, изменив определенным образом программу) можем добиться от компьютера симуляции проявления чувств. Если какой-то из блоков компьютера оказывается перегружен, то машина может выдать нам эмоционально окрашенное сообщение о перегрузке — но будет ли это означать, что она и в самом деле испытывает те же чувства, что испытывал бы человек, перегруженный работой? На этот вопрос все мы, разумеется, ответили бы отрицательно. Жалоба машины на перегрузку — всего лишь реакция, запрограммированная человеком, а сам компьютер остается все той же бездушной железкой, какой представлялся нам до сих пор.

Но что произойдет, если у нас появятся машины, способные сами себя программировать и самостоятельно учиться, общаясь с окружающим их миром? К примеру, компьютеру-диагносту, который слышит от своих пациентов слово «боль» или — при случае — слово «радость», останется сделать всего лишь один шаг к установлению нужных связей, чтобы при отказе какого-то из своих элементов или при перегрузке использовать слово «боль». Но разве ему и в самом деле больно?

Становится ясно, что переходы от человеческого к машинному могут быть довольно плавными, и возможно, что в не столь отдаленном будущем возникнут «робоправо» или Закон о защите прав роботов, аналогичные существующему сегодня Закону о защите прав человека. Возможно также, что к этим законам о роботах люди будут относиться с большим почтением, чем к законам о правах самих людей (ведь роботы недешевы!). Сегодня это еще может показаться утопией, но вполне можно нарисовать картины такого будущего, в котором вопросы, касающиеся роботов, окажутся наиболее бурно обсуждаемыми как раз в связи с тем, что машины будут все больше и больше становиться похожи на людей. Не следует забывать, что уже сегодня существуют компьютеры, которые потрясают воображение людей несведущих — потрясают до такой степени, что те готовы обратиться к ним даже со своими душевными невзгодами. Здесь вспоминается сконструированный Йозефом Вайценбаумом компьютер Элиза, который «беседовал» с пациентами и с которым, по наблюдениям самого Вайценбаума, откровенничала даже его собственная секретарша. Образ действий компьютера был, в принципе, очень прост. К примеру, пользователь (чтобы не сказать «пациент») говорил: «У меня проблемы в общении с отцом», на что машина отвечала просьбой рассказать об этом подробнее. Основная задача компьютерной программы заключалась в том, чтобы побудить пациента как можно больше рассказать о себе. Элиза производила такое впечатление, что даже психотерапевты питали некоторые иллюзии касательно применения подобной машины в своей практике. «Отец» же Элизы, Йозеф Вайценбаум, никогда не имел в виду такого ее применения; напротив, он считал опасным доверять компьютерам задачи, которые требуют человеческой способности к суждениям, ведь даже наиумнейшая машина не способна иметь этических убеждений. Было бы глупо и безответственно предоставить машине решения тех проблем, которые корнями уходят в область этики или морали; в качестве примера можно привести такие радикальные вопросы, как, скажем, проблемы войны и мира.