Моделирование сознания и искусственный интеллект: пределы возможностей. Искусственный интеллект versus моделирование сознания. Проблемы изучения разума

Сознание и самосознание

Сознание предполагает выделение субъектом самого себя в качестве носителя определенной позиции по отношению к миру. Это выделение себя, отношение к себе, оценка своих возможностей, которые являются необходимым компонентом всякого сознания, образуют разные формы той специфической характеристики человека, которая именуется самосознанием.

Самосознание -- динамичное исторически развивающееся образование, выступающее на разных уровнях и в разных формах. Первой его формой, которую иногда называют самочувствием, является элементарное осознание своего тела и его вписанности в мир окружающих вещей и людей. Более высокий уровень самосознания связан с осознанием себя в качестве принадлежащего к тому или иному человеческому сообществу, той или иной культуре и социальной группе. Наконец, самый высокий уровень развития этого процесса -- возникновение сознания Я как совершенно особого образования, похожего на Я других людей и вместе с тем в чем-то уникального и неповторимого, могущего совершать свободные поступки и нести за них ответственность.

С проблемой самосознания тесно связана проблема рефлексии. Рефлексия есть обращение сознания к самому себе, его направленность на свои собственные состояния, акты и содержания. Рефлексия вторичная позиция сознания. Первичной же является до-рефлексивное состояние: непосредственная направленность сознания на свой объект.

Сознание и самосознание, обеспечивая возможность самоконтроля, свободы, вменяемости и ответственности человека, являются условием возможности специфически человеческого существования в мире, возможности культурного, нравственного порядка в бытии, отличного от естественного, природного порядка, от животного существования. Самосознание предполагает сопоставление себя с определенным, принятым данным человеком идеалом Я, вынесение некоторой самооценки и - как следствие - возникновение чувства удовлетворения или недовольства собой.

Самосознание -- настолько очевидное свойство каждого человека, что факт его существования не может вызвать никаких сомнений. Более того, значительная и весьма влиятельная ветвь идеалистической философии утверждала, начиная с Декарта, что самосознание - это как раз единственное, в чем никак нельзя усомниться.

Наделенность сознанием и самосознанием превращает человеческий опыт мира и себя самого в пространство тяжкого испытания человека сомнением и суверенностью. И вместе с тем это пространство - его единственный шанс осуществиться в мире в качестве мыслящего.

Проблема сознания и мозга, искусственный интеллект

Философский анализ сознания предполагает ответ на вопрос, что собою представляет сознание с точки зрения его материального носителя - мозга, обеспечивающего способность мыслить. Любые психические явления являются функциями головного мозга. Сознание не может существовать в отрыве от материи. Интеллект (от лат. intellectus - ум, рассудок, разум), наивысшая сила, естественный свет как способность к постижению сущности вещей. Философскую значимость проблемы сознания и мозга определяет онтологический статус сознания.

Исходным пунктом философского рассмотрения сознания является уяснение его естественнонаучных предпосылок. Естествознание доказывает, что сознание не может существовать в отрыве от мозга, связано с деятельностью высокоорганизованной материи.

Учение о мозге прошло длительную историю, в которой выделяются две основные тенденции: концепция строгой локализации психических явлений и точка зрения, согласно которой мозг функционирует как единое целое.

В последнее время играет все возрастающую роль такой фактор современной жизни, как «виртуальная реальность» или «киберпространство». Фактически длительное воздействие виртуальной реальности на психику сходно с воздействием наркотиков, галлюциногенов. Многочасовое сидение детей за компьютерными играми может оказаться не столь уж безобидным занятием. Сможет ли мозг людей приспособиться к новому миру образов, созданному математическими процессами внутри компьютерных чипов? Не вызовет ли киберпространство постепенного привыкания и последующего отторжения действительности? А может быть это, напротив, шаг к новым возможностям? На эти вопросы смогут дать ответ лишь новые исследования.

Границы возможностей «властвования собой» пока совершенно неясны. Так, йоги способны находиться под водой по несколько часов, затормаживая дыхание и сердцебиение, проходить за одну ночь по 100 км без внешних признаков усталости, месяцами не принимать пищу. Не менее известны примеры внушения в состоянии гипноза.

Сказанное выше, конечно, является далеко не полным. Мы ещё многое не знаем о работе мозга, и особенно о том, что лежит в основе его высших функций и человеческого сознания. Тем не менее, прогресс в этой области в последние годы достаточно очевиден, и наука о мозге постепенно приближается к раскрытию этой тайны природы.

За последние 30--40 лет вопрос о сущности сознания часто связывается с перспективами создания «мыслящих машин» (ЭВМ). Если ранее возможность «искусственного интеллекта» категорически отрицалась нашими философами, то в последнее время наблюдается более свободное обсуждение этого вопроса.

Как в философии, так и в ряде отдельных наук, в художественной литературе ставится и по-своему осмысливается вопрос, возможно ли создание искусственного интеллекта? Начальную теоретическую основу для формализации мыслительных процессов создала формальная логика Аристотеля. С возникновением кибернетики актуализировалась задача создания искусственного интеллекта. В философии и науке возникли различные программы исследований «искусственного интеллекта», когда такие науки, как кибернетика, зоопсихология, психология, дали сильный толчок научному изучению интеллекта: создание компьютеров, способных выполнять функции, традиционно относимые к области интеллектуальной деятельности человека; попытка моделировать человеческий интеллект на основе мозгового субстрата (нейрокомпьютеры); создание искусственных самообучающихся устройств, способных эволюционировать.

С момента своего отделения от кибернетики в конце 1950-х гг. исследования в области искусственного интеллекта прошли 3 этапа:

первый этап (1950-1960-е) - время становления исследовательских программ искусственного интеллекта, формирование круга задач, относящихся к этому направлению (игры, доказательства теорем, распознавание образов, машинный перевод, робототехника), создание методов и инструментов решения этих задач;

второй этап (1970-е) - приобретение искусственным интеллектом статуса «классической» научно-технической дисциплины с проведением международных конференций, изданием журналов, чтением соответствующих курсов в университетах, созданием новых интеллектуальных программ (нечеткая логика, генетические алгоритмы, модели представления значений);

третий этап (1980-1990-е) связан с практическим использованием достижений искусственного интеллекта в различных сферах деятельности (финансах, экономике, управлении, компьютерной и бытовой технике), изучением и моделированием рациональных структур и связи с эмоциями, верованиями, чувствами, практическими методами обработки образной информации, сглаживающими современные модели искусственного интеллекта с их естественным человеческим прототипом.

Можно выделить два основных направления развития философии искусственного интеллекта. Во-первых, достаточно позитивно была воспринята идея возможности компьютерной имитации человеческой психики, после чего были приняты попытки использования этой идеи для переосмысления традиционной проблематики философии сознания, философии интеллекта, а также психофизической проблемы. Во-вторых, многие ученые попытались осмыслить проблематику искусственного интеллекта с позиций философии сознания. Именно представители этого направления впервые выразили сомнение в принципиальной разрешимости проблемы создания искусственного интеллекта и попытались выяснить, чем человеческий интеллект может принципиально отличаться от любых его возможных компьютерных имитаций.

И все же: можно ли создать машину, которая мыслила бы как человек - то есть обладающую искусственным интеллектом? Компьютер уже моделирует такие процессы, как обучение, абстрагирование, обобщение. По мнению большинства ученых, теоретически можно моделировать любые функции мозга. Вопрос в том осуществимо ли это практически (это, видимо, вопрос времени) и нужно ли вообще такое моделирование, не берем ли мы на себя несвойственные нам функции создания разума (а это уже вопрос научной этики, как и, к примеру, клонирование человека).

Чтобы создать машину, функционирующую как мозг, необходимо создать вещество, обладающее свойствами или подобное высокоорганизованной белковой материи, каковое образует мозг. Действительно, такая машина будет функционировать "как мозг", но именно функционировать, а не мыслить. Чтобы мыслить материя должна существовать не только в экономической, но и в социальной форме.

Многие споры вокруг проблемы "кибернетика и мышление" имеют эмоциональную подоплеку. Признание возможности искусственного разума представляется чем-то унижающим человеческое достоинство. Однако нельзя смешивать вопросы возможности искусственного разума с вопросом о развитии и совершенствовании человеческого разума. Разумеется, искусственный разум может быть использован в негодных целях, однако это проблема не научная, а скорее морально-этическая.

Исследования в области "искусственного интеллекта" (ИИ ) к настоящему времени привели к ряду впечатляющих результатов. Именно поэтому остро стоящий в 60-е годы XX века вопрос "может ли машина мыслить?" в настоящее время не вызывает такого интереса, поскольку на ЭВМ удалось смоделировать некоторые интеллектуальные процедуры. Более того, некоторые программные продукты по результатам своей деятельности оказываются эффективнее, чем деятельность человеческого мозга. Однако успехи, достигнутые в области ИИ, не снимают с повестки дня другой вопрос, который в несколько грубой форме может быть сформулирован так: насколько адекватно с помощью "искусственного интеллекта" удается смоделировать существенные особенности работы естественного интеллекта, работу человеческого сознания? Для того чтобы снять некоторую некорректность поставленного вопроса, необходимо учесть то, что любой продукт ИИ суть не что иное, как реализация некоторой модели интеллектуальных процессов. Тогда более точная формулировка проблемы будет заключаться в вопросе о границах применимости господствующей в настоящее время в ИИ парадигмы моделирования сознания, поскольку построение модели такого сложного феномена как сознание и, тем более, ее машинная реализация связаны с неизбежными упрощениями и схематизмом <1>. Именно этой проблематике и посвящен данный доклад.

Начну с описания интересного психологического эксперимента, идея которого была предложена советским логиком С.Ю. Масловым .

Начало эксперимента: желательно, чтобы читатель провел его на себе

Пусть нам дано следующее исчисление:

алфавит исчисления - {a, b }

правильно построенной формулой (п.п.ф.) будем считать любое, возможно пустое, слово. Например, aabba, baba, bbbbb суть п.п.ф. исчисления.

аксиомой исчисления является слово abb;

правила вывода : 1. bXbY ?XYbb ; где X, Y, Z - п.п.ф. исчисления

2. XabYbZ ?XbYabaZ

Выводом будем называть последовательность п.п.ф., начинающуюся с аксиомы исчисления, каждая формула которой получена по правилам вывода из предшествующих формул последовательности.

Например, если нам дана формула babab , то мы можем, применяя первое правило вывода, получить либо формулу ababb , при отождествлении X с aba , а Y - с пустым словом (формула babab представляется как baba b__), либо формулу aabbb при отождествлении X с a , а Y - с ab (формула babab в данном случае представляется как ba bab ). В данном случае к формуле babab применимо и второе правило вывода, которое позволяет получить формулу bbaaba , при отождествлении X с первым b, Y- со вторым a, Z - с пустым словом (т.е. если формулу представлять как b aba b).

Собственно эксперимент заключается в построении вывода в условиях жесткого временного цейтнота (2-3 минуты). Вопрос таков: выводима ли в исчислении формула aa ... abb (a <14> bb )?

Конец эксперимента: Попробуйте самостоятельно ответить на поставленный вопрос за 3 - 4 минуты.

Анализ эксперимента. Важным итогом эксперимента является постулирование ошибочного утверждения о выводимости данной формулы. При проведении эксперимента в различных аудиториях в зависимости от ужесточения временного цейтнота процент неправильных ответов колебался, причем, что интересно отметить, математическая подготовка аудитории при ужесточении временного цейтнота часто оказывала весьма плохую услугу, повышая удельный вес неправильных ответов. Анализируя условия эксперимента, можно видеть, что появление неправильных ответов связано с тем, что начальные шаги построения вывода: abb - baba - a <2>bb - ababa - baabaa - a <4>bb - .... подталкивают к формулированию естественной и кажущейся верной догадке, что выводимыми в данном исчислении являются формулы вида a <2n>bb , ошибочность которой становится очевидной при дальнейшем построении вывода <2>.

Временные ограничения как раз и необходимы для того, чтобы испытуемый успел проделать всего лишь несколько первых шагов построения, экстраполяция которых и приводит к порождению ошибочной гипотезы, вероятность формулирования которой усиливается при наличии у испытуемых математической интуиции. Условия эксперимента - форма вопроса, которая предполагает либо положительный, либо отрицательный ответ - исключает возможность ответа типа "не знаю" (этот ответ появляется при ужесточении временных ограничений менее 1 - 2 минуты, когда испытуемые не успевают сделать и первых двух-трех шагов вывода). Если же представить, что в роли испытуемого оказывается какая-либо стандартная компьютерная программа (при сохранении соответствующего временного цейтнота с учетом быстродействия машины), то, в отличие от естественного интеллекта человека, ошибочного ответа в принципе не будет. Машина либо даст правильный ответ, либо не ответит вовсе (варианты ответа: "неизвестно"; "не знаю") при недостатке временных ресурсов.

Тем самым, можно зафиксировать важное различие в поведении искусственного и естественного интеллектов, заключающееся в том, что человек, во-первых, стремится дать некоторый определенный ответ ("да" или "нет"), причем этот ответ в принципе может быть ошибочным. Таким образом, важное феноменологическое свойство естественного интеллекта заключается в его возможности ошибаться и, если усилить этот тезис, даже в его праве на ошибку. Господствующая тенденция в современной парадигме ИИ исключает такую возможность <3>. Зафиксируем это различие в противопоставлении:

возможность ошибки сознания versus безошибочность ИИ

Это связано с тем, что работа современных ЭВМ организована как работа алгоритмического вычислителя. Это, в свою очередь, означает, что программа представляет собой ряд локальных операций, каждая из которых осуществляется последовательно, друг за другом <4>. Безошибочность работы компьютера гарантируется как корректностью каждого отдельного перехода (операции), так и хорошей совместимостью операций друг с другом (правильность программы в целом). Благодаря такой организации работа компьютера в принципе безошибочна, причем, принципиальная корректность связана, прежде всего, с локальным характером работы программы. Если обратиться к приведенному выше примеру, то работа компьютера заключается в последовательном построении вывода: abb - baba - aabb - ..., и если за отведенное время удается построить соответствующий кусок вывода, то будет дан правильный (при отсутствии технических сбоев) ответ. Принципиальная корректность работы компьютера означает невозможность порождения ошибочных гипотез, а указание на локальный характер работы ЭВМ - отсутствие как такового механизма выдвижения гипотез, поскольку для выдвижения гипотез необходима другая, отличная от алгоритмического вычислителя, программа, способная "помнить" результаты своих прошлых вычислений и анализировать их. По существу, речь в данном случае идет уже о программе следующего иерархического уровня (метапрограмме), которая работает не непосредственно с "входными данными" (в приведенном примере это работа по построению вывода), а с результатами работы программы первого уровня - с результатами работы алгоритмического вычислителя. На связь "интеллектуальности" системы и степени ее иерархичности указано в работах В.М. Сергеева <5>. Здесь же заметим, что отмеченная выше локальность работы алгоритмического вычислителя существенным образом связана с отсутствием у него долгосрочной "памяти", поскольку для выполнения следующего шага достаточно "помнить" лишь результат предшествующего вычисления. Наш анализ работы систем ИИ (помимо выявления принципов безошибочности и локальности) позволяет эксплицировать и еще одну существенную особенность их работы. Речь идет о процедурном характере работы этих систем. Известное в ИИ противопоставление процедурный versus декларативный подходам к созданию программ решается в пользу процедурности [см., например, 6]. Собственно говоря, указание на алгоритмический характер программы и есть не что иное, как указание на существенно процедурный характер ее работы.

Как видно из приведенного выше примера, "механизмы" работы естественного интеллекта (сознания) существенно другие. В данном случае, это проявляется в том, что вместо решения конкретной задачи и ответа на поставленный вопрос о выводимости конкретной формулы (a <14>bb ) человек фактически пытается ответить на более глобальный вопрос об общей структуре выводимых формул. В работах С.Ю. Маслова это наблюдение о работе человеческого сознания (на основе обработки достаточно большого материала по решению логико-математических задач) представлено в общем виде как способность сознания к "глобальной обработке информации" <5>. Именно это стремление к постановке более общей проблемы (в нашем случае, вместо вопроса о выводимости конкретной формулы ставится вопрос о структуре выводимых формул) и попытка последующего ее решения привели к появлению принципиально нового способа решения задач, который может быть назван механизмом "порождения гипотез (эвристик)". В отличие от безошибочного локального поиска, который, по существу, является методом "полного перебора" (в нашем случае - полный перебор выступает как последовательное порождение всех выводимых слов), использование гипотез (эвристик) позволяет существенно сократить время поиска <6>. Возможно, гипотеза оказалась ошибочной, или, говоря другими словами, применение эвристики "пропустило" некоторое решение и, тем самым, привело к неверному (отрицательному) ответу на поставленный вопрос. Однако, несмотря на возможность ошибки, такое поведение имеет ряд прагматических преимуществ, главное из которых (подчеркнем это еще раз) - возможность быстрого принятия какого-то решения и ответного действия в условиях нехватки времени, что, видимо, способствовало биологическому выживанию особей (человека), обладающих таким - сознательным - механизмом принятия решений. Понятно, что этот фактор жесткой конкурентной борьбы за выживание практически не оказывает влияние на развитие машинного интеллекта, которое происходит в тепличных условиях.

Подводя итог первого этапа сопоставления естественного и искусственного интеллектов, зафиксируем различие их работы в следующем противопоставлении:

глобальность работы сознания versus локальность работы ИИ

Указание на способность сознания к "глобальной обработке информации" (за счет использования механизма "порождения гипотез") - важный результат, полученный на стыке логики и психологии. Однако выражения <способность к "глобальной обработке информации">, <механизм "порождения гипотез"> (как и метафора "правого - левого полушария") скорее являются яркими метафорами, которые должны получить более конструктивную проработку. Для этого необходимо ответить на более фундаментальный вопрос о том, какие "механизмы" сознания лежат в основе способности сознания к "глобальной обработке информации", каковы трансцендентальные условия этой способности.

В качестве предварительного подхода к решению этого вопроса воспользуюсь интересным примером У. Матураны , который хорошо проясняет специфику сознательной обработки информации: "Предположим, что нам надо построить два дома. С этой целью мы нанимаем две группы рабочих по тринадцать человек в каждой. Одного из рабочих первой группы мы назначаем руководителем и даем ему книгу, в которой содержатся все планы дома со стандартными схемами расположения стен, водопроводных труб, электрических проводов, окон и т.д., а, кроме того, несколько изображений дома в перспективе. Рабочие изучают эти планы и по указаниям руководителя строят дом, непрерывно приближаясь к конечному состоянию, которое определено описанием. Во второй группе руководителя мы не назначаем, а расставляем рабочих, определяя для каждого исходное положение на рабочем участке, и даем каждому из них одинаковую книгу, в которой содержатся указания относительно ближайшего пространства вокруг него. В этих указаниях нет таких слов, как дом, трубы, окна, в них нет также ни планов, ни чертежей дома, который предстоит построить. Эти указания, [процедурная инструкция - К. С.] касающееся только того, что рабочий должен делать, находясь в различных положениях и в различных отношениях, в которых он оказывается по мере того, как его положение и отношения изменяются. Хотя все книги одинаковы, рабочие вычитывают из них и применяют различные указания потому, что они начинают свою работу, находясь в разных положениях, и движутся после этого по разным траекториям изменения. Конечный результат в обоих случаях будет один и тот же, а именно - [построенный] дом... Кодирование [способ кодирования, способ обработки информации - К. С.] в этих двух случаях, очевидно, разное... В первом случае кодирование изоморфно описанию дома, выполненному наблюдателем, и образует собой фактически репрезентацию последнего. Во втором случае это не так. Первый случай типичен для способа, посредством которого наблюдатель кодирует создаваемые им системы. Второй присущ способу, посредством которого геном и нервная система образуют собой коды для организма и нервной системы соответственно. При этом никто и никогда не сумеет отыскать в этих кодах изоморфизма с описанием системы, которое могло бы быть сделано самим наблюдателем системы, с которой наблюдатель взаимодействует" .

Очевидно, что именно первый способ деятельности и представляет деятельность естественного интеллекта (сознания) человека, тогда как второй характерен не только для механизма наследственности и механизма нервной системы, например, в случае рефлекторного поведения, но и для работы современных систем ИИ. Основное различение между двумя способами организации процесса в этом примере можно выразить следующим противопоставлением:

декларативность естественного интеллекта versus процедурность ИИ

С одной стороны, это различение дополняет и уточняет ранее сделанное различение глобальность versus локальность, поскольку глобальная обработка информации невозможна без декларативности. То есть, одним из условий (трансцендентальным условием) способности сознания к "глобальной обработке информации" является декларативность: без описания (схем, планов, рисунков) никакие механизмы глобальной обработки информации невозможны. Поэтому, если всерьез говорить о моделировании сознания в рамках исследований ИИ, то необходимо каким-то образом сочетать процедурный и декларативный подходы. Без декларативного подхода никакое полноценное моделирование сознания невозможно!

Причем более внимательный анализ приведенного отрывка о двух способах строительства дома позволяет говорить, что чисто процедурный подход, соотносимый У. Матураной с работой генома и нервной системой, невозможен и даже на этом уровне необходим декларативный подход (использование описаний). Основу любой процедуры составляют какие-то неразложимые на данном уровне деятельности (анализа) элементы, на которых и базируется данная процедура (в частности, любой процедура предполагает некоторый процедурный "язык", состоящий из алфавита и слов). Эти процедурные элементы - "целостности" являются не чем иным, как описанием, хотя и описанием другого, более низкого уровня. В примере со строительством домом процедурный подход к строительству дома должен опираться, например, на понятия "кирпич", "цементный раствор", "мастерок", хотя и не предполагает использование понятий более "высокого" уровня как "дом", "стена", "крыша". Поэтому, возвращаясь к приведенному выше тезису о необходимости сочетания процедурного и декларативного подхода, уточним его следующим образом:

Специфика человеческого сознания проявляется не просто в использовании декларативного подхода (описаний одного уровня), а в способности использовать в своей деятельности, по крайней мере, двухуровневую (двухмасштабную) систему описаний.

Как можно заметить, этот тезис, с одной стороны, перекликается с приводившимся выше тезисом - критерием интеллектуальности - В. Сергеева о необходимости создания систем ИИ, способных к порождению некоторой иерархии знаний. С другой стороны, данный тезис близок к намеченному в работах С. Маслова критерию интеллектуальности как способности к порождению "башни дедуктивных исчислений", в рамках которого "переход" к следующему уровню обеспечивается "правополушарными" механизмами, в то время как "левое" полушарие отвечает за "локальную" (процедурную) работу на своем уровне описания.

Однако наш анализ был бы неполон, если бы мы не указали не еще одну важную особенность естественного интеллекта. В каком-то смысле, она играет роль еще более глубинного трансцендентального условия по отношению к уже выявленной в ходе нашего анализа способности сознания к использованию двухуровневой системы описаний. Наличие описания является необходимым, но недостаточным условием работы сознания, поскольку помимо самих описаний необходимо постулировать особый тип наблюдателя, а именно наблюдателя, способного воспринимать - или даже конструировать - такие целостности. Т.е. сознание (человек) является таким наблюдателем, который способен к "схватыванию идеи" (Платон), к "синтетической деятельности" (Кант), к порождению и работе с "превращенными формами" (Маркс). М. Мамардашвили , анализируя феномен восприятия дома, замечает, что на уровне физиологического восприятия "дом" как целостный феномен (а именно на такую целостность указывает фраза "Я вижу дом") не дан. Для того чтобы воспринимать дом в качестве дома, недостаточно указание на важность соответствующих декларативных (выразительных) средств, а необходимо постулирование особой способности, которая, говоря платоновским языком, есть способность человеческого сознания к "схватыванию идей"; для этого необходимо постулировать способность сознания к восприятию "идей" - "целостностей". Именно этим стремлением человека "схватить" идею" - общий принцип - построения вывода в нашем примере и объясняется появление неправильных ответов: человек старается решить не столько эту конкретную задачу, а "схватить" принцип решения задач подобного типа, не проводя машинообразных вычислений. Описанный выше феномен "творческой ошибки" связан с тем, что при таком подходе возможно порождение "превращенных - не совсем корректных - форм". Тем самым можно сформулировать наш последний тезис:

Существенной особенностью деятельности сознания является способность к "схватыванию идей", синтезированию "целостностей". Именно это позволяет работать с двухуровневой системой описания.

Выявленная особенность человеческого сознания к "схватыванию идей" и составляет сердцевину механизма работы сознания, что является одним из важных итогов философского исследования природы (сущности) сознания. Моделирование этой способности человеческого мышления позволит перейти на качественно новую ступень развития ИИ, позволяющую говорить о моделировании сознания как такового.

Примечания:

  • <1> - под господствующей в настоящее время парадигмой ИИ понимается, прежде всего, компьютерная метафора сознания, заключающаяся в различении "софтвера" и "хардвера", программы и физико-технической системы, обеспечивающей функционирование программы. Согласно этой метафоре сознание для мозга то же, что программа ("софтвер") для аппаратных средств ("хардвера").
  • <2> - правильный ответ НЕТ , поскольку данное исчисление является детерминированным : на каждом шаге вывода можно применить только одно правило вывода (их применение чередуется) и вывод строится однозначно (в этом смысле приводимый пример неоднозначности только сбивал с толку испытуемых). Более того, после чуть более долгого построения вывода нетрудно выявить и общую структуру выводимых формул. В частности выводимыми являются формулы вида a<2 n>bb (a <2 в степени n> bb).
  • <3> - тезис о принципиальной безошибочности "софтера" не исключает возможность технической ошибки, "сбоя" работы программы вследствие неисправности работы элементов "хардвера" (например, из-за скачка напряжения сети или неисправности какой-нибудь микросхемы). В этом смысле существенной разницы между работой искусственного и естественного интеллектов нет. Обсуждение вопроса о надежности результатов как в логическом, так и техническом смыслах, полученных с помощью ЭВМ, выходит за рамки данной статьи. Этому посвящены, например, работы .
  • <4> - заметим, что появившееся в последнее время распараллеливание работы ЭВМ, не приводит к изменению локального характера работы программы.
  • <5> - в работе интеллект рассматривается как некоторая иерархия порождения знаний, в которой можно выделить несколько уровней: 1 уровень - действия с объектами, 2 - логика этих действий ("логика действий"), 3 - металогика (логика "логики действий"). Важнейшим показателем интеллектуальности систем, по мнению В.М. Сергеева, является глубина этой иерархии. Вот как формулируется этот тезис в более поздней работе В.М. Сергеева: "В огромном большинстве построенные до сих пор искусственные интеллектуальные системы обладали очень небольшой глубиной этой иерархии, не более двойки. В настоящее время... очевидна необходимость создания систем, способных действовать "металогически", осмысленно менять логику построения мира - выбирать ее в соответствии с обстоятельствами. Такие системы должны иметь глубину иерархии порождения знаний не менее трех".
  • <5> - в работах С.Ю. Маслова в качестве объясняющего принципа этой познавательной способности выбрана метафора "правого - левого полушария". В рамках этого подхода проблема, поставленная в этой статье, выглядит так. Существующие в настоящее время программы ИИ хорошо моделируют только "левополушарные" механизмы обработки информации, а для моделирования работы сознания необходимо моделирование "правополушарных" механизмов обработки информации. Однако, на сегодняшний день метафора "правого - левого полушария" явно недостаточна для более серьезного разговора о специфике познавательных (сознательных) механизмов.
  • <6> - в логике под "эвристикой" и понимают, прежде всего, средство сокращения перебора , акцентируя внимание "результате" действия эвристики. Причем, в отличие от логических методов поиска, которые полны, т.е. находят решение, если оно существует, эвристические методы поиска такой полнотой не обладают и могут "пропустить" существующее решение.

Литература

  1. Маслов С.Ю. Теория поиска вывода и вопросы психологии творчества //Вопросы семиотики, 1979, вып.13, С.17 - 46
  2. Анисимов А. ЭВМ и понимание математических доказательств //Вопросы философии, 1987, N 3
  3. Логика и компьютер (моделирование рассуждений и проверка правильности программ) М., Наука, 1990
  4. Сергеев В.М. Искусственный интеллект как метод исследования сложных систем //Системные исследования: методологические проблемы (ежегодник) М., Наука, 1984
  5. Сергеев В.М. Искусственный интеллект: Опыт философского осмысления //Будущее искусственного интеллекта М., Наука, 1991
  6. Лорьер Ж.-Л. Системы искусственного интеллекта М., Мир, 1991
  7. Маслов С.Ю. Теория дедуктивных систем и ее применения. - М., Советское радио, 1986.
  8. Маслов С.Ю. Асимметрия познавательных механизмов и ее следствия //Вопросы семиотики, 1983, Вып.20. С.3 - 34
  9. Серебрянников О.Ф. Эвристические принципы и логические исчисления. М.: Наука, 1970.
  10. Пойа Д. Как решать задачу. - М.: Учпедгиз, 1959.
  11. Матурана У. Биология познания //Язык и интеллект. - М., Прогресс, 1995.
  12. Мамардашвили М.К. Как я понимаю философию. - М., Прогресс, 1992.

На всем протяжении развития философии, начиная с античности, неоднократно ставилась проблема соотношения психических и физических (а затем и физиологических) явлений и процессов. Особый интерес к ней проявился в философии Нового времени в связи с поисками оснований человеческого сознания. Так, гилозоизм (от греч. hyle - вещество, материя, zoe - жизнь), исходивший из признания одушевленности всех тел, Космоса, природы, пытался отыскать корни психических явлений в материальном мире. Разделявший его установки Б. Спиноза, например, считал мышление атрибутом материи, свойством, присущим всей природе.

В XIX в. вульгарным материализмом (от лат. vulgarus - обыкновенный, простой), теоретическим предшественником которого являлся французский философ XVIII в. П. Кабанис, были предприняты попытки свести сложные психические процессы к физиологическим проявлениям работы человеческого мозга. Современные варианты этой традиции, в частности, представлены в биополевых концепциях сознания, точно так же недооценивающих идеальную сущность сознания, его социокультурную природу.

В отличие от вульгарного материализма и идеализма, диалектико-материалистическая философия исходила из признания того, что сознание человека, будучи идеальным по своей природе, является функциональным свойством высокоорганизованной материи - человеческого мозга.

Во 2-й половине XX в. благодаря информационно-компьютерной революции возникли новые возможности исследования работы человеческого мозга и его функций с помощью систем искусственного интеллекта. В исследованиях по искусственному интеллекту можно выделить четыре взаимосвязанные области, в которых разрабатываются:

1) системы, имитирующие отдельные творческие процессы (программы для решения игровых задач, автоматического перевода, доказательства теорем, распознавания изображений и т. д.);

2) интеллектуальные системы, основанные на знаниях (информационно-поисковые, расчетно-логические, экспертные);

3) новая архитектура ЭВМ (ЭВМ пятого поколения и новые технологии их использования);

4) интеллектуальные роботы (например, автономные транспортные средства, вооруженные многочисленными сенсорными системами).

Разработки в области искусственного интеллекта заложили реальную основу для проверки философских и научных гипотез о природе человеческого разума. Философия оказалась сопричастной экспериментальной деятельности, осуществляемой при разработке программ искусственного интеллекта. Так, например, в ходе попыток создания универсальных обучающих программ (М. Бонгард) была успешно апробирована идея Дж. Локка о распознавании как основе мышления. Создание программ, понимающих естественный язык, программ, способных доказывать математические теоремы, в частности, базируется на трактовке разума Г. Лейбницем, рассматривавшим его не в качестве «чистой доски», а, выражаясь современным языком, совокупности специализированных программ, подключающихся к работе по мере необходимости. За обнаружившейся необходимостью введения в программы искусственного интеллекта «универсальных объяснительных схем» просматривается идея И. Канта о существовании «априорных синтетических суждений», таких, как понятие причинности, представление о пространстве и времени.


В современной гуманитаристике проблема искусственного интеллекта рассматривается в следующих аспектах:

1) разработка критериев эффективности разрабатываемых алгоритмов обработки неформализованных данных (таких, как обычная человеческая речь), языковой коммуникации с другими машинами и людьми «на право» считаться искусственным интеллектом (это связано с именем Алана Тьюринга и предложенным им «тестом Тьюринга» - искусственным интеллектом может считаться такой алгоритм, при общении с которым независимый наблюдатель-человек не сможет провести различие между человеком и машиной;

2) обсуждение антропологических проблем в контексте информационных технологий (что есть «человек», если большинство реальных жизненных функций человека можно свести к коммуникации в сетевой среде; что произойдет, если мощь искусственного интеллекта по каким-то причинам вступит в противоборство с человеческим; условно говоря, «за счет чего армия людей сможет победить армию боевых роботов, и сможет ли вообще» - вопрос пока из области фантастики, но доступный для теоретического моделирования);

3) обсуждение особой этики информационного общества, этикета сетевого общения и «этикета» для машин.

В обсуждении этих и других подобных вопросов принимают участие не только ученые и специалисты в сфере ИТ, но философы, культурологи, психологи (Славой Жижек, Умберто Эко, Мануэль Кастельс и др.)

Таким образом, разработка проблемы искусственного интеллекта создает предпосылки для синтеза естественнонаучного и гуманитарного подходов к анализу феномена человеческого сознания, к разгадке его тайны.

Проблемы моделирования сознания. Искусственный интеллект

На всем протяжении развития философии, начиная с античности, неоднократно ставилась проблема соотношения психических и физических (а затем и физиологических) явлений и процессов. Особый интерес к ней проявился в философии Нового времени в связи с поисками оснований человеческого сознания. Так, гилозоизм (от греч. hyle - вещество, материя, zoe - жизнь), исходивший из признания одушевленности всех тел, Космоса, природы, пытался отыскать корни психических явлений в материальном мире. Разделявший его установки Б. Спиноза, например, считал мышление атрибутом материи, свойством, присущим всей природе.

В XIX в. вульгарным материализмом (от лат. vulgarus - обыкновенный, простой), теоретическим предшественником которого являлся французский философ XVIII в. П. Кабанис, были предприняты попытки свести сложные психические процессы к физиологическим проявлениям работы человеческого мозга. Современные варианты этой традиции, в частности, представлены в биополевых концепциях сознания, точно так же недооценивающих идеальную сущность сознания, его социокультурную природу.

В отличие от вульгарного материализма и идеализма, диалектико-материалистическая философия исходила из признания того, что сознание человека, будучи идеальным по своей природе, является функциональным свойством высокоорганизованной материи - человеческого мозга.

Во 2-й половине XX в. благодаря информационно-компьютерной революции возникли новые возможности исследования работы человеческого мозга и его функций с помощью систем искусственного интеллекта. В исследованиях по искусственному интеллекту можно выделить четыре взаимосвязанные области, в которых разрабатываются:

1) системы, имитирующие отдельные творческие процессы (программы для решения игровых задач, автоматического перевода, доказательства теорем, распознавания изображений и т. д.);

2) интеллектуальные системы, основанные на знаниях (информационно-поисковые, расчетно-логические, экспертные);

3) новая архитектура ЭВМ (ЭВМ пятого поколения и новые технологии их использования);

4) интеллектуальные роботы (например, автономные транспортные средства, вооруженные многочисленными сенсорными системами).

Разработки в области искусственного интеллекта заложили реальную основу для проверки философских и научных гипотез о природе человеческого разума. Философия оказалась сопричастной экспериментальной деятельности, осуществляемой при разработке программ искусственного интеллекта. Так, например, в ходе попыток создания универсальных обучающих программ (М. Бонгард) была успешно апробирована идея Дж. Локка о распознавании как основе мышления. Создание программ, понимающих естественный язык, программ, способных доказывать математические теоремы, в частности, базируется на трактовке разума Г. Лейбницем, рассматривавшим его не в качестве «чистой доски», а, выражаясь современным языком, совокупности специализированных программ, подключающихся к работе по мере необходимости. За обнаружившейся необходимостью введения в программы искусственного интеллекта «универсальных объяснительных схем» просматривается идея И. Канта о существовании «априорных синтетических суждений», таких, как понятие причинности, представление о пространстве и времени.

В современной гуманитаристике проблема искусственного интеллекта рассматривается в следующих аспектах:

1) разработка критериев эффективности разрабатываемых алгоритмов обработки неформализованных данных (таких, как обычная человеческая речь), языковой коммуникации с другими машинами и людьми «на право» считаться искусственным интеллектом (это связано с именем Алана Тьюринга и предложенным им «тестом Тьюринга» - искусственным интеллектом может считаться такой алгоритм, при общении с которым независимый наблюдатель-человек не сможет провести различие между человеком и машиной;

2) обсуждение антропологических проблем в контексте информационных технологий (что есть «человек», если большинство реальных жизненных функций человека можно свести к коммуникации в сетевой среде; что произойдет, если мощь искусственного интеллекта по каким-то причинам вступит в противоборство с человеческим; условно говоря, «за счет чего армия людей сможет победить армию боевых роботов, и сможет ли вообще» - вопрос пока из области фантастики, но доступный для теоретического моделирования);

Анализ статьи Серла «Сознание, мозг и программы» Статья представляет собой попытку автора опровергнуть два тезиса, которые выдвигаются сторонниками «сильной версии» искусственного интеллекта, а именно: 1. Тезис о том, что компьютер обладает некоторыми «когнитивными состояниями» (среди которых, главным образом, рассматривается понимание) 2. Тезис о том, что компьютер способен объяснять человеческое познание. Серл рассматривает эксперимент, описанный в работе Шэнка, в ходе которого компьютерная программа как будто бы ведет себя также, как человек, понимающий определенную ситуацию. Серл задается вопросом, действительно ли машина проявляет способность, аналогичную человеческой способности понимания и формулирует отрицательный ответ на этот вопрос. Таким образом, тезис, защищаемый автором, заключается в том, что никакого понимания у компьютера нет и это просто невозможно. Для подтверждения своей позиции автор описывает мысленный эксперимент, в ходе которого на этот раз человек, не обладающий никаким пониманием китайского ведет себя аналогично действиям компьютерной программы. Намерение автора заключается в том, чтобы показать, что выполнение определенных указаний человеком, у которого отсутствует подлинное понимание того, что он делает (в силу незнания языка «программы») возможно, более того, это выполнение можно довести до почти идеального, автоматического уровня, однако, это не свидетельствует в пользу того факта, что в ходе улучшения процесса выполнения команд человек начинает понимать их язык или хотя бы приближается к этому. Этот контр-пример, по мысли Серла, должен показать, что и компьютер может работать в этой ситуации, что вывод о том, что компьютер обладает подлинным пониманием ситуации из того факта, что он хорошо справляется с формулируемой задачей, является попросту необоснованным. На описание своего мысленного эксперимента Серл получил несколько ответов от людей, занимающихся изучением искусственного интеллекта, при этом они сильно отличались между собой. Далее в статье автор рассматривает ряд этих ответов и предпринимает попытку их анализа. Рассмотрим некоторые из приведенных ответов и попытки Серла их проанализировать 1. 1. Первый ответ Серлу («Ответ от систем») заключается в том, что индивид, описанный Серлом может и не обладать пониманием, тогда как пониманием обладает 1 Мы рассмотрим не все полученные Серлом ответы, а только те из них, которые являются либо наиболее общими, либо наиболее дискуссионными. Соответственно, мы оставим за рамками рассмотрения те их них, ответы на которые уже так или иначе включаются в ответы на другие, более общие возражения. вся система, в которую он вписан. Серл, в свою очередь, отвечает на это возражение тем, что работающего с китайскими символами человека можно было бы рассматривать и как систему, если, допустим, он выучит наизусть все символы, которые он раньше получал от других людей, а также выучит наизусть все правила, с помощью которых он оперирует этими символами. К тому же, если довести его способность производить вычислительные операции над символами почти до автоматической, то, по мысли Серла, в системе не останется больше ничего, что не охватывалось бы способностями человека. Тем не менее, некоторые сторонники ИИ утверждают, что человек с этими «улучшенными» способностями заключает в себе две подсистемы: манипулирующую английским языком на мета-уровне и формально манипулирующую китайским как объектным. Для Серла же между этими двумя подсистемами - принципиальный разрыв: английский этот человек понимает, но китайский, по его мнению, ни в какой форме нет. То, что делает этот человек с китайскими символами, по его мнению - лишь манипуляции над символами, значения которых человек может вовсе и не знать, несмотря на то, что он знает правила манипулирования алфавитом, то есть знаком со способом получения новых слов. Серл сводит подсистему, манипулирующую китайскими символами к английской подсистеме, заявляя, что понимание принципиально возможно только относительно последней. Серл считает, что с формальной точки зрения человек может рассматривать символы китайского языка как не нагруженные никакой информацией. В противном случае, большинство некогнитивных (не способных к когнитивным процессам) систем должны быть признаны когнитивными. На мой взгляд, в своих утверждениях Серл прав. Действительно, человек, выучивший все символы и правила китайского обладает бОльшим объемом знаний. Более того, ему больше не нужно получать данные от внешних агентов. В этом смысле он работает как замкнутая (самодостаточная) система, к тому же, действительно, его непонимание китайского так и остается непониманием, подразумевающим только формальное оперирование символами по правилам. Но можно, однако, возразить, что приведенный Серлом ответ не является в полном смысле ответом на возражение теории систем. Дело в том, что это возражение строится на разделении «внутренней работы» человека и внешней по отношению к нему системы - людей, которые дают ему эти данные и которые обладают пониманием китайского. В этом смысле принципиальный момент возражения относится к тому факту, что человек может работать чисто формально, то есть совершать чисто синтаксические переходы, тогда как семантика системы всегда будет внешней по отношению к его работе. Тогда получается, что даже если человек научился большему количеству процессов (более богатый алфавит + операции), его «система» стала богаче, но в то же время богаче должна стать и «семантика» его системы. Попросту говоря, он не выучивает произвольный алфавит и не запоминает произвольные правила оперирования с символами, - он выучивает именно то, что представляют ему носители китайского языка (или те, кто понимают китайский). А этот факт говорит о том, что даже более «богатая система» работающего должна быть вписана во всегда более богатую систему «семантики». 2 . «Ответ от моделирования работы мозга» заключается в утверждении о том, что можно написать программу, которая будет искусственно моделировать последовательность возбуждения нейронов в мозге человека, понимающего китайский язык. Машина, работающая на основании такой программы (или набора параллельно работающих программ) будет получать на входе вопросы, задаваемые на китайском языке, в процессе переработки модулирует действительную работу мозга, а на выходе выдает ответ, который мог бы дать носитель китайского. Такая машина, по мысли авторов этого ответа, в действительности моделирует работу мозга носителя китайского языка, соответственно, необходимо признать, что она, также, как и носитель китайского языка, обладает пониманием языка. На это возражение Серл отвечает следующим образом: даже так сложно устроенная машина не может обладать аналогичным пониманием. По его мнению, этот тезис можно доказать на контр-примере: сконструировать сложных механизм, соединяющий между собой множество шлангов клапанами. При получении человеком (который все еще не знает китайского) сигнала на китайском, он сверяется с программой и открывает/закрывает определенные клапаны. При этом, по мысли Серла, каждое соединение представляет собой именно синапсу, протекающему в человеческом мозге, поэтому ряд открытий и закрытий клапанов приводит к результату - выдаче на выходе ответа на китайском. При этом ясно, что человек, регулирующий шланги, все еще не обладает знанием китайского, так же, как и, очевидно, ни шланги, ни клапаны им не обладают. И моделирование формальной последовательности нейронных связей не обеспечивает понимания, так как не моделирует каузальной способности мозга. Иными словами, для понимания не достаточно воспроизвести эту последовательность возбуждений, способность продуцировать интенциональные состояния остается незатронутой. На мой взгляд, сравнение Серла модели работы мозга с системой шлангов и клапанов не является в полной мере аргументом при ответе на это возражение. В ответе было сформулировано, что программа моделирует последовательность возбуждения нейронов, что, на мой взгляд, является более сложным механизмом, чем тот, который описал Серл. Однако, судить о том, как именно происходит это моделирование из приведенного ответа нельзя, здесь необходимо было бы углубиться в подробности работы конкретной программы, чего авторы ответа делать не хотели. Иными словами, судить о корректности этого возражения на основании недостаточных данных невозможно, остается вероятность, что, допустим, изучив работу конкретной программы мы могли бы как согласиться с этим возражением, так и опровергнуть его. 3. «Комбинированный ответ» представляет собой попытку составления трех предыдущих ответов2 в о д и н. Иными словами, авторы предлагают создание гипотетического робота, который работает на основе программы, аналогичной человеческому мозгу, и поведение которого неотличимо от поведения человека. И вот такой системе, по мнению авторов ответа, мы вынуждены приписать интенциональность. Серл отвечает, что действительно, мы вынуждены были бы признать, что такая система обладает интенциональностью, поскольку мы могли бы судить о ее работе только по внешним признакам. Однако, далее он продолжает, что это возражение не относится к претензиями сильного ИИ, утверждая лишь, что возможно смоделировать робота, внешнее поведение которого будет неотличимо от поведения человека. И на основании этого поведения мы могли бы сделать допущение об интенциональности, но только пока не доказано обратное. Однако, по мысли Серла, более глубокие знания о работе такого робота не позволили бы нас сделать такого вывода: если бы мы знали, что он работает на основе формальной программы, мы бы опять признали, что из этого мы не можем вывести тезиса о том, что он обладает ментальными состояниями (и здесь Серл воспроизводит свой ответ на предыдущее возражение). Мы могли бы предположить, что работу этого робота координирует человек, который также интерпретирует формальные символы, как и раньше. И этот факт доказывает, что гипотеза о наличии понимания является необоснованной: человек, координирующий поведение робота все так же не понимает бессмысленные для него символы китайского, хотя с помощью английских правил ему отлично удается воспроизводить такое поведение робота, которое внешне неотличимо от поведения человека. На мой взгляд, Серл действительно прав в своем возражении. В силу того, что поведение робота схоже с человеческим, мы не могли бы сделать вывода о внутренней 2 Из которых мы не перечислили «ответ от робота», возражение на который охватывается тем возражением, которое Серл приводит в ответ на первый контр-аргумент. работе его программы. А если бы мы действительно узнали, что программа работает также формально, то предыдущий аргумент Серла является и здесь корректным. Другое дело, что Серл снова отвечает на возражение не совсем контр-аргументом, а примером, который просто подтверждает его тезис. 4 . «Ответ от нескольких обиталищ» предполагает, что в будущем возможно создание более мощных компьютеров, которые будут способны воспроизводить каузальные процессы в мозге, которые влияют на наличие интенциональности, то есть утверждает, что даже если на данный момент ИИ не создан, а находится на стадии разработок, тем не менее, ничего не мешает его созданию на основе более мощной технологической базы. Серл отвечает, что этот аргумент также не соотносится с тем, что он назвал претензией сильного ИИ, а именно с утверждением о том, что ментальные процессы человека могут быть сведены и воспроизведены в виде вычислительного процесса, производимого компьютером, который работает на основе формальной программы. Автор стремится подчеркнуть именно разрыв между уровнем формального вычисления и уровнем каузальных процессов человеческого мозга. И именно каузальных процессов и не хватает машине для того, чтобы суметь воспроизвести интенциональность. Я считаю, что и этот ответ Серла обоснован. Действительно, в начале своей статьи он постулирует два тезиса, которые будет пытаться опровергнуть. В этом смысле, он и правда не ставит себе цель отрицать возможность разработки ИИ в будущем, он лишь стремится показать, что работа с формальной программой не дает возможности компьютеру воспроизводить ментальные состояния человеческого мозга и что, соответственно, интенциональности такой работе мы приписать не можем. В заключение я хочу привести некоторые общие размышления об аргументах Серла. На мой взгляд, тот факт, что, действительно, как показал Серл, не все ответы соотносятся с поставленной им проблемой и порой отвечают на другие, не связан с тем, что теории, от которых разворачиваются эти ответы, неспособны опровергнуть утверждения Серла. Дело в том, что сама проблема изначально сформулирована двояко: по сути дела, Серл возражает не «претензиям ИИ», а тезису о том, что человеческое понимание способно строится как связь формальных процедур. В этом смысле и пример китайской комнаты направлен именно на этот факт, он никак не соотносится с разработками ИИ, а связан только с разграничением синтаксического и семантического уровня работы человеческого познания. Поэтому ясно, что когда автор формулирует свой тезис как возражение «претензиям ИИ» он и получает ответы в духе последнего - о том, что эти разработки еще, действительно, не завершены, но ничто не мешает им реализоваться в будущем. Мысль Серла, которую он формулирует после ответов на возражения заключается в том, что если бы мы свели уровень ментальных процессов человеческого мозга к уровню формальных процессов, то мы потеряли бы суть сознания, которая заключается не в самих формальных процессах, а в их свойствах. Иными словами, за рамками рассмотрения тогда остается неформальность мыслительной деятельности человека, а также когнитивные состояния, среди которых оказываются понимание и пр. А это утверждение относится только к области теории познания, а не к разработкам и будущему ИИ. Говоря же, что Серл отрицает претензии ИИ только лишь потому, что ИИ мог бы явиться тем механизмом, который воспроизводит это разграничение в познавательной деятельности (синтаксический и семантический уровень) и, как следствие, не способен его преодолеть, является, на мой взгляд, скрытой подменой проблемы, поскольку речь начинает переходить в область следствий (определенной ограниченности ИИ), тогда как проблема изначально относится к другой области исследований.