Кибернетика - наука ХХ века
Кибернетика - наука ХХ векаСодержание
- Аннотация
- Кибернетика
- Кибернетика и сознание
- Конкретизация понятия “искусственный интеллект”
- Проблема искусственного интеллекта
Заключение
Список литературы
Аннотация
Искусственный интеллект является сейчас “горячей точкой” научных исследований. В этой точке, как в фокусе, сконцентрированы наибольшие усилия кибернетиков, лингвистов, психологов, философов, математиков и инженеров. Именно здесь решаются многие коренные вопросы, связанные с путями развития научной мысли, с воздействием достижений в области вычислительной техники и роботики на жизнь будущих поколений людей. Здесь возникают и получают права гражданства новые методы научных междисциплинарных исследований. Здесь формируется новый взгляд на роль тех или иных научных результатов и возникает то, что можно было бы назвать философским осмыслением этих результатов. Поэтому я посчитал актуальным раскрыть данную тему в реферате.
Кибернетика
Кибернетика возникла на стыке многих областей знания: математики, логики, семиотики, биологии и социологии.
Обобщающий характер кибернетических идей и методов сближает науку об управлении, каковой является кибернетика, с философией.
Задача обоснования исходных понятий кибернетики, особенно таких, как информация, управление, обратная связь и др. требуют выхода в более широкую, философскую область знаний, где рассматриваются атрибуты материи - общие свойства движения, закономерности познания.
Сама кибернетика как наука об управлении многое дает современному философскому мышлению. Она позволяет более глубоко раскрыть механизм самоорганизации материи, обогащает содержание категории связей, причинности, позволяет более детально изучить диалектику необходимости и случайности, возможности и действительности. Открываются пути для разработки "кибернетической" гносеологии, которая не подменяет диалектический материализм теорией познания, но позволяет уточнить, детализировать и углубить в свете науки об управлении ряд существенно важных проблем.
Возникнув в результате развития и взаимного стимулирования ряда, в недалеком прошлом слабо связанных между собой, дисциплин технического, биологического и социального профиля кибернетика проникла во многие сферы жизни.
Столь необычная "биография" кибернетики объясняется целым рядом причин, среди которых надо выделить две.
Во-первых, кибернетика имеет необычайный, синтетический характер. В связи с этим до сих пор существуют различия в трактовке некоторых ее проблем и понятий.
Во-вторых, основополагающие идеи кибернетики пришли в нашу страну с Запада, где они с самого начала оказались под влиянием идеализма и метафизики, а иногда и идеологии. То же самое, или почти то же самое происходило и у нас. Таким образом становится очевидной необходимость разработки философских основ кибернетики, освещение ее основных положений с позиции философского познания.
Осмысление кибернетических понятий с позиции философии будет способствовать более успешному осуществлению теоретических и практических работ в этой области, создаст лучшие условия для эффективной работы и научного поиска в этой области познания.
Кибернетика как перспективная область научного познания привлекает к себе все большее внимание философов. Положения и выводы кибернетики включаются в их области знания, которые в значительной степени определяют развитие современной теории познания. Как справедливо отмечают отечественные исследователи, кибернетика, достижения которой имеет громадное значение для исследования познавательного процесса, по своей сущности и содержанию должна входить в теорию познания.
Исследование методологического и гносеологического аспектов кибернетики способствует решению многих философских проблем. В их числе - проблемы диалектического понимания простого и сложного, количества и качества, необходимости и случайности, возможности и действительности, прерывности и непрерывности, части и целого. Для развития самих математики и кибернетики важное значение имеет применение к материалу этих наук ряда фундаментальных философских принципов и понятий, применение, обязательно учитывающее специфику соответствующих областей научного знания. Среди этих принципов и понятий следует особо выделить положение отражения, принцип материального единства мира конкретного и абстрактного, количества и качества, нормального и содержательного подхода к познанию и др.
Философская мысль уже много сделала в анализе аспектов и теоретико-познавательной роли кибернетики. Было показано, сколь многообещающим в философском плане является рассмотрение в свете кибернетики таких вопросов и понятий, как природа информации, цель и целенаправленность, соотношение детерминизма и теологии, соотношение дискретного и непрерывного, детерминистского и вероятностного подхода к науке.
Нужно сказать и о большом значении кибернетики для построения научной картины мира. Собственно предмет кибернетики - процессы, протекающие в системах управления, общие закономерности таких процессов.
Кибернетика и сознание
Явления, которые отображаются в таких фундаментальных понятиях кибернетики, как информация и управление, имеют место в органической природе и общественной жизни. Таким образом, кибернетику можно определить как науку об управлении и связи с живой природой в обществе и технике.
Один из важнейших вопросов, вокруг которого идут философские дискуссии - это вопрос о том, что такое информация, какова ее природа? Для характеристики природы информационных процессов необходимо кратко рассмотреть естественную основу всякой информации, а таковой естественной основой информации является присущее материи объективное свойство отражения.
Положение о неразрывной связи информации и отражения стало одним из важнейших в изучении информации и информационных процессов и признается абсолютным большинством отечественных философов.
Информация в живой природе в отличие от неживой играет активную роль, так как участвует в управлении всеми жизненными процессами.
Материалистическая теория отражения видит решение новых проблем науки и, в частности, такой кардинальной проблемы естествознания как переход от неорганической материи к органической, в использовании методологической основы диалектического материализма. Проблема заключается в том, что существует материя, способная ощущать, и материя, созданная из тех же атомов и в тоже время не обладающая этой способностью. Вопрос, таким образом, поставлен вполне конкретно и, тем самым, толкает проблему к решению. Кибернетика вплотную занялась исследованием механизмов саморегуляции и самоуправления. Вместе с тем, оставаясь методически ограниченными, эти достижения оставили открытыми ряд проблем к рассмотрению которых привела внутренняя ломка кибернетики.
Сознание является не столько продуктом развития природы, сколько продуктом общественной жизни человека, общественного труда предыдущих поколений людей. Оно является существенной частью деятельности человека, посредством которой создается человеческая природа и не может быть принята вне этой природы.
Если в машинах и вообще в неорганической природе отражение есть пассивный, мертвый физико-химический, механический акт без обобщения и проникновения в сущность обобщаемого явления, то отражение в форме сознания есть, то мнению Ф. Энгельса "познание высокоорганизованной материей самой себя, проникновение в сущность, закон развития природы, предметов и явлений объективного мира".
В машине же отражение не осознанно, так как оно осуществляется без образования идеальных образов и понятий, а происходит в виде электрических импульсов, сигналов и т.п. Поскольку машина не мыслит, эта не есть та форма отражения, которая имеет место в процессе познания человеком окружающего мира. Закономерности процесса отражения в машине определяются, прежде всего, закономерностями отражения действительности в сознании человека, так как машину создает человек в целях более точного отражения действительности, и не машина сама по себе отражает действительность, а человек отражает ее с помощью машины. Поэтому отражение действительности машиной является составным элементом отражения действительности человеком. Появление кибернетических устройств приводит к возникновению не новой формы отражения, а нового звена, опосредующего отражение природы человеком.
Конкретизация понятия “искусственный интеллект”
В понятие “искусственный интеллект” вкладывается различный смысл - от признания интеллекта у ЭВМ, решающих логические или даже любые вычислительные задачи, до отнесения к интеллектуальным лишь тех систем, которые решают весь комплекс задач, осуществляемых человеком, или еще более широкую их совокупность. Мы постараемся вычленить тот смысл понятия “искусственный интеллект” , который в наибольшей степени соответствует реальным исследованиям в этой области.
Как отмечалось, в исследованиях по искусственному интеллекту ученые отвлекаются от сходства процессов, происходящих в технической системе или в реализуемых ею программах, с мышлением человека. Если система решает задачи, которые человек обычно решает посредством своего интеллекта, то мы имеем дело с системой искусственного интеллекта.
Однако это ограничение недостаточно. Создание традиционных программ для ЭВМ - работа программиста - не есть конструирование искусственного интеллекта. Какие же задачи, решаемые техническими системами, можно рассматривать как конституирующие искусственный интеллект?
Чтобы ответить на этот вопрос, надо уяснить прежде всего, что такое задача. Как отмечают психологи, этот термин тоже не является достаточно определенным. По-видимому, в качестве исходного можно принять понимание задачи как мыслительной задачи, существующее в психологии. Они подчеркивают, что задача есть только тогда, когда есть работа для мышления, т.е. когда имеется некоторая цель, а средства к ее достижению не ясны; их надо найти посредством мышления. Хорошо по этому поводу сказал Д. Пойа: “... трудность решения в какой-то мере входит в самопонятие задачи: там, где нет трудности, нет и задачи” . Если человек имеет очевидное средство, с помощью которого наверное можно осуществить желание, поясняет он, то задачи не возникает. Если человек обладает алгоритмом решения некоторой задачи и имеет физическую возможность его реализации, то задачи в собственном смысле уже не существует.
Так понимаемая задача в сущности тождественна проблемной ситуации, и решается она посредством преобразования последней. В ее решении участвуют не только условия, которые непосредственно заданы. Человек использует любую находящуюся в его памяти информацию, “модель мира” , имеющуюся в его психике и включающую фиксацию разнообразных законов, связей, отношений этого мира.
Если задача не является мыслительной, то она решается на ЭВМ традиционными методами и, значит, не входит в круг задач искусственного интеллекта. Ее интеллектуальная часть выполнена человеком. На долю машины осталась часть работы, которая не требует участия мышления, т.е. “бессмысленная” , неинтеллектуальная.
Под словом “машина” здесь понимается машина вместе с ее совокупным математическим обеспечением, включающим не только программы, но и необходимые для решения задач “модели мира” . Недостатком такого понимания является главным образом его антропоморфизм. Задачи, решаемые искусственным интеллектом, целесообразно определить таким образом, чтобы человек, по крайней мере, в определении отсутствовал. При характеристике мышления мы отмечали, что его основная функция заключается в выработке схем целесообразных внешних действий в бесконечно варьирующих условиях. Специфика человеческого мышления (в отличие от рассудочной деятельности животных) состоит в том, что человек вырабатывает и накапливает знания, храня их в своей памяти. Выработка схем внешних действий происходит не по принципу “стимул - реакция” , а на основе знаний, получаемых дополнительно из среды, для поведения в которой вырабатывается схема действия.
Этот способ выработки схем внешних действий (а не просто действия по командам, пусть даже меняющимся как функции от времени или как однозначно определенные функции от результатов предшествующих шагов) , на наш взгляд, является существенной характеристикой любого интеллекта. Отсюда следует, что к системам искусственного интеллекта относятся те, которые, используя заложенные в них правила переработки информации, вырабатывают новые схемы целесообразных действий на основе анализа моделей среды, хранящихся в их памяти. Способность к перестройке самих этих моделей в соответствии с вновь поступающей информацией является свидетельством более высокого уровня искусственного интеллекта.
Большинство исследователей считают наличие собственной внутренней модели мира у технических систем предпосылкой их “интеллектуальности” . Формирование такой модели, как мы покажем ниже, связано с преодолением синтаксической односторонности системы, т.е. с тем, что символы или та их часть, которой оперирует система, интерпретированы, имеют семантику.
Характеризуя особенности систем искусственного интеллекта, Л. Т. Кузин указывает на: 1) наличие в них собственной внутренней модели внешнего мира; эта модель обеспечивает индивидуальность, относительную самостоятельность системы в оценке ситуации, возможность семантической и прагматической интерпретации запросов к системе; 2) способность пополнения имеющихся знаний; 3) способность к дедуктивному выводу, т.е. к генерации информации, которая в явном виде не содержится в системе; это качество позволяет системе конструировать информационную структуру с новой семантикой и практической направленностью; 4) умение оперировать в ситуациях, связанных с различными аспектами нечеткости, включая “понимание” естественного языка; 5) способность к диалоговому взаимодействию с человеком; 6) способность к адаптации.
На вопрос, все ли перечисленные условия обязательны, необходимы для признания системы интеллектуальной, ученые отвечают по-разному. В реальных исследованиях, как правило, признается абсолютно необходимым наличие внутренней модели внешнего мира, и при этом считается достаточным выполнение хотя бы одного из перечисленных выше условий.
П. Армер выдвинул мысль о “континууме интеллекта” : различные системы могут сопоставляться не только как имеющие и не имеющие интеллекта, но и по степени его развития. При этом, считает он, желательно разработать шкалу уровня интеллекта, учитывающую степень развития каждого из его необходимых признаков. Известно, что в свое время А. Тьюринг предложил в качестве критерия, определяющего, может ли машина мыслить, “игру в имитацию” . Согласно этому критерию, машина может быть признана мыслящей, если человек, ведя с ней диалог по достаточно широкому кругу вопросов, не сможет отличить ее ответов от ответов человека.
Критерий Тьюринга в литературе был подвергнут критике с различных точек зрения. На наш взгляд, действительно серьезный аргумент против этого критерия заключается в том, что в подходе Тьюринга ставится знак тождества между способностью мыслить и способностью к решению задач переработки информации определенною типа. Успешная “игра в имитацию” не может без предварительного тщательного анализа мышления как целостности быть признана критерием ее способности к мышлению.
Однако этот аргумент бьет мимо цели, если мы говорим не о мыслящей машине, а об искусственном интеллекте, который должен лишь продуцировать физические тела знаков, интерпретируемые человеком в качестве решений определенных задач. Поэтому прав В. М. Глушков, утверждая, что наиболее естественно, следуя Тьюрингу, считать, что некоторое устройство, созданное человеком, представляет собой искусственный интеллект, если, ведя с ним достаточно долгий диалог по более или менее широкому кругу вопросов, человек не сможет различить, разговаривает он с разумным живым существом или с автоматическим устройством. Если учесть возможность разработки программ, специально рассчитанных на введение в заблуждение человека, то, возможно, следует говорить не просто о человеке, а о специально подготовленном эксперте. Этот критерий, на наш взгляд, не противоречит перечисленным выше особенностям системы искусственного. интеллекта.
Но что значит по “достаточно широкому кругу вопросов” , о котором идет речь в критерии Тьюринга и в высказывании В. М. Глушкова? На начальных этапах разработки проблемы искусственного интеллекта ряд исследователей, особенно занимающихся эвристическим программированием, ставили задачу создания интеллекта, успешно функционирующего в любой сфере деятельности. Это можно назвать разработкой “общего интеллекта” . Сейчас большинство работ направлено на создание “профессионального искусственного интеллекта” , т.е. систем, решающих интеллектуальные задачи из относительно ограниченной области (например, управление портом, интегрирование функций, доказательство теорем геометрии и т.п.) . В этих случаях “достаточно широкий круг вопросов” должен пониматься как соответствующая область предметов.
Исходным пунктом наших рассуждений об искусственном интеллекте было определение такой системы как решающей мыслительные задачи. Но перед нею ставятся и задачи, которые люди обычно не считают интеллектуальными, поскольку при их решении человек сознательно не прибегает к перестройке проблемных ситуаций. К их числу относится, например, задача распознания зрительных образов. Человек узнает человека, которого видел один-два раза, непосредственно в процессе чувственного восприятия. Исходя из этого кажется, что эта задача не является интеллектуальной. Но в процессе узнавания человек не решает мыслительных задач лишь постольку, поскольку программа распознания не находится в сфере осознанного. Но так как в решении таких задач на неосознанном уровне участвует модель среды, хранящаяся в памяти, то эти задачи в сущности являются интеллектуальными. Соответственно и система, которая ее решает, может считаться интеллектуальной. Тем более это относится к “пониманию” машиной фраз на естественном языке, хотя человек в этом не усматривает обычно проблемной ситуации.
Теория искусственного интеллекта при решении многих задач сталкивается с гносеологическими проблемами.
Одна из таких проблем состоит в выяснении вопроса, доказуема ли теоретически (математически) возможность или невозможность искусственного интеллекта. На этот счет существуют две точки зрения. Одни считают математически доказанным, что ЭВМ в принципе может выполнить любую функцию, осуществляемую естественным интеллектом. Другие полагают в такой же мере доказанным математически, что есть проблемы, решаемые человеческим интеллектом, которые принципиально недоступны ЭВМ. Эти взгляды высказываются как кибернетиками, так и философами.
Проблема искусственного интеллекта
Гносеологический анализ проблемы искусственного интеллекта вскрывает роль таких познавательных орудий, как категории, специфическая семиотическая система, логические структуры, ранее накопленное знание. Они обнаруживаются не посредством исследования физиологических или психологических механизмов познавательного процесса, а выявляются в знании, в его языковом выражении. Орудия познания, формирующиеся в конечном счете на основе практической деятельности, необходимы для любой системы, выполняющей функции абстрактного мышления, независимо от ее конкретного материального субстрата и структуры. Поэтому, чтобы создать систему, выполняющую функции абстрактного мышления, т.е. в конечном счете формирующую адекватные схемы внешних действий в существенно меняющихся средах, необходимо наделить такую систему этими орудиями.
Развитие систем искусственного интеллекта за последние десятилетия идет по этому пути. Однако степень продвижения в данном направлении в отношении каждого из указанных познавательных орудий неодинакова и в целом пока незначительна.
1. В наибольшей мере системы искусственного интеллекта используют формально-логические структуры, что обусловлено их неспецифичностью для мышления и в сущности алгоритмическим характером. Это дает возможность относительно легкой их технической реализации. Однако даже здесь кибернетике предстоит пройти большой путь. В системах искусственного интеллекта еще слабо используются модальная, императивная, вопросная и иные логики, которые функционируют в человеческом интеллекте и не менее необходимы для успешных познавательных процессов, чем давно освоенные логикой, а затем и кибернетикой формы вывода. Повышение “интеллектуального” уровня технических систем, безусловно, связано не только с расширением применяемых логических средств, но и с более интенсивным их использованием (для проверки информации на непротиворечивость, конструирования планов вычислений и т.д.) .
2. Намного сложнее обстоит дело с семиотическими системами, без которых интеллект невозможен. Языки, используемые в ЭВМ, еще далеки от семиотических структур, которыми оперирует мышление.
Прежде всего, для решения ряда задач необходимо последовательное приближение семиотических систем, которыми наделяется ЭВМ, к естественному языку, точнее, к использованию его ограниченных фрагментов. В этом плане предпринимаются попытки наделить входные языки ЭВМ универсалиями языка, например полисемией (которая элиминируется при обработке в лингвистическом процессоре) . Разработаны проблемно-ориентированные фрагменты естественных языков, достаточные для решения системой ряда практических задач. Наиболее важным итогом этой работы является создание семантических языков (и их формализация) , в которых слова-символы имеют интерпретацию.
Однако многие универсалии естественных языков, необходимые для выполнения ими познавательных функций, в языках искусственного интеллекта пока реализованы слабо (например, открытость) или используются ограниченно (например, полисемия) . Все большее воплощение в семиотических системах универсалий естественного языка, обусловленных его познавательной функцией, выступает одной из важнейших линий совершенствования систем искусственного интеллекта, особенно тех, в которых проблемная область заранее жестко не определена.
Современные системы искусственного интеллекта способны осуществлять перевод с одномерных языков на многомерные. В частности, они могут строить диаграммы, схемы, чертежи, графы, высвечивать на экранах кривые и т.д. ЭВМ производят и обратный перевод (описывают графики и тому подобное с помощью символов) . Такого рода перевод является существенным элементом интеллектуальной деятельности. Но современные системы искусственного интеллекта пока не способны к непосредственному (без перевода на символический язык) использованию изображений или воспринимаемых сцен для “интеллектуальных” действий. Поиск путей глобального (а не локального) оперирования информацией составляет одну из важнейших перспективных задач теории искусственного интеллекта.
3. Воплощение в информационные массивы и программы систем искусственного интеллекта аналогов категорий находится пока в начальной стадии. Аналоги некоторых категорий (например, “целое” , “часть” , “общее” , “единичное” ) используются в ряде систем представления знаний, в частности в качестве “базовых отношений” , в той мере, в какой это необходимо для тех или иных конкретных предметных или проблемных областей, с которыми взаимодействуют системы.
В формализованном понятийном аппарате некоторых систем представления знаний предприняты отдельные (теоретически существенные и практически важные) попытки выражения некоторых моментов содержания и других категорий (например, “причина” , “следствие” ) . Однако ряд категорий (например, “сущность” , “явление” ) в языках систем представления знаний отсутствует. Проблема в целом разработчиками систем искусственного интеллекта в полной мере еще не осмыслена, и предстоит большая работа философов, логиков и кибернетиков по внедрению аналогов категорий в системы представления знаний и другие компоненты интеллектуальных систем. Это одно из перспективных направлений в развитии теории и практики кибернетики.
4. Современные системы искусственного интеллекта почти не имитируют сложную иерархическую структуру образа, что не позволяет им перестраивать проблемные ситуации, комбинировать локальные части сетей знаний в блоки, перестраивать эти блоки и т.д.
Не является совершенным и взаимодействие вновь поступающей информации с совокупным знанием, фиксированным в системах. В семантических сетях и фреймах пока недостаточно используются методы, благодаря которым интеллект человека легко пополняется новой информацией, находит нужные данные, перестраивает свою систему знаний и т.д.
5. Еще в меньшей мере современные системы искусственного интеллекта способны активно воздействовать на внешнюю среду, без чего не может; осуществляться самообучение и вообще совершенствование “интеллектуальной” деятельности.
Таким образом, хотя определенные шаги к воплощению гносеологических характеристик мышления в современных системах искусственного интеллекта сделаны, но в целом эти системы еще далеко не владеют комплексом гносеологических орудий, которыми располагает человек и которые необходимы для выполнения совокупности функций абстрактного мышления. Чем больше характеристики систем искусственного интеллекта будут приближены к гносеологическим характеристикам мышления человека, тем ближе будет их “интеллект” к интеллекту человека, точнее, тем выше будет их способность к комбинированию знаковых конструкций, воспринимаемых и интерпретируемых человеком в качестве решения задач и вообще воплощения мыслей.
В связи с этим возникает сложный вопрос. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реализуется этот процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Вообще говоря, не исключено, что механизмы, необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или даже в любой технической системе, включающей в себя только компоненты неорганической природы. Иначе говоря, в принципе не исключено, что хотя мы можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема лишь в системе, субстратно тождественной человеку.
Такой взгляд обосновывается X. Дрейфусом. “Телесная организация человека, - пишет он, - позволяет ему выполнять... функции, для которых нет машинных программ - таковые не только еще не созданы, но даже не существуют в проекте... Эти функции включаются в общую способность человека к приобретению телесных умений и навыков. Благодаря этой фундаментальной способности наделенный телом субъект может существовать в окружающем его мире, не пытаясь решить невыполнимую задачу формализации всего и вся” .
Как отмечает Б. В. Бирюков, подчеркивание значения “телесной организации” для понимания особенностей психических процессов, в частности возможности восприятия, заслуживает внимания. Качественные различия в способности конкретных систем отражать мир тесно связаны с их структурой, которая хотя и обладает относительной самостоятельностью, но не может преодолеть некоторых рамок, заданных субстратом. В процессе биологической эволюции совершенствование свойства отражения происходило на основе усложнения нервной системы, т.е. субстрата отражения. Не исключается также, что различие субстратов ЭВМ и человека может обусловить фундаментальные различия в их способности к отражению, что ряд функций человеческого интеллекта в принципе недоступен таким машинам.
Иногда в философской литературе утверждается, что допущение возможности выполнения технической системой интеллектуальных функций человека означает сведение высшего (биологического и социального) к низшему (к системам из неорганических компонентов) и, следовательно, противоречит материалистической диалектике. Однако в этом рассуждении не учитывается, что пути усложнения материи однозначно не предначертаны и не исключено, что общество имеет возможность создать из неорганических компонентов (абстрактно говоря, минуя химическую форму движения) системы не менее сложные и не менее способные к отражению, чем биологические. Созданные таким образом системы являлись бы компонентами общества, социальной формой движения. Следовательно, вопрос о возможности передачи интеллектуальных функций техническим системам, и в частности о возможности наделения их рассмотренными в работе гносеологическими орудиями, не может быть решен только исходя из философских соображений. Он должен быть подвергнут анализу на базе конкретных научных исследований.
X. Дрейфус подчеркивает, что ЭВМ оперирует информацией, которая не имеет значения, смысла. Поэтому для ЭВМ необходим перебор огромного числа вариантов. Телесная организация человека, его организма позволяет отличать значимое от незначимого для жизнедеятельности и вести поиск только в сфере первого. Для “нетелесной” ЭВМ, утверждает Дрейфус, это недоступно. Конечно, конкретный тип организации тела позволяет человеку ограничивать пространство возможного поиска. Это происходит уже на уровне анализаторной системы. Совсем иначе обстоит дело в ЭВМ. Когда в кибернетике ставится общая задача, например распознания образов, то эта задача переводится с чувственно-наглядного уровня на абстрактный. Тем самым снимаются ограничения, не осознаваемые человеком, но содержащиеся в его “теле” , в структуре органов чувств и организма в целом. Они игнорируются ЭВМ. Поэтому пространство поиска резко увеличивается. Это значит, что к “интеллекту” ЭВМ предъявляются более высокие требования (поиска в более обширном пространстве) , чем к интеллекту человека, к которому приток информации ограничен физиологической структурой его тела.
Системы, обладающие психикой, отличаются от ЭВМ прежде всего тем, что им присущи биологические потребности, обусловленные их материальным, биохимическим субстратом. Отражение внешнего мира происходит сквозь призму этих потребностей, в чем выражается активность психической системы. ЭВМ не имеет потребностей, органически связанных с ее субстратом, для нее как таковой информация незначима, безразлична. Значимость, генетически заданная человеку, имеет два типа последствий. Первый-круг поиска сокращается, и тем самым облегчается решение задачи. Второй-нестираемые из памяти фундаментальные потребности организма обусловливают односторонность психической системы. Дрейфус пишет в связи с этим: “Если бы у нас на Земле очутился марсианин, ему, наверное, пришлось бы действовать в абсолютно незнакомой обстановке; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая бы перед ним возникла, оказалась бы для него столь же неразрешимой, как и для цифровой машины, если, конечно, он не сумеет принять в расчет никаких человеческих устремлений” . С этим нельзя согласиться. Если “марсианин” имеет иную биологию, чем человек, то он имеет и иной фундаментальный слой неотъемлемых потребностей, и принять ему “человеческие устремления” значительно труднее, чем ЭВМ, которая может быть запрограммирована на любую цель.
Животное в принципе не может быть по отношению к этому фундаментальному слою перепрограммировано, хотя для некоторых целей оно может быть запрограммировано вновь посредством дрессировки. В этом (но только в этом) смысле потенциальные интеллектуальные возможности машины шире таких возможностей животных. У человека над фундаментальным слоем биологических потребностей надстраиваются социальные потребности, и информация для него не только биологически, но и социально значима. Человек универсален и с точки зрения потребностей и с точки зрения возможностей их удовлетворения. Однако эта универсальность присуща ему как социальному существу, производящему средства целесообразной деятельности, в том числе и системы искусственного интеллекта.
Таким образом, телесная организация не только дает дополнительные возможности, но и создает дополнительные трудности. Поэтому интеллекту человека важно иметь на вооружении системы, свободные от его собственных телесных и иных потребностей, пристрастий. Конечно, от таких систем неразумно требовать, чтобы они самостоятельно распознавали образы, классифицировали их по признакам, по которым это делает человек. Им цели необходимо задавать в явной форме.
Вместе с тем следует отметить, что технические системы могут иметь аналог телесной организации. Развитая кибернетическая система обладает рецепторными и эффекторными придатками. Начало развитию таких систем положили интегральные промышленные роботы, в которых ЭВМ в основном выполняет функцию памяти. В роботах третьего поколения ЭВМ выполняет и “интеллектуальные” функции. Их взаимодействие с миром призвано совершенствовать их “интеллект” . Такого рода роботы имеют “телесную организацию” , конструкция их рецепторов и эффекторов содержит определенные ограничения, сокращающие пространство, в котором, абстрактно говоря, могла бы совершать поиск цифровая машина.
Тем не менее, совершенствование систем искусственного интеллекта на базе цифровых машин может иметь границы, из-за которых переход к решению интеллектуальных задач более высокого порядка, требующих учета глобального характера переработки информации и ряда других гносеологических характеристик мышления, невозможен на дискретных машинах при сколь угодно совершенной программе. Это значит, что техническая (а не только биологическая) эволюция отражающих систем оказывается связанной с изменением материального субстрата и конструкции этих систем. Такая эволюция, т.е. аппаратурное усовершенствование систем искусственного интеллекта, например, через более интенсивное использование аналоговых компонентов, гибридных систем, голографии и ряда других идей, будет иметь место. При этом не исключается использование физических процессов, протекающих в мозгу, и таких, которые психика в качестве своих механизмов не использует. Наряду с этим еще далеко не исчерпаны возможности совершенствования систем искусственного интеллекта путем использования в функционировании цифровых машин гносеологических характеристик мышления, о которых речь шла выше.
Заключение
Развитие информационной техники позволило компенсировать человеку психофизиологическую ограниченность своего организма в ряде направлений. “Внешняя нервная система” , создаваемая и расширяемая человеком, уже дала ему возможность вырабатывать теории, открывать количественные закономерности, раздвигать пределы познания сложных систем. Искусственный интеллект и его совершенствование превращают границы сложности, доступные человеку, в систематически раздвигаемые. Это особенно важно в современную эпоху, когда общество не может успешно развиваться без рационального управления сложными и сверхсложными системами. Разработка проблем искусственного интеллекта является существенным вкладом в осознание человеком закономерностей внешнего и внутреннего мира, в их использование в интересах общества и тем самым в развитие свободы человека.
Литература:
- С. М. Шалютин “Искусственный интеллект” , М.: Мысль, 1985
- А. Эндрю “Искусственный интеллект” , М.: Мир, 1985
- Н. Винер “Кибернетика” , М.: Наука, 1983
- Г. Клаус “Кибернетика и философия” , М.: Иностранная литература, 1963