Искусственный интеллект. Реферат: Искусственный разум

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

ЛИНГВОГУМАНИТАРНЫЙ КОЛЛЕДЖ УЧРЕЖДЕНИЯ ОБРАЗОВАНИЯ

«МИНСКИЙ ГОСУДАРСТВЕННЫЙ ЛИНГВИСТИЧЕСКИЙ УНИВЕРСИТЕТ»

по дисциплине «Основы современного естествознания»

Тема: Философские проблемы искусственного интеллекта

ВВЕДЕНИЕ

Возникновение и интенсивное развитие электронно-вычислительной техники при постоянно расширяющейся сфере ее использования, взаимосвязанное с изменениями в жизненно важных сферах общества, включая экономику, социальную структуру, политику, науку, культуру и повседневную жизнь людей, является объектом изучения различных гуманитарных дисциплин, в том числе и философии.

Первые систематические попытки выявления и изучения философских проблем, связанных с компьютерной техникой и открываемыми ею возможностями, были предприняты в рамках того, что может быть названо кибернетическим движением в широком смысле.

Появление компьютерных систем, которые стали называть интеллектуальными системами, и развитие такого направления, как искусственный интеллект, побудило по-новому взглянуть на ряд традиционных теоретико-познавательных проблем, наметить новые пути их исследования, обратить внимание на многие, оставшиеся ранее в тени аспекты познавательной деятельности, механизмов и результатов познания.

Искусственный интеллект является сейчас одной из быстро развивающихся областей научных исследований. Именно данная область научного знания охватывает многие коренные вопросы, которые связаны с методами развития научной мысли, с влиянием достижений и последствий усовершенствования вычислительной техники на жизнь будущих поколений людей.

Современные философы и исследователи науки часто рассматривают искусственный интеллект и искусственную жизнь как прекрасный пример для междисциплинарной интеграции многих научных областей. Химики, биологи, кибернетики, лингвисты, психологи, философы, математики, инженеры и другие изучают различные аспекты взаимодействия живых систем и искусственного интеллекта. При этом формируется новый взгляд на роль тех или иных научных результатов и возникает то, что может быть названо философским осмыслением полученных результатов.

Ученые университетских и промышленных исследовательских лабораторий стремятся к дерзкой цели: построение компьютеров, действующих таким образом, что по результатам работы их невозможно было бы отличить от человеческого разума. Терпеливо продвигаясь вперед в своем нелегком труде, исследователи, работающие в области искусственного интеллекта, постоянно вступают в схватку с весьма запутанными проблемами, далеко выходящими за пределы традиционной информатики.

Для создания машин, имитирующих работу человеческого мозга, необходимо разобраться в том, как действуют миллиарды его взаимосвязанных нейронов. По современным научным данным, человеческий мозг содержит около 2 основных вычислительных узлов нейронов, которые соединяют около 2 связей синапсов. На сегодняшний день современные вычислительные системы стремительно приближаются по своим вычислительным возможностям к мозгу. Музыкальные компьютеры могут за короткое время давать новые музыкальные инструментовки для композиций в любых вариациях. Роботы, руководимые компьютерами, могут, в определенной степени, узнавать речь, корректировать свои движения и выполнять сложные работы. Искусственные нейронные сети контролируют сложнейшие системы управления и слежения, проявляют способности в области распознавания изображения, вплоть до возможности создания интеллектуальных автопилотов.

Программы порой столь совершенны, что в решении поставленных задач средний человек не может с ними соревноваться. Например, есть программы, ищущие и доказывающие новые теоремы математической логики, а современные шахматные программы может не обыграть даже хороший гроссмейстер. Искусственный интеллект и робототехника базируются на компьютерах и развиваются почти так же стремительно, как и компьютеры, ибо зависят от быстродействия и памяти последних.

В таких условиях приобретает особую значимость рассмотрение основных философских вопросов, связанных с искусственным интеллектом. В качестве решения философской проблемы компьютерного моделирования мышления в реферате рассмотрены вопросы мышления и самосознания. При этом необходимо не только конкретизировать понятие об искусственном интеллекте, историю его развития, но и изучить философские основы кибернетики как науки и проблемные вопросы, которые связаны с компьютеризацией общества.

1. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ КАК ПУТЬ РАЗВИТИЯ НАУЧНОЙ МЫСЛИ

1.1 Конкретизация понятия «искусственный интеллект»

Интеллект (от лат. intellectus - ум, рассудок) - общий умственній потенциал человека, степень реализации способностей, которые он целесообразно использует для приспособления к жизни 1, с.259.

Интеллект выражает все умственные функции человека, всю совокупность его познавательных умений; ощущения, восприятие, память, представление, мышление, воображение.

В понятие «искусственный интеллект» вкладывается различный смысл - от признания интеллекта у ЭВМ, решающих логические или даже любые вычислительные задачи, до включения в интеллектуальные лишь те системы, которые решают весь комплекс задач, осуществляемых человеком, или еще более широкую их совокупность.

Искусственный интеллект может рассматриваться как:

· умение решать сложные задачи;

· способность к обучению, обобщению и аналогиям;

· возможность взаимодействия с внешним миром путем общения, восприятия и осознания воспринятого.

По мнению Цеханова 2, искусственный интеллект - это наука, занимающаяся исследованием и построением интеллектуальных систем, то есть таких систем, которые способны осуществлять интеллектуальные действия, присущие человеческому мышлению.

Как отмечалось, в исследованиях по искусственному интеллекту ученые отвлекаются от сходства процессов, происходящих в технической системе или в реализуемых ею программах, с мышлением человека. Если система решает задачи, которые человек обычно решает посредством своего интеллекта, то мы имеем дело с системой искусственного интеллекта.

Однако это ограничение недостаточно. Создание традиционных программ для ЭВМ - работа программиста, в то же время не есть конструирование искусственного интеллекта. Какие же задачи, решаемые техническими системами, можно рассматривать как конституирующие искусственный интеллект?

Чтобы ответить на этот вопрос, надо выяснить задачи технических систем. Однако данный термин тоже не является достаточно определенным. В психологии можно квалифицировать данные задачи как мыслительные задачи. Они подчеркивают, что задача есть только тогда, когда есть работа для мышления, то есть, когда существует определенная цель, а средства к ее достижению не ясны, их надо найти посредством мышления.

Если задача не является мыслительной, то она решается на ЭВМ традиционными методами и, значит, не входит в круг задач искусственного интеллекта. Ее интеллектуальная часть выполнена человеком. На долю машины тогда остаётся часть работы, которая не требует участия мышления.

Задачи, решаемые искусственным интеллектом, целесообразно определить таким образом, чтобы человек, по крайней мере, в определении отсутствовал. При характеристике мышления мы отмечали, что его основная функция заключается в выработке схем целесообразных внешних действий в бесконечно варьирующих условиях.

Искусственный интеллект обладает следующими особенностями:

1) наличие у них собственной внутренней модели внешнего мира; эта модель обеспечивает индивидуальность, относительную самостоятельность системы в оценке ситуации, возможность семантической и прагматической интерпретации запросов к системе;

2) способность пополнения имеющихся знаний;

3) способность к дедуктивному выводу, к генерации информации, которая в явном виде не содержится в системе; это качество позволяет системе конструировать информационную структуру с новой семантикой и практической направленностью;

4) умение оперировать в ситуациях, связанных с различными аспектами нечеткости, включая «понимание» естественного языка;

5) способность к диалоговому взаимодействию с человеком;

6) способность к адаптации.

На вопрос, все ли перечисленные условия обязательны, необходимы для признания системы интеллектуальной, ученые отвечают по-разному. В реальных исследованиях, как правило, признается абсолютно необходимым наличие внутренней модели внешнего мира, и при этом считается достаточным выполнение хотя бы одного из перечисленных выше условий.

На начальных этапах разработки проблемы искусственного интеллекта ряд исследователей, особенно занимающихся эвристическим программированием, ставили задачу создания интеллекта, успешно функционирующего в любой сфере деятельности. Это можно назвать разработкой «общего интеллекта». Сейчас большинство работ направлено на создание «профессионального искусственного интеллекта», то есть систем, решающих интеллектуальные задачи из относительно ограниченной области (например, управление портом, интегрирование функций, доказательство теорем геометрии).

Исходным пунктом рассуждений об искусственном интеллекте является определение такой системы как решающей мыслительные задачи. Но перед нею ставятся и задачи, которые люди обычно не считают интеллектуальными, поскольку при их решении человек сознательно не прибегает к перестройке проблемных ситуаций. К их числу относится, например, задача распознания зрительных образов. Человек узнает человека, которого видел один или два раза, непосредственно в процессе чувственного восприятия. Исходя из этого, кажется, что эта задача не является интеллектуальной. Но в процессе узнавания человек не решает мыслительных задач лишь постольку, поскольку программа распознания не находится в сфере осознанного. Но так как в решении таких задач на неосознанном уровне участвует модель среды, хранящаяся в памяти, то эти задачи, в сущности, являются интеллектуальными. Соответственно и система, которая ее решает, может считаться интеллектуальной.

Теория искусственного интеллекта при решении многих задач сталкивается с гносеологическими проблемами. Одна из таких проблем состоит в выяснении вопроса, доказуема ли теоретически (математически) возможность или невозможность искусственного интеллекта. На этот счет существуют две точки зрения. Одни считают математически доказанным, что ЭВМ в принципе может выполнить любую функцию, осуществляемую естественным интеллектом. Другие полагают в такой же мере доказанным математически, что есть проблемы, решаемые человеческим интеллектом, которые принципиально недоступны ЭВМ. Эти взгляды высказываются как кибернетиками, так и философами.

1.2 История развития искусственного интеллекта

Искусственный интеллект, как одно из новых научных направлений, появился во второй половине ХХ века на базе вычислительной техники, математической логики, программирования, психологии, лингвистики, нейрофизиологии и других отраслей знаний. Таким образом, искусственный интеллект объединяет профессиональные интересы специалистов разного профиля.

Возникновения искусственного интеллекта проявляется в следующих подходах: механический, электронный, кибернетический и нейробионический.

Механический подход. Идея создания мыслящих машин «человеческого типа», которые, казалось бы, думают, двигаются, слышат, говорят и ведут себя как живые люди уходит корнями в глубокое прошлое. Еще древние египтяне и римляне испытывали благоговейный ужас перед культовыми статуями, которые жестикулировали и изрекали пророчества (разумеется, не без помощи жрецов).

Средневековые летописи полны рассказов об автоматах, способных ходить и двигаться почти также как их хозяева люди. В средние века и даже позднее ходили слухи о том, что у некоторых из мудрецов есть гомункулы (маленькие искусственные человечки) настоящие живые, способные чувствовать существа.

В XVIII веке благодаря развитию техники, особенно разработке часовых механизмов, интерес к подобным изобретениям возрос. В 1736 г. французский изобретатель Жак де Вокансон изготовил механического флейтиста в человеческий рост, который исполнял двенадцать мелодий, перебирая пальцами отверстия и дуя в мундштук, как настоящий музыкант. В середине 1750-х годов Фридрих фон Кнаус, австрийский автор, сконструировал серию машин, которые умели держать перо и могли писать довольно длинные тексты.

Успехи механики XIX в. стимулировали еще более честолюбивые замыслы. Так, в 1830-х годах английский математик Чарльз Бэббидж задумал, правда, так и не завершив, сложный цифровой калькулятор, который он назвал «аналитической машиной» 3,с.72-73.

Электронный подход. После Второй мировой войны появились устройства, казалось бы, подходящие для достижения заветной цели моделирования разумного поведения; это были электронные цифровые вычислительные машины.

«Электронный мозг», как тогда восторженно называли компьютер, поразил в 1952 г. телезрителей США, точно предсказав результаты президентских выборов за несколько часов до получения окончательных данных. Этот «подвиг» компьютера лишь подтвердил вывод, что наступит тот день, когда автоматические вычислители, столь быстро, неутомимо и безошибочно выполняющие автоматические действия, смогут имитировать невычислительные процессы, свойственные человеческому мышлению, в том числе восприятие и обучение, распознавание образов, понимание повседневной речи и письма, принятие решений в неопределенных ситуациях. Многие изобретатели компьютеров и первые программисты развлекались, составляя программы для отнюдь не технических занятий, как сочинение музыки, решение головоломок и игры, на первом месте здесь оказались шашки и шахматы. Некоторые романтически настроенные программисты даже заставляли свои машины писать любовные письма.

К концу 50х годов все эти увлечения выделились в новую более или менее самостоятельную ветвь информатики, получившую название «искусственный интеллект». Одним из основателей теории искусственного интеллекта считается известный английский ученый Алан Тьюринг, который в 1950-м году опубликовал небольшую статью «Может ли машина мыслить?». Статья посвящена обсуждению вопроса о способности компьютеров к мышлению. Для научного исследования этой проблемы предлагался так называемый «тест Тьюринга», позволяющий оценить «интеллектуальность» компьютера по его способности к осмысленному диалогу с человеком. «Тест Тьюринга» и предложенный в нем подход к моделированию мышления положил начало исследованиям в этой области и до сих пор остается предметом острых научных дискуссий. И, тем не менее, хотя с момента его появления прошло уже более полувека, до сих пор так и не было предложено любых других конструктивных альтернатив «тесту Тьюринга» 4, с.225-238.

Первые практические разработки, которые можно отнести к искусственному интеллекту появились почти сразу же после появления первых вычислительных машин. В 1954 году американский исследователь А. Ньюэлл написал первую программу для игры в шахматы. В этом же 1956 году была написана и первая программа «Логик-Теоретик», предназначенная для автоматического доказательства теорем в исчислении высказываний. Эту программу можно отнести к первым достижениям в области искусственного интеллекта. Важное значение в становлении искусственного интеллекта имела проведенная в 1956 году конференция в Дартмуте (США). Именно на этой конференций впервые появился и сам термин - «искусственный интеллект». В 1960 году этой же группой ученых на основе принципов, использованных в NSS, была написана программа GPS (General Problem Solver), которая могла решать ряд головоломок, вычислять неопределенные интегралы, решать некоторые другие задачи. Появились программы автоматического доказательства теорем из планиметрии и решения алгебраических задач.

К этому времени в СССР, США, Великобритании и других странах, в которых активно внедрялась вычислительная техника, было накоплено множество самых разнообразных программ для решения нечисловых задач. Среди них было немало таких, которые демонстрировали возможность имитации на компьютере отдельных творческих процессов, присущих человеку. В конце 1960-х годов появились первые игровые программы, системы для элементарного анализа текста и решения некоторых математических задач (геометрии, интегрального исчисления).

1960-е годы впоследствии были названы годами технократического романтизма. Это был период кибернетического бума, когда у многих ученых было такое ощущение, что проблема человеческого мышления и искусственного интеллекта теоретически уже почти решена 5, с.130-142.

В целом, в течение 1970-х годов сложились основные теоретические направления исследований в области интеллектуальных систем. Теория искусственного интеллекта окончательно была признана самостоятельной отраслью науки.

Вскоре после этого сформировались и два основных направления в создании моделей интеллектуальной деятельности: информационное направление (кибернетика) и нейробионическое (нейрокибернетика) и Долгое время эти направления развивались самостоятельно, и только к концу 1990-х годов стали заметны тенденции к объединению этих частей вновь в единое целое.

Сторонники информационного направления исходили из того, что искусственный интеллект в принципе не может быть копией человеческого интеллекта, поскольку мозг человека работает гораздо лучше и быстрее любой интеллектуальной системы. Поэтому системы искусственного интеллекта должны не копировать полностью человеческий интеллект, а стремиться к достижению тех же результатов другими средствами. Кратко остановимся на каждом из этих направлений.

Основную идею нейрокибернетики можно сформулировать следующим образом: единственный объект, способный мыслить, - это человеческий мозг, поэтому любое «мыслящее» устройство должно каким-то образом воспроизводить его структуру 6, с.42-57.

С 2000 года развитие субмикронных и нанотехнологий, а также успехи молекулярной и биомолекулярной технологии привели к принципиально новым архитектурным и технологическим решениям по созданию нейрокомпьютеров. Из кибернетического, или информационного, подхода к машинному разуму скоро сформировался так называемый «восходящий метод» движение от простых аналогов нервной системы примитивных существ, обладающих малым числом нейронов, к сложнейшей нервной системе человека и даже выше.

философский мышление искусственный интеллект

1.3 Искусственный интеллект как компьютерное моделирование мышления

В русле кибернетического движения осуществлялись философские и логико-методологические исследования управления, информации, мышления, познания, структуры научного знания и перспектив его развития. Характерные для кибернетического движения идея общности (одинаковости или сходства) закономерностей, определяющих процессы управления и переработки информации в самых разных сферах реальности, а также идея плодотворности использования математических и логико-математических трактовок этих процессов на различных уровнях абстракции получали специфическое преломление в многочисленных сравнениях человеческого мышления и работы ЭВМ. В ходе бурных дебатов 60-70-х годов на тему «Может ли машина мыслить?» были, по существу, представлены различные варианты ответа на вопрос о том, что может быть субъектом познания: только ли человек (и, в ограниченном смысле, животные) или же и машина может считаться субъектом мыслящим, обладающим интеллектом и, следовательно; познающим. Сторонники последнего варианта пытались сформулировать такое определение мышления, которое позволяло бы говорить о наличии мышления у машины, - например, мышление определялось как решение задач. Нужно отметить, однако, что и способность компьютерной системы к принятию каких-либо решений также может быть поставлена под сомнение.

Оппоненты сторонников «компьютерного мышления» напротив, стремились выявить такие характеристики мыслительной деятельности человека, которые никак не могут быть приписаны компьютеру, и отсутствие которых не позволяет говорить о мышления в полном смысле этого слова. К числу таких характеристик относили, например, способность к творчеству и эмоциональность.

Компьютерное моделирование мышления дало мощный толчок психологическим исследованиям механизмов познавательной деятельности. Это проявлялось, с одной стороны, в проникновении в психологию «компьютерной метафоры», ориентирующей на изучение познавательной деятельности человека по аналогии с переработкой информации на компьютере, и; с другой стороны, в активизации исследований, стремящихся показать плодотворность и самостоятельную ценность иных подходов - например, изучение мышления в контексте общей теории деятельности. Тихомиров, специально исследуя «соотношение кибернетического и психологического подходов к изучению мышления», настаивал, что «широко распространенное сближение человеческого мышления и работы вычислительной машины не обосновано» 11, с.15-22. Вместе с тем, он отмечает, что «именно развитие кибернетики сделало очевидным неполноту господствовавших в психология теорий мышления и поведения, выдвинув для изучения новые аспекты».

Характеризуя значение аналогий между человеческим мышлением и компьютерной переработкой информации, английская исследовательница М. Боден пишет: «В той степени, в какой аналогия с компьютером может служить общим человеческим интересам более глубокого познания разума, осторожное использование “психологической” терминологии в отношении определенного типа машин должно скорее поощряться, чем запрещаться... Аналогии дают возможность не только обозначить сходные черты между сравниваемыми объектами, но ведут к обнаружению действительно важных сходств и различий» 12, с.41-45.

Компьютерное моделирование мышления, использование методов математических и технических наук в его исследовании породило в период «кибернетического бума» надежды на создание в скором будущем строгих теорий мышления, столь полно описывающих данный предмет, что это сделает излишними всякие философские спекуляции по его поводу. Надеждам такого рада, однако же, не суждено было сбыться, и сегодня мышление, будучи предметом изучения частных наук (психологии, логики, искусственного интеллекта, когнитивной лингвистики), остается также притягательным объектом философских рассмотрений.

Развитие информационной техники позволило компенсировать человеку психофизиологическую ограниченность своего организма в ряде направлений. «Внешняя нервная система», создаваемая и расширяемая человеком, уже дала ему возможность вырабатывать теории, открывать количественные закономерности, раздвигать пределы познания сложных систем. Искусственный интеллект и его совершенствование превращают границы сложности, доступные человеку, в систематически раздвигаемые.

Разработка проблем искусственного интеллекта является существенным вкладом в осознание человеком закономерностей внешнего и внутреннего мира, в их использование в интересах общества и тем самым в развитие свободы человека. Человек поставил задачу создать некий аналог себя самого. И он смог это сделать. Механическая часть подобно человеческому телу и управление ею уже имеются - это роботы, функционирующие на сервомеханизмах. Отчасти смоделированы интеллектуальные функции человека и цивилизация идет дальше.

Многие споры вокруг проблемы создания искусственного интеллекта имеют эмоциональную подоплеку. Признание возможности искусственного разума представляется чем-то унижающим человеческое достоинство. Однако нельзя смешивать вопросы возможностей искусственного разума с вопросом о развитии и совершенствовании человеческого разума. Повсеместное использование искусственного интеллекта создаёт предпосылки для перехода на качественно новую ступень прогресса, даёт толчок новому витку автоматизации производства, а значит и повышению производительности труда. Разумеется, искусственный разум может быть использован в негодных целях, однако это проблема не научная, а скорее морально-этическая.

Однако развитие кибернетики выдвигает ряд проблем, которые все же требуют пристального внимания. Эти проблемы связаны с опасностями, возникающими в ходе работ по искусственному интеллекту.

Первая проблема связана с возможной потерей стимулов к творческому труду в результате массовой компьютеризации или использования машин в сфере искусств. Однако в последнее время стало ясно, что человек добровольно не отдаст самый квалифицированный творческий труд, так как он для самого человека является привлекательным.

Вторая проблема носит более серьезный характер, и на нее неоднократно указывали такие специалисты, как Н. Винер, Н. М. Амосов, И. А. Полетаев и другие. Состоит она в следующем. Уже сейчас существуют машины и программы, способные в процессе работы самообучаться, то есть повышать эффективность приспособления к внешним факторам. В будущем, возможно, появятся машины, обладающие таким уровнем приспособляемости и надежности, что необходимость человеку вмешиваться в процесс отпадет. В этом случае возможна потеря самим человеком своих качеств, ответственных за поиск решений. Налицо возможная деградация способностей человека к реакции на изменение внешних условий и, возможно, неспособность принятия управления на себя в случае аварийной ситуации. Встает вопрос о целесообразности введения некоторого предельного уровня в автоматизации процессов, связанных с тяжелыми аварийными ситуациями. В этом случае у человека, «надзирающим» за управляющей машиной, всегда хватит умения и реакции таким образом воздействовать на ситуацию, чтобы погасить разгорающуюся аварийную ситуацию. Таковые ситуации возможны на транспорте, в ядерной энергетике. Особо стоит отметить такую опасность в ракетных войсках стратегического назначения, где последствия ошибки могут иметь фатальный характер. Несколько лет назад в США начали внедрять полностью компьютеризированную систему запуска ракет по командам суперкомпьютера, обрабатывающего огромные массивы данных, собранных со всего света. Однако оказалось, что даже при условии многократного дублирования и перепроверки, вероятность ошибки оказалась бы столь велика, что отсутствие контролирующего оператора привело бы к непоправимой ошибке. От системы отказались.

Люди будут постоянно решать проблему искусственного интеллекта, постоянно сталкиваясь все с новыми проблемами. И, видимо, процесс этот бесконечен.

ЛИТЕРАТУРА

1. Кондрашев В.А. Новейший философский словарь. - Ростов н/Д: Феникс, 2005. - 672с.

2. Цеханов Т.В. Системы искусственного интеллекта // Dokument HTML - http://neural.narod.ru/index.

3. Поспелов Д.А. Из истории искусственного интеллекта: История искусственного интеллекта до середины 80-х годов // Новости искусственного интеллекта. - №4. 1994. - с.70-90.

4. Информационное общество: Сб. (Philosophy) - М.: ООО «Издательство АСТ», 2004. - 507с.

5. Шалютин С. М. Искусственный интеллект. - М.: Мысль, 1985. - с.422

6. Соколов Е. Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. - М.: Наука, 1989. - 237с.

7. Будко В.В. Философия науки: Учебное пособие. - Харьков: Консум, 2005. - 268с.

8. Бессонов Б.Н. Философия: история и современные задачи: Учебник. - М.: Норма, 2006. - 560с.

9. Волчек Е.З. Философия: Учебное пособие с хрестоматийными извлечениями. - Мн.: Интерпрессервис, 2003. - 544с.

10. Немов Р.С. Психология: Учебник. - М.: Владос, 2001. - 688с.

11. Искусственный интеллект: Справочник / Под. Ред. Э.В. Попова. - М.: Радио и связь, 1990. - 464с.

12. Історія філософії: Підручник / Ярошовець В.І., Бичко І.В,Бугров В.А. - К.: Вид. ПАРАПАН, 2002. - 774с.

13. Эндрю А. Искусственный интеллект. - М.: Мир, 1985. - 310с.

14. Колтовой А. Робот ради человека // Вокруг света. - №4 (2799). - 2007. - С.15-19.

15. Философский словарь / Под ред. И.Т. Фролова. - М.: Республика, 2001. - 719с.

16. Кунцман П., Буркард Ф.П. Філософія: dtv-Atlas. - К.:Знання-Прес, 2002. - 270 с.

17. Квасный Р. Искусственный интеллект // Dokument HTML - http://neural.narod.ru / index.

18. Константинов А. Очень искусственный интеллект // Наука и технологии. - №6. - 2007. - С. 23-27.

19. Анохин П.К. Мышление // Dokument HTML - http/www.galactic.org.ua/ prkiber 12.

Размещено на Allbest.ru

...

Подобные документы

    Анализ влияния искусственного интеллекта и искусственной жизни на философские проблемы человеческого мышления. Исследования искусственного интеллекта. Обзор вопросов теоретической доказуемости возможности или невозможности искусственного интеллекта.

    реферат , добавлен 08.04.2015

    Анализ проблемы субъекта и объекта как центральной проблемы философии Карла Маркса. Исследование гносеологических проблем в "Философских арабесках" Н.И. Бухарина. Особенности философских проблем развития науки, искусства, духовной культуры в целом.

    контрольная работа , добавлен 05.04.2012

    Анализ философских проблем молекулярной биологии. Проблемы философских оснований взаимосвязи теоретического и эмпирического знания в биологическом исследовании. Мировоззренческие проблемы и определение их места в общей концепции философии данной науки.

    реферат , добавлен 22.08.2013

    Китай как цивилизация особого типа. Знакомство с особенностями развития философии в Древнем Китае. Общая характеристика основных философских школ: даосизм, конфуцианство, моизм. Рассмотрение философских, религиозных и идеологических основ конфуцианства.

    реферат , добавлен 09.03.2017

    Особенности философского знания как отражение особенностей бытия человека. Проблема человека в философских и медицинских знаниях. Диалектика биологического социального в человеке. Философский анализ глобальных проблем современности. Научное познание.

    учебное пособие , добавлен 17.01.2008

    Изучение философских воззрений Платона и Аристотеля. Характеристика философских взглядов мыслителей эпохи Возрождения. Анализ учения И. Канта праве и государстве. Проблема бытия в истории философии, философский взгляд на глобальные проблемы человечества.

    контрольная работа , добавлен 07.04.2010

    Проблема философии как центральная проблема древнеиндийской философии. Основные идеи философских школ хинаяны и махаяны. История зарождения и развития китайской философии, особенности ее основных направлений. Анализ философских идей Ближнего Востока.

    курс лекций , добавлен 17.05.2010

    Понятие теодицеи как совокупности религиозно-философских доктрин. Философские взгляды. Телеологические учения различных философских школ, начиная с античных материалистов и стоиков, заканчивая эсхатологическими учениями христианства, иудаизма и ислама.

    контрольная работа , добавлен 24.11.2008

    Раскрытие антагонистического характера экономической структуры капиталистического общества Марксом в "Экономическо-философских рукописях 1844 года". Изложение основных положений экономической теории в книге "Капитал". Философские школы марксизма.

    контрольная работа , добавлен 09.05.2014

    Генезис историко-философских обозрений на общество. Три группы теорий развития общества. Две составляющих структуры общества как исторически сложившейся формы организации общества. Проблемы периодизации истории. Формационный и цивилизационный подходы.

Министерство образования Российской федерации

Уральский государственный лесотехнический университет

Кафедра философии

Реферат на тему:

Сознание и искусственный интеллект

Выполнил: Борисов А.В., ДС-36

Проверил: Яковлева Е.А.

Екатеринбург – 2004

Введение 3

Взгляды на термин “знание” 5

Сознание и разум 8

Искусственный интеллект и теоретические проблемы психологии 11

Заключение 13

Список использованной литературы 14

ВВЕДЕНИЕ

Все расширяющееся применение электронных вычис­лительных машин и повышение их роли в жизни об­щества сделало актуальной проблему соотношения возможностей человеческого мышления и так называ­емого машинного, или искусственного, интеллекта.

В настоящее время практически невозможно ука­зать ни одной, сферы человеческой деятельности, где бы не использовались или не могли быть использо­ваны ЭВМ. При этом возникают вопросы: «Какой вид работы принципиально не могут выполнить со­временные ЭВМ и почему?», «Какие сферы, уровни человеческой деятельности не подвластны автомати­зации?», «Каковы перспективы развития и использо­вания ЭВМ?»

Ответы на эти вопросы в значительной мере за­висят от решения проблемы соотношения и связи че­ловека и кибернетических машин. Она имеет не толь­ко теоретический, но и практический аспект, так как распределение функций между человеком и ЭВМ невозможно осуществись без правильного понимания вопроса о характере этого соотношения и его комп­лексной разработки в ряде аспектов: кибернетиче­ском, логическом, математическом, психологическом, психофизиологическом. Но при исследовании состоя­ния проблемы и трудностей, встающих на пути ее ре­шения, выдвигаются вопросы, которые выходят за рамки компетенции специалистов по кибернетике, ло­гике, математике и психологии и требуют философско-методологического анализа и аргументации.

В литературе, посвященной философским пробле­мам кибернетики, рассмотрение проблемы соотноше­ния мышления человека и возможностей ЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина» трактовалось слишком аб­страктно, а мышление определялось в терминах формальной логики и машинных операций. Предпо­лагалось, что развитие «машинного мышления» стол­кнется лишь с чисто техническими трудностями, ко­торые будут преодолены, подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковой барьер»

Поводом для поспешных оптимистических выво­дов послужили первые успехи в решении достаточно простых задач, допускающих их полную алгоритми­зацию, программирование и последующую автоном­ную обработку информации на ЭВМ. При этом казалось, что решение и более сложных задач возможно путем увеличения скорости переработки информации, объема «памяти», путем автоматического распозна­вания вводимого в ЭВМ текста с помощью автомати­ческих читающих устройств и главное-путем совер­шенствования информационно-логических программ, в частности методов эвристического программирова­ния.

Однако при переходе к решению сложных задач оказалось невозможным создать полно­стью формализованные решения и машинные про­граммы. Причина этого заключается в том, что про­цесс их решения на всех основных этапах включает неформальные, в частности творческие, элементы, яв­ляющиеся прерогативой исключительно человека.

Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всех сферах человеческой деятельности; от стратегии, предполагавшей постепенную принципиально не ограниченную замену функций человеческого интеллекта искусственным, к стратегии кооперирования возмож­ностей человека и ЭВМ. Если раньше кибернетики стремились обосновать и доказать плодотворность далеко идущих аналогий между человеческим мыш­лением и кибернетическими устройствами, то в на­стоящее время это уже мешает трезвой научной оценке возможностей ЭВМ.

Поэтому актуальной задачей кибернетики стало изучение фундаментальных различий, возможностей и связей человека и кибернетических устройств.

Методологический анализ проблем «искусственно­го интеллекта» и диалогового взаимодействия че­ловека с ЭВМ важен не только для обоснования об­щей стратегии решения этих проблем, но и для разработки вопросов распределения функций человека и ЭВМ в процессе самого решения.

ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”

В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.

Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии - науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления - когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.

Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: “знать” должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний - в науке о познании (эпистемологии или гносеологии), а его конечная цель - программные средства информатики.

Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, - это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.

Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, - подчеркивает акад. Г. С. Поспелов, - представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.

Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением профессионального жаргона или действительно переход от представления данных к представлению знаний имеет существенные гносеологические характеристики и какие именно? Особенности ЭВМ как предмета-посредника в познании во многом определяются тем, что ЭВМ относится к такому типу предметов-посредников, как модели. Термин “модель” употребляется в обыденном языке и в языке науки в различных значениях. Пусть под моделью понимается некоторая система (материальная или концептуальная), в той или иной форме отображающая некоторые свойства и отношения другой системы, называемой оригиналом, в точно указанном смысле замещающая ее и дающая новую информацию об оригинале. При анализе гносеологических аспектов моделирования ЭВМ рассматривались в философско-методологической литературе прежде всего как материальные модели, создаваемые на основе действия определенных физических закономерностей и функционирующие благодаря протеканию в них вполне определенных физических процессов. Моделирование на ЭВМ понималось как техническая реализация определенной формы знакового моделирования. Однако, рассматривая ЭВМ в гносеологическом плане как предмет посредник в познании, имеет смысл не фиксировать внимание прежде всего на “железной части” (hardware) компьютера, а рассматривать всю компьютерную систему как сложную систему взаимосвязанных и до некоторых пределов самостоятельных моделей - как материальных, так и знаковых, т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерных систем в современной информатике, но является и гносеологически оправданным. Многие важные философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер человеческой деятельности, требуют для своего исследования обращения прежде всего к знаковым составляющим компьютерных систем. Это верно и в отношении философских аспектов проблем представления знаний.

В последние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е. построение любого из составляющих компьютерной системы - будь то знаковая модель или материальная.

Что изменяется в компьютерном моделировании с переходом от представления данных к представлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл, отмечая, что проблематика представления знаний имеет интересные точки соприкосновения с философией, ибо природа разума и природа знания всегда являлись одним из центральных философских вопросов, пишет: “Однако, интерес философии к знанию всегда концентрировался на проблеме достоверности... Это нашло отражение в том различении между знанием и верой, которое проводится в философии. Искусственный интеллект, рассматривая все знание как содержащие ошибки, называет все-таки свои системы системами знаний. С точки зрения философии искусственный интеллект имеет дело только с системами веры. ...Таким образом, учение о знании, если оно разделит с искусственным интеллектом безразличие к проблеме абсолютной достоверности, окажется оставляющим без внимания центральные философские вопросы”. Различия в подходах к знанию, имеющиеся в философии и в искусственном интеллекте, не дают оснований для абсолютного противопоставления этих подходов и для отстранения от проблематики представления знаний той философии, которая не желает “оставлять без внимания центральные философские вопросы”.

СОЗНАНИЕ И РАЗУМ

Сознание возникает у животных как одно из средств, улучшающее их адаптацию к окружающей среде. Быстрая (по сравнению со временем жизни животного) адаптация требует способности предвидеть, а мотивом адаптации служат биологические жизненные потребности организма. Искусственная система, обладающая такими свойствами, тоже приобретает сознание.

Как устроено сознание? Какие процессы, механизмы, взаимодействующие объекты требуются, чтобы возникло сознание и осознание себя? Что нужно для изготовления не модели сознания, а просто сознания?

Обычно слово сознание применяется, как характеристика отдельного существа. Оно может "потерять сознание". А слово разум означает принципиальную способность быть сознательным. Например, "человек разумный". Однако, есть и другие толкования.

Не известно, как доказать, что человек думает. Уверенность в том, что люди думают, основана на опыте и убеждённости в собственном сознании, а не на измерениях и логических выводах из них. Вот почему науке трудно подступиться к глубокому изучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но не сознание само по себе. Мы наблюдаем не разум, а разумное поведение.

Суждение же о наличии разума субъективно, вплоть до того, что некоторые люди считают поведение некоторых своих соплеменников несознательным.

Можно ввести субъективную шкалу разумности. Например, улитка, кошка и человек перечислены здесь в порядке увеличения разумности. Не исключено, что разум начинается не с самого простейшего уровня организации нервной системы, а "возникает" при достаточном её развитии. Однако, пока не ясно, что такое разум, и не ясен механизм такого возникновения, удобно считать, что все существа с нервной системой разумны. В частности, самые простые существа могут иметь "нулевую" или "бесконечно малую" разумность. Зато при таком подходе можно сравнить поведение многих животных, чтобы найти, что же именно в поведении данного животного кажется разумным. Это должны быть такие признаки, которые выявляются у всех без исключения животных.

Такие неплохие определения сознания, как способность к достижению цели, или к нахождению решения, или к принятию решения, не подходят, так как они не конструктивны, в частности, не связаны однозначно с наблюдаемым поведением. "Цель" и "решение" сами определяются через сознание. Способность к общению с себе подобными, и формы такого общения "более наблюдаемы", но часто их трудно отличить от физического взаимодействия. Пример: перенос пыльцы.

Хорошим наблюдаемым критерием разумности является способность активно приспосабливаться к меняющимся окружающим условиям, то есть способность самообучаться на основе своего опыта. Чем же отличается сознание от самообучения?

Сознание - это внутреннее свойство, творческий мотор самообучающегося организма. Начальное сознание возникает при такой организации нервной системы, которая обеспечивает возможность обучаться. Это ещё не то самосознание, которое заставляет уступить место старушке. Конструктивность этого определения состоит в том, что оно не ограничивает средства для изготовления "творческого мотора". Стоит изобрести и создать устройство, способное самообучаться (именно “само-”, без толчков и внешнего воздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью) - и оно получит сознание. Найдите способность к самообучению у робота, и этим будет доказано, что он обладает сознанием.

Вместо слова "самообучение" иногда используют более широкое понятие "адаптация". Если существо самостоятельно находит новое поведение в новых условиях, причём никто не учил его этому поведению, то это существо способно к адаптации (к самообучению). Изобретение нового поведения - признак творчества (хотя это мнение очень и очень спорно и для доказательства его истинности и ошибочности требуются серьезные философские изыскания в области понятия “творчество”), а творчество - один из атрибутов сознания.

Большой потенциал адаптации хорошо виден из такого мысленного эксперимента. Представим себе существо с максимально развитой адаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре. И оно научилось играть в шахматы, конструировать космические ракеты и сочинять изысканные стихи. Кто теперь откажет ему в разумности! Поэтому любые способности живого существа к адаптации следует считать проявлениями его сознания. И каждый вправе субъективно оценивать степень развития этого сознания.

"Начальное" сознание не гарантирует осознавания. Осознавание - это такой уровень развития сознания, при котором субъект отличает себя от других объектов, т. е. выделяет себя как самостоятельно функционирующую систему.

Осознавание себя – главный общепризнанный признак сознания. Однако это лишь частный случай осознавания "внешнего" мира. Мы воспринимаем внешний мир в виде различных качеств, которые отражают физические параметры природных явлений, регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а свои ощущения объектного мира и свои мысли, представимые в виде образов из объектного мира, то есть в виде образов ощущений. Суждение о собственном сознании выводится из наблюдения своего поведения. Поэтому проблема осознавания себя сводится к проблеме осознавания своих ощущений.

Осознавание ощущений обеспечивает тот же внутренний механизм сознания - мотор самообучения и творчества. Собственно сознание – это не мозг, не поведение, а именно механизм, то есть особый процесс обработки информации.

Для осознавания важно, что творческий механизм сознания вырабатывает оптимальное в данных обстоятельствах поведение органов. Поведение мозга - это его взаимодействие с другими органами. Поведение руки - это её взаимодействие с физическим миром и с мозгом. Если найдено достаточно совершенное "не улучшаемое" поведение, то осознавание тоже исчезает, заменяясь автоматическим управлением. Поэтому тщательно отработанное поведение, например, при игре на музыкальном инструменте, становится автоматическим и не отвлекает осознавание от музыкального творчества. Хотя мы не придаём этому большого значения, но следует заметить, что сопутствующие автоматическому поведению ощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например, здоровый человек не обращает внимания на то, что при ходьбе на ступни его ног действует сила в десятки килограммов. А в другой ситуации мы чувствуем и сознательно реагируем на лёгкое прикосновение.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫ ПСИХОЛОГИИ

Можно выделить две основные линии работ по искусственному интеллекту (ИИ). Первая связана с совершенствованием самих машин, с повышением "интеллектуальности" искусственных систем. Вторая связана с задачей оптимизации совместной работы "искусственного интеллекта" и собственно интеллектуальных возможностей человека.

Переходя к психологическим проблемам искусственного интеллекта, можно отметить три позиции по вопросу о взаимодействии психологии и искусственного интеллекта.

1. "Мы мало знаем о человеческом разуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний" - эта позиция характерна для многих зарубежных специалистов по ИИ.

2. Вторая позиция сводится к констатации ограниченности результатов исследований интеллектуальной деятельности, проводившихся психологами, социологами и физиологами. В качестве причины указывается отсутствие адекватных методов. Решение видится в воссоздании тех или иных интеллектуальных функций в работе машин. Иными словами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно почерпнуть, анализируя эту работу и есть основной материал для построения психологических теорий.

3. Третья позиция характеризуется оценкой исследования в области искусственного интеллекта и психологии как совершенно независимых. В этом случае допускается возможность только потребления, использования психологических знаний в плане психологического обеспечения работ по ИИ.

Популярные идеи системного анализа позволили сделать сравнение принципов работы искусственных систем и собственно человеческой деятельности важным эвристическим приемом выделения именно специфического психологического анализа деятельности человека.

В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение "машинного" и "немашинного" есть соотнесение операционального и неоперационального в человеческой деятельности. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия - в психологическом смысле "операция" отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).

В работах по искусственному интеллекту постоянно используется термин "цель". В психологической теории деятельности "цель" является конституирующим признаком действия в отличии от операций (и деятельности в целом). В то время как в искусственных системах "целью" называют некоторую конечную ситуацию к которой стремится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.

Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ, "целей", но и оценочными функциями. И у искусственных систем есть своего рода "ценностные ориентации". Специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оценок, существенно также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности. Позже была показана зависимость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.

Как в действительности показала история, психология и искусственный интеллект как научное направление могут находится в достаточно тесном сотрудничестве, взаимно базируясь на достижениях друг друга.


ЗАКЛЮЧЕНИЕ

Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболее волнующих человека проблем. Популярность кибернетики, неослабевающий интерес к ней со стороны самых широких кругов во многом объясняется именно ее тесной связью с этой "вечной" проблемой. С того самого момента, как человек стал задумываться над проблемой мышления, в подходе к ней существуют два основных диаметрально противоположных направления: материализм и идеализм. Идеализм исходит из признания мышления некой особой сущностью, в корне отличной от материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм, напротив, утверждает, что “...тот вещественный, чувственно воспринимаемый нами мир, к которому принадлежим мы сами, есть единственный действительный мир и наше сознание и мышление, являются продуктом вещественного, телесного органа”.

До сих пор диалектико-материалистиеское понимание мышления опиралось главным образом на обобщенные данные психологии, физиологии и языкознания. Данные кибернетики позволяют поставить вопрос о более конкретном понимании мышления.

Инструментом философии является знание. Именно инструментом, а не результатом. Знание не есть конечный предмет, который можно положить в сундук и сказать: “Да, теперь у меня есть знание!” Знание - это цепочка. Знание в области искусственного интеллекта - тоже есть цепочка, причем бесконечная.

Инструментом же кибернетики является моделирование. С точки зрения теории моделирования вообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное поведение, объект способный мыслить, и поместить его все в тот же сундук. Все это вполне согласуется с понятием знания.

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ

1. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991 №9, с. 44-53.

2. Алексеева И.Ю. Знание как объект компьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.

3. Анисов А.М. ЭВМ и понимание математических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.

4. Будущее искусственного интеллекта: М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.

5. Вендров А.М. CASE-технологии. Современные методы и средства проектирования информационных систем.: М., Финансы и статистика 1998.

6. Винер Н. Кибернетика или управление и связь в животном и машине. Второе издание: М., Наука 1983.

7. Лефевр В.А. От психофизики к моделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.

8. Лефевр В.А. “Непостижимая“ эффективность математики в исследованиях человеческой рефлексии. // “Вопросы философии”: журнал 1990 №7, с. 51-58.

9. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту: М., Наука 1982.

10. Поспелов Д.А. Искусственный интеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.

11. Петрунин Ю.Ю. Искусственный интеллект как феномен современной культуры. // “Вестник Московского университета”: журнал 1994 №8, с. 28-34.

12. Тьюринг А. Может ли машина мыслить?: М., Наука 1960.

13. Шрейдер Ю.А. Искусственный интеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”: журнал 1995 №7, с. 163-167.

14. Шрейдер Ю.А. Человеческая рефлексия и две системы этического сознания. // “Вопросы философии”: журнал 1990 №7, с. 32-41.

15. Корниенко Е. Механизмы сознания: www.glasnet.ru 2004 (электронная публикация)


Математически, что есть проблемы, решаемые человеческим интеллектом, которые принципиально недоступны ЭВМ. Эти взгляды высказываются как кибернетиками, так и философами. Проблема искусственного интеллекта Гносеологический анализ проблемы искусственного интеллекта вскрывает роль таких познавательных орудий, как категории, специфическая семиотическая система, логические структуры, ранее накопленное...

Концепции мышления, практическое доказательство того, что мышление есть функция высокоорганизованной материальной системы. Но кибернетика идет дальше и ставит вопрос, о возможности "искусственного интеллекта", "машинного мышления", и т.д. Здесь обнаруживается полный спектр взглядов на возможность возникновения мыслящих машин: начиная от "крайне оптимистических" и до "крайне...

И экзистенциального развития человека важны нравственные основания человеческой самости. При этом творчество – продолжение природы, оно не должно противоречить природе. «И здесь, – заявил Аркадий Викторович, – мы выходим не на искусственный интеллект, а на космический разум». Нужно отметить, что Марат Самирханович совершенно верно говорил о едином процессе, а если не едином, то не просто о...

Их исследований - моделирование социального поведения, общения, человеческих эмоций, творчества. 3.2 Итоги и проблемы Проблемы ИИ, связанные с ресурсами Сообщения об уникальных достижениях специалистов в области искусственного интеллекта (ИИ), суливших невиданные возможности, пропали со страниц научно-популярных изданий много лет назад. Эйфория, связанная с первыми практическими успехами в...

Призовой доклад на Пятьдесят четвертой студенческой научной конференции

Таганрогского Технологического Института Южного Федерального Университета

Факультет Естественнонаучного и Гуманитарного Образования

Кафедра Высшей Математики

Группа Н-55

Руководитель: проф., доктор философских наук И.Н. Титаренко

Что такое интеллект?

Разум, не способный любить и страдать,

разумом не является.

С. Лукьяненко "Геном"

Выразить суть интеллекта в каком-то одном определении представляется исключительно сложной, практически безнадежной задачей. Интеллект есть нечто ускользающее, не вмещаю-щееся в установленные языком смысловые рамки. Поэтому ограничимся просто тем, что приве-дем ряд известных определений и высказываний об интеллекте, которые позволят представить себе "объем" этого необычного понятия.

"Наивные" определения естественного интеллекта сводятся к его выражению через тот или иной атрибут (иногда через набор способностей субъекта). Вообще, моделирование объекта че-рез его атрибуты есть вполне традиционный, рационалистический способ работы с понятиями в искусственном интеллекте. Для примера приведем пару определений типа "интеллект - это способность X".

1. Интеллект - это способность решать задачи на основе символьной информации.

2. Интеллект - это способность к обучению и самообучению.

Достаточно емкие и интересные определения интеллекта даны в английском словаре Вебстера и Большой Советской Энциклопедии. В словаре Вебстера: "интеллект - это: а) способность ус-пешно реагировать на любую, особенно, новую ситуацию путем надлежащих корректировок поведения; б) способность понимать связи между фактами действительности для выработки действий, ведущих к достижению поставленной цели". В БСЭ: "интеллект... в широком смысле - вся познавательная деятельность человека, в узком смысле - процессы мышления, нераз-рывно связанные с языком как средством общения, обмена мыслями и взаимного понимания людей". Здесь интеллект прямо связывается с деятельностью и языком коммуникации.

Теперь приведем высказывания известных ученых об интеллекте. Сравним при этом мнения психологов и специалистов по ИИ.

Французский ученый А. Бергсон считал, что инстинкт связан с вещами, а интеллект - с отношениями. По его мнению, главными функциями интеллекта являются установление отноше-ний, а также обнаружение сходства фактов и повторяемость этого сходства ("интеллект ищет сходство с уже известным"). Немецкие психологи К. Бюлер и В. Келер противопоставляли ин-теллектуальное поведение инстинктивному. Они называли инстинкт "памятью поколений", считая ее очень крепкой и передающейся из рода в род. Инстинкты чрезвычайно консерватив-ны: они функционируют с удивительной точностью и надежностью, когда все идет по-старому, но отказываются служить, когда человек попадает в новые условия.

Напротив, главный признак интеллекта есть формирование таких операций, которые возникают не постепенно, путем проб и ошибок, а внезапно, как бы по догадке. При этом найденное реше-ние запоминается раз и навсегда, что обеспечивает возможность его широкого переноса и при-менения в сходных условиях.

По мнению известного советского психолога А.Н.Леонтьева, интеллект возникает впервые там, где поведенческий акт дифференцируется на две фазы: фазу подготовки того или иного дейст-вия и фазу его осуществления.

Интеллект также рассматривают сквозь призму соотношения различных форм мышления. В общем случае мышление не сводится к оперированию символами, а предполагает также опери-рование образами объектов и действий.

Интеллект также соотносится с возможностью адаптации к среде. Так Э. Клапаред и В. Штерн понимали интеллект как "психическую адаптацию к новым условиям". Ж. Пиаже утвер-ждал, что интеллект - это "определенная форма равновесия, к которой тяготеют все структуры, образующиеся на базе восприятия, навыка и элементарных сенсомоторных механизмов".

Теперь остановимся на воззрениях специалистов по информатике и ИИ. Так под интеллектом понимается "способность субъекта использовать накапливаемую им информацию некоторым полезным образом". Также утверждается, что интеллект есть способность любого организма (или устройства) достигать успеха при поиске одной из возможных целей в обширном многооб-разии сред. Среди характеристик интеллекта на первый план ставятся механизмы принятия ре-шения и предсказания, т. е. формирования цели.

Представители нейроинформатики часто высказывают точку зрения о том, что интеллект - это системное свойство нейронов мозга, не выводимое из свойств единичного нейрона. По мне-нию известного специалиста по семиотике Ю. М.Лотмана, интеллект возникает тогда, когда имеются внутренние неоднородности. В свою очередь, один из патриархов ИИ М. Минский свя-зывает интеллектуальность системы со степенью непонимания наблюдателем того, как она ре-шает задачи.

Наконец, наиболее распространенное в сообществе специалистов по ИИ мнение связывает ин-теллект со способностью строить модели реальности, а интеллектуальность системы - с нали-чием у нее собственной внутренней модели внешнего мира. Более того, эта модель должна быть корректируемой и характеризоваться высокой адаптивностью. С уровнем развития внутренней модели тесно связаны возможности планирования поведения; а также формирования умений. Интересную трактовку интеллекта как совокупности способностей дал В. К. Финн. Он указал следующие принципиальные черты интеллекта:

o выделение существенного в знании;

o способность к рассуждениям;

o рефлексия;

o выдвижение цели и выбор средств ее достижения;

o познавательная активность;

o адаптация к ситуации;

o формирование обобщений и обучение на примерах;

o синтез познавательных процедур.

Некоторые философские аспекты проблемы ИИ

О возможности существования.

С ИИ сложилась странная ситуация - изучается то, чего еще нет. И если этого не будет в тече-ние ближайших 100 лет, то очень может быть, что эпоха ИИ на этом окончится.

Исходя из сказанного выше, вытекает основная философская проблема в области ИИ - воз-можность или не возможность моделирования мышления человека. В случае если когда-либо будет получен отрицательный ответ на этот вопрос, то все остальные вопросы не будут иметь не малейшего смысла.

Следовательно, начиная исследование ИИ, заранее предположим положительный ответ. Приве-дем несколько соображений, которые подводят нас к данному ответу.

1. Первое доказательство является схоластическим, и доказывает непротиворечивость ИИ и Библии. Даже люди далекие от религии, знают слова священного писания: "И создал Господь человека по образу и подобию своему …". Исходя из этих слов, мы можем заключить, что, по-скольку Господь, во-первых, создал нас, а во-вторых, мы по своей сути подобны ему, то мы вполне можем создать кого-то по образу и подобию человека.

2. Создание нового разума биологическим путем для человека дело вполне привычное. Дети большую часть знаний приобретают путем обучения, а не как заложенную в них заранее.

3. То, что раньше казалось вершиной человеческого творчества - игра в шахматы, шашки, рас-познавание зрительных и звуковых образов, синтез новых технических решений, на практике оказалось не таким уж сложным делом (теперь работа ведется не на уровне возможности или невозможности реализации перечисленного, а о нахождении наиболее оптимального алгорит-ма).

4. С проблемой воспроизведения своего мышления тесно смыкается проблема возможности са-мовоспроизведения. Существуют также различные неформальные доказательства возможности самовоспроизведения, но самым ярким доказательством, пожалуй, будет существование компь-ютерных вирусов.

5. Принципиальная возможность автоматизации решения интеллектуальных задач с помощью ЭВМ обеспечивается свойством алгоритмической универсальности. Это означает, что на них можно программно реализовывать любые алгоритмы преобразования информации, - будь то вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем или компо-зиции мелодий.

Однако не следует думать, что вычислительные машины и роботы могут в принципе решать любые задачи. Анализ разнообразных задач привел математиков к замечательному открытию. Было строго доказано существование таких типов задач, для которых невозможен единый эф-фективный алгоритм, решающий все задачи данного типа; в этом смысле невозможно решение задач такого типа и с помощью вычислительных машин. Этот факт способствует лучшему по-ниманию того, что могут делать машины и чего они не могут сделать.

Как же действует человек при решении таких задач? Похоже, что он просто-напросто игнориру-ет их, что, однако не мешает ему жить дальше. Другим путем является сужение условий универ-сальности задачи, когда она решается только для определенного подмножества начальных усло-вий. И еще один путь заключается в том, что человек методом "научного тыка" расширяет мно-жество доступных для себя элементарных операций (например, создает новые материалы, от-крывает новые месторождения или типы ядерных реакций).

О цели создания

Следующим философским вопросом ИИ является цель создания. В принципе все, что мы делаем в практической жизни, обычно направлено на то, чтобы больше ничего не делать. Однако при достаточно высоком уровне жизни человека на первые роли выступает уже не лень, а поисковые инстинкты. Допустим, что человек сумел создать интеллект, превышающий свой собственный. Что теперь будет с человечеством? Какую роль будет играть человек? Для чего он теперь ну-жен? И вообще, нужно ли в принципе создание ИИ?

По-видимому, самым приемлемым ответом на эти вопросы является концепция "усилителя ин-теллекта" (УИ). Здесь уместна аналогия с президентом государства - он не обязан знать ва-лентности ванадия или языка программирования Java для принятия решения о развитии вана-диевой промышленности. Каждый занимается своим делом - химик описывает технологический процесс, программист пишет программу; в конце концов, экономист говорит президенту, что вложив деньги в промышленный шпионаж, страна получит 20%, а в ванадиевую промышлен-ность - 30% годовых. При такой постановке вопроса любой человек сможет сделать правиль-ный выбор.

В данном примере президент использует биологический УИ - группу специалистов с их белко-выми мозгами. Но уже сейчас используются и неживые УИ - например мы не могли бы пред-сказать погоду без компьютеров, при полетах космических кораблей с самого начала использо-вались бортовые счетно-решающие устройства. Кроме того, человек уже давно использует уси-лители силы (УС) - понятие, во многом аналогичное УИ. В качестве усилителей силы ему служат автомобили, краны, электродвигатели, прессы, пушки, самолеты и многое-многое дру-гое.

Основным отличием УИ от УС является наличие воли. Ведь мы не сможем себе представить, чтобы вдруг серийный "Запорожец" взбунтовался, и стал ездить так, как ему хочется. Не можем представить именно потому, что ему ничего не хочется, у него нет желаний. В тоже время, ин-теллектуальная система, вполне могла бы иметь свои желания, и поступать не так, как нам хоте-лось бы. Таким образом перед нами встает еще одна проблема - проблема безопасности.

Проблема безопасности

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употре-бившего термин "робот". Большую лепту в обсуждение данной проблемы внесли и другие писа-тели-фантасты. Как самые известные мы можем упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение - "Терминатор". Кстати именно у Айзека Азимова мы можем найти самое проработанное, и принятое большинством людей решение проблемы безопасности. Речь идет о так называемых трех законах роботехники.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

3. Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопас-ность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы.

Интересно, что будет подразумевать система ИИ под термином "вред" после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, кото-рые были в исходнике.

Следующим вопросом будет такой. Что решит система ИИ в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто.

Однако несмотря на перечисленные проблемы, данные законы являются довольно неплохим неформальным базисом проверки надежности системы безопасности для систем ИИ.

Так что же, неужели нет надежной системы безопасности? Если отталкиваться от концепции УИ, то можно предложить следующий вариант.

Согласно многочисленным опытам, несмотря на то, что мы не знаем точно, за что отвечает каж-дый отдельный нейрон в человеческом мозге, многим из наших эмоций обычно соответствует возбуждение группы нейронов (нейронный ансамбль) во вполне предсказуемой области. В ма-тематической интерпретации это сведение какой-либо функции к максимуму или к минимуму. Теперь представим себе, что наш УИ в качестве такой функции использует измеренную прямо или косвенно, степень удовольствия мозга человека-хозяина. Если принять меры, чтобы исклю-чить самодеструктивную деятельность в состоянии депрессии, а так же предусмотреть другие особые состояния психики, то получим следующее.

Поскольку предполагается, что нормальный человек, не будет наносить вред самому себе, и, без особой на то причины, другим, а УИ теперь является частью данного индивидуума (не обяза-тельно физическая общность), то автоматически выполняются все 3 закона роботехники. При этом вопросы безопасности смещаются в область психологии и правоохранения, поскольку сис-тема (обученная) не будет делать ничего такого, чего бы не хотел ее владелец.

Вопрос полезности

И теперь осталась еще одна тема - а стоит ли вообще создавать ИИ, может просто закрыть все работы в этой области? Единственное, что можно сказать по этому поводу - если ИИ возможно создать, то рано или поздно он будет создан. И лучше его создавать под контролем обществен-ности, с тщательной проработкой вопросов безопасности, чем он будет создан лет через 100-150 (если к тому времени человечество еще не уничтожит само себя) каким-нибудь программистом-механиком-самоучкой, использующим достижения современной ему техники. Ведь сегодня, на-пример, любой грамотный инженер, при наличии определенных денежных ресурсов и материа-лов, может изготовить атомную бомбу.

Эволюция: от палки до компьтера

Допустим, станет возможным создание личности на неорганическом носителе, т.е. ИИ. А что тогда сможет помешать перенести сознание живого человека на искусственный носитель, ко-нечно, при наличии соответствующих технологий. Следует заметить, что подобный неорганиче-ский носитель будет не в пример долговечнее, чем человеческое тело, и можно будет говорить о бессмертии сознания, личности.

Даже если не рассматривать эту возможность, целесообразно было бы применить подобную технологию для того, чтобы спастись от случайной смерти. То есть, когда вы не будете бояться, что вас переедет троллейбус или кирпич на голову упадет, а все грандиозные планы так и оста-нутся несбывшимися.

Те, кто знаком с компьютерными играми хорошо знают термин "сохраниться": перед сложным этапом игры игрок записывает текущее состояние игры - чтобы в случае неудачи переиграть, начиная с него.

Переиграть жизнь, конечно, не получится, но вот "сохранять" себя, как персонаж игры, вполне возможно. Точнее говоря, для достижения такого технического бессмертия прямая аналогия с играми здесь не подойдет.

Дело в том, что записи игры - это копии. И если мы точно также себя "сохраним", т.е. скопиру-ем данные сознания на некий носитель, а потом с нами что-нибудь случится, то воспроизведе-ние этой записи вовсе не будет нашим бессмертием, а будет нашей копией, но не нами самими.

Т.к. сознание непрерывно, а прерывание сознания является смертью.

Если где-то на другом носителе появляется ваша копия, но не вы. Вас уже не существует.

Подобная технология может действовать так. Подобно тому, как мы с помощью удаленного доступа можем совершать то или иное действие, не боясь никакого ущерба в телекоммуникаци-ях, точно так само осуществление нами рабочих обязанностей или просто прогулка за город может являться подобным удаленным доступом. Мы на время можем использовать тела "на прокат", беспокоясь о том, что погибнем вместе с ними.

Несложно увидеть, что в будущем полицейскому, патрулирующему неспокойные кварталы, нет нужды делать это лично, он сам может сидеть в офисе, а патруль осуществлять в удаленном доступе: некотором устройстве или клоне, вообще это может быть что угодно, способное быть носителем удаленного доступа.

Это бессмертие для особо опасных профессий. Но опасно и вообще жить. Кирпич на голову мо-жет упасть, а еще можно заболеть какой-нибудь мало приятной болезнью. Так почему бы ни спроецировать подобную технику удаленного доступа на всю человеческую деятельность.

Человек может находиться в некотором защищенном месте, из которого и будет осуществлять всю свою деятельность в режиме удаленного доступа. Где его жизни ничто не угрожает.

Описанная выше картина в большей части является фантастикой, так как главной вещи - непре-рывности сознания - у нас нет. На сегодняшний день мы имеем один постоянный носитель соз-нания - мозг.

Но если мозг будет связан с компьютером, сетью, а сознание потеряет постоянное нахождение на каком-либо носителе, то все существенно изменится.

Можно сказать, что прерывания сознания мы испытываем постоянно, например - это наш сон. Проведем аналогию с компьютером, который отключают отдыхать, а потом снова загружают. Программа та же самая, но она была прервана. Так прерывается после сна и наше Я, т.е. его можно рассматривать как копию, но мы этого не осознаем, т.к. все это происходило в единст-венном носителе - нашем мозге.

Можно также предположить, что во время сна сознание не полностью отключается, т.е. Я со-храняется. Но есть обмороки, потери сознания, здесь уж точно полный обрыв сознания. Говоря компьютерным языком не горячая, а холодная перезагрузка. Это дает основания полагать, что каждый из нас в течение жизни является не раз повторенной копией самого себя, т.е. было от-ключение сознания, а потом оно "перезапустилось" с носителя заново.

Разумеется, мы не ощущаем себя копиями предыдущих Я, т.к. сегодня существуем только мы. Итак непрерывность сознания можно поставить под сомнение.

Рассмотрим теперь другой не менее важный аспект вопроса.

Мы считаем, что личность должна обладать одним Я. Но так ли это?

Сегодня мы наблюдаем у миллионов шизофреников, обладающих одним носителем сознания, мультипликацию личностей. Почему-то как должное принимается, что сознание не способно обладать более одним Я, а остальное - патология. Стоит рассматривать это как патологию, ко-гда у человека один носитель сознания. Но когда есть удаленные доступы - этих Я может быть и неограниченное количество.

У нас - один поток зрительной информации, один слуховой, тактильный - и так далее. Предста-вим себе, что таких потоков было бы по два разных - свой и удаленного доступа - или больше. Пожалуй, для их усвоения требовалось бы два Я, три, четыре и т.д.

Следует признать, что Я больше не будет уделом одного носителя. А тогда удаленные доступы сознания, которых одновременно может быть большое количество, могут быть в некоторой сте-пени автономны. Трудно представить себе это сейчас, но это так.

Технологии удаленного доступа позволят также расширить человеческое восприятие. Ни один закон физики не может в теории запретить нам ощущать внешнюю материю как свои органы тела. Наш прогресс в том и заключается, что мы себе как продолжение руки придумали палку. А потом продолжением человека стали стрелы и мечи, танки и самолеты, компьютеры и Интер-нет. Везде человек хочет не голую руку в огонь совать, а некоторый инструмент, который мож-но рассматривать как удаленный доступ.

Как и ясно, что вся Вселенная из палки обезьяны - ее удаленного доступа - станет частью на-шего сознания, когда мы ее материю найдем нашим удаленным доступом.

Наверное в этом и заключается Эволюция.

Литература

· Сотник С.Л.Лекции по курсу ИИ 1998г.

· АГСИ 14-2004 В. Ростов Живые мертвые и умершие бессмертные

· АГСИ 12-2004 В. Ростов Техника бессмертия

· АГСИ 7-2004 Мекельбург Э. Сознание из пробирки

· ВФ 4-2005 Павлов К.А. Существует ли неискусственный интеллект?

· Тарасов В.Б. От многоагентных систем к интеллектуальным организациям 2002г.

· Кибернетика и диалектика 1978г.

Никто не может предсказать, как поведут себя системы, созданные с помощью совершенного искусственного интеллекта. Тем не менее предположений много, рассмотрим в чем же заключается проблема искусственного итнеллекта .

Философская проблема искусственного интеллекта

Основная философская проблема в области искусственного интеллекта заключается в доведении возможности и целесообразности моделирования процесса мышления человека. Существует опасность тратить время на изучение того, что невозможно создать, в частности, на современном этапе развития человечества. Примером подобного времяпрепровождения может быть занятие научным коммунизмом — наукой, что на протяжении десятилетий изучала то, чего нет, и в обозримом будущем быть не может. Рассмотрим ряд доказательств, которые подводят к положительному ответу на вопрос возможности создания .

Первое доказательство выходит из области схоластики и говорит о непротиворечия искусственного интеллекта и Библии . Об этом говорят слова священного писания: «И создал Господь Бог человека по своему образу и подобию». Исходя из этих слов, можно утверждать, что, поскольку люди по своей сути подобные Творцу, то они вполне могут искусственным путем создать несколько по собственному образу и подобию.

Второй довод вытекает из успехов человечества, достигнутых в области создания нового разума биологическим путем. В 90-х годах прошлого столетия появилась возможность клонирования млекопитающих, начиная с овечки Долли. Дальнейшие достигнутые успехи в данном направлении заключаются в создании форм искусственной жизни, не имеющие никакого естественного экземпляра, к которому бы они были похожи. Например, кролики с дополнительным геном, что создает эффект светлячка. В отличие от клонов, эти формы в полной мере представляют собой искусственную жизнь . Вместе с тем, такие существа можно считать интеллектуальными, учитывая их способности к элементарному обучению. Поэтому они могут называться системами искусственного интеллекта, хотя несотворенным на основе использования средств вычислительной техники, которые представляют наибольший интерес для человечества.

Третий довод — это доказательство возможности самовоспроизведения объектов , состоящих из неживой материи. Способность к самовоспроизводству, как признак наличия интеллекта, долгое время считалась прерогативой живых организмов. Однако некоторые явления, происходящие в неживой природе, например, рост кристаллов, синтез сложных молекул через копирования, во многом идентичны самовоспроизводству.

Исследование искусственного интеллекта

В начале 50-х годов прошлого столетия Дж. фон Нейман занялся основательным изучением самовоспроизведения и заложил основы математической теории автоматов, «самовоспроизводящихся». Он также доказал теоретическую возможность управляемой инициализации самовоспроизведению. На сегодня, существует много различных неформальных доказательств возможности самовоспроизведения объектов, но для программистов наиболее существенный довод заключается в существовании компьютерных вирусов.

Четвертое доказательство — это существование принципиальной возможности автоматизации решения интеллектуальных задач с помощью вычислительной техники. Она обеспечивается ее свойством алгоритмической универсальности. Алгоритмическая универсальность вычислительных машин означает, что на них можно программно реализовывать любые алгоритмы преобразования информации: вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем и т.д. При этом, подразумевается, что процессы, порождаемые этими алгоритмами, являются потенциально осуществимыми, то есть, что они осуществляются в результате проведения конечного количества элементарных операций.

Практическая реализация алгоритмов зависит от существующих вычислительных мощностей, которые изменяются с развитием техники. В частности, вследствие появления быстродействующих компьютеров, стало практически возможным создание программных систем, способных реализовывать такие алгоритмы, которые ранее считались лишь потенциально осуществимыми.

Для обозначения программных систем, использующих искусственный интеллект, сложился общий срок — интеллектуальная система . Целесообразность создания интеллектуальных систем заключается в необходимости решения задач, которые не решаются на достаточном уровне эффективности программными системами, созданными на жесткой алгоритмической основе. К таким задачам относятся задачи, имеющие, как правило, следующие особенности:

  • у них неизвестный алгоритм решения — такие задачи носят названия интеллектуальных задач;
  • в них используется, помимо традиционных форматов данных, информация в виде графических изображений, рисунков, звуков;
  • в них предполагается наличие свободы выбора — то есть, отсутствие единого алгоритма решения задачи обусловливает необходимость сделать выбор между вариантами действий в условиях неопределенности.

Приведенный перечень задач формирует особенности интеллектуальных систем, предназначенных для их решения. Источником такого определения особенностей фактически является известный тест Тьюринга , предложенный британским математиком и одним из первых исследователей в области компьютерных наук Аланом Тьюрингом (Alan Turing). В данном тесте экспериментатор, обмениваясь сообщениями с подопытным объектом, пытается определить, кем он является на самом деле: человеком или компьютерной программой.

Интеллектуальная система, успешно прошла такой тест, считается сильным искусственным интеллектом. Термин «сильный искусственный интеллект» пропагандируется специалистами, которые считают, что искусственный интеллект должен базироваться на строгой логической основе. В отличие от сильного, слабый искусственный интеллект, по их мнению, базируется исключительно на одном из методов решения интеллектуальных задач (искусственных нейронных сетях, генетических алгоритмах, эволюционных методах). В наши дни стало очевидным, что ни один из методов искусственного интеллекта не позволяет успешно решить приемлемое количество задач — лучше проявляет себя использование комбинации методов.

Первая программа, прошедшая тест Тьюринга, была написана в ходе проведения психологических экспериментов Стивеном Вейценбаум (Steven Weizenbaum) в 1967 году. С тех пор уровень знаний в этой области значительно возрос, а способы взаимодействия экспериментатора с объектом исследования стали гораздо совершеннее. В наши времена проводятся отдельные соревнования с призовым фондом в сотни тысяч долларов США под названием: «Соревнование за приз Лебнера», в ходе которых определяется лучшая программа.

Не следует думать, что интеллектуальные системы могут, решать любые задачи. Математиками было доказано существование таких типов задач, для которых невозможен единый алгоритм, чтобы воспроизводил их эффективные решения. В этом контексте определяется невозможность решения задач такого типа с помощью интеллектуальных систем, разработанных для вычислительных машин. Кроме того, утверждение про алгоритмическую невозможность решения некоторого класса задач является одновременно и прогнозом на будущие времена, согласно которому алгоритмы их решения не будут найдены никогда.

Этот факт способствует лучшему пониманию того, где в современном мире могут найти свое практическое . В частности, для решения задачи, не имеет универсального алгоритма решения, целесообразно ее сужение до уровня, когда она решается только для определенного подмножества начальных условий. Такие решения по силам интеллектуальным системам, а их результат способен сузить, для человека, область вариантов интуитивного выбора.

«Искусственный интеллект» и проблема субъективного в философии

Вопрос о возможности или невозможности искусственного разума всегда интересовал людей. Но сравнительно недавно эта тема из разряда теоретических споров переросла в практически-важную область знания. При внимательном рассмотрении проблемы искусственного интеллекта выявляется ее комплексный характер, вовлеченность в ее разработку многих областей знания. Иначе не может и быть, когда дело касается, пожалуй, наиболее сложного явления в природе, которое лишь частично поддается объективному исследованию. Гносеологические, семантические, технологические аспекты рассматриваемой проблемы находят выражение не только в теоретических, но и прикладных областях естественнонаучных дисциплин. Сравнительно специфически занимается разработкой проблемы «искусственного интеллекта» кибернетика - наука об управлении, хотя в ее рамках рассматривается более широкий круг вопросов. Кибернетика имеет необычный, синтетический характер. В связи с этим до сих пор существуют различия в трактовке некоторых ее проблем и понятий. Для развития кибернетики немаловажное значение имеет применение к предмету ее исследования ряда фундаментальных философских принципов и понятий.

Все попытки создания искусственного разума, аналогичного человеческому, так или иначе, обращаются к феномену самопознания субъекта, потому что единственным доступным прототипом для всех моделей такого интеллекта является человеческое мышление и его физический субстрат - головной мозг. Учитывая, что сущность человеческого мышления и сознания сама по себе еще далека от полного понимания, практические реализации искусственного интеллекта представляются скорее средством решения более широкого вопроса об интеллекте вообще (если не учитывать прагматические соображения об использовании его в практических целях).

В прошлом философский анализ мышления производился сверху вниз, то есть процессы мышления рассматривались, как данность и основное внимание было направлено не на происхождение мышления, а на законы, по которым оно функционирует. Впервые в истории античной философии занялся специальным изучением внутренней структуры человеческого мышления Аристотель, он стремился вывести логические формы из реального содержания мысли.

Однако по мере накопления естественнонаучного знания назрела необходимость исследования и материальной основы сознания. Когда развитие техники достигло определенного уровня, естественным образом стала обсуждаться возможность осуществления техническими устройствами интеллектуальных функций.

Первоначально система искусственного мышления представлялась как система, занимающаяся вычислениями в чистом виде. Сейчас это кажется не вполне понятным, но некоторые представители философской науки длительное время абсолютизировали математические достижения, рассматривая их как высшую форму активности разума. С тех пор как древние греки изобрели логику и геометрию, мысль о том, что всякое рассуждение может быть сведено к своего рода вычислению - так что любое дискуссии можно было бы считать улаженными раз и навсегда - занимала умы многих мыслителей. Платон значительное место в своих взглядах отводил вопросам теории познания и логики.

Согласно Платону, всякое знание должно быть представлено в виде точного определения, которыми может пользоваться всякий. Если человек не может представить свое умение в виде такого рода точных правил, т.е. если он не в состоянии обратить свои знания о том, как нечто делается, в знание о том, что делать, значит, он располагает не знанием, а лишь уверенностью. Однако представления Платона еще не совпадали с центральной линией современной кибернетики. Аристотель, обоснованно отметил, что для применения платоновских правил необходимо обращение к интуиции. Это действительно так, потому что Платон исходил из предположения, что человек изначально понимает значение понятий, составляющих правила. Сам Платон признавал, что его правила не могут быть полностью формализованы. Как будет показано ниже, такая установка на априорное понимание правил может завести в тупик. Впервые синтаксическая концепция мышления как процесса вычисления была в явной форме сформулирована Т. Гоббсом: «Когда человек рассуждает, он лишь образует в уме итоговую сумму путем сложения частей…». Лейбниц - изобретатель системы двоичной системы счисления - посвятил свою жизнь разработке однозначного формального языка необходимого для такого «строгого» мышления. Используя этот универсальный язык, как думал Лейбниц, всякое понятие можно будет представить в виде небольшого количества исходных неопределяемых идей, каждому объекту приписать определяющее его «характеристическое число». На основе таких характеристик и правил их комбинирования в единой дедуктивной системе должны были стать легкорешаемы любые проблемы. По Лейбницу практика есть, по сути, не что иное, как более сложная и подробная теория. Дж. Буль - известный математик и логик 19-го века - продолжил заниматься формализацией процессов мышления, что нашло воплощение в логической алгебре, основном теоретическом базисе современной вычислительной техники. В то же время, И. Кант предостерегал против абсолютизации законов логики. По взглядам И. Канта, логика представляет собой науку о необходимых законах, правилах рассудка вообще. Он первым указал, что всегда необходимо отличать логическое основание и логическое следствие от реальной причины и реального следствия.

Если оценивать достигнутые на сегодняшний день успехи кибернетики с указанных позиций, искусственный разум, как его понимали на протяжении веков, давно и успешно реализован. Недаром М. Хайдеггер справедливо назвал кибернетику кульминацией философской традиции.

В 1944 году Х. Айкен создал первую электромеханическую вычислительную машину. В основу этого устройства был заложен принцип дискретной (цифровой) и последовательной обработки информации. Хотя эта машина еще не была электронной, по своей сути она ничем не отличалась от компьютеров производимых в последующие 50 лет. Существуют 2 основных типа вычислительных машин: аналоговые и цифровые. Аналоговые машины не вычисляют в строгом смысле слова - их функционирование заключается в измерении физических величин. Комбинируя различные непрерывные величины, такие машины измеряют получившийся результат. Цифровая вычислительная машина оперирует абстрактными символами, которые могут означать все что угодно и логическими операциями, которые могут связывать все что угодно. Иногда в литературе можно встретить мнение, согласно которому цифровые машины считаются универсальными, т.к. вследствие абстрактности символического языка они могут имитировать любую другую цифровую и даже аналоговую машину (если для ее описания определена математическая функция). Но я думаю, что такие утверждения не вполне обоснованы. Поскольку все области знания, в том числе математика и философия постоянно развиваются, чисто теоретически нельзя исключить, что будет разработан алгоритм, реализация которого станет возможна лишь на цифровой машине качественно отличной. Однако, во второй половине 20-го века самодостаточным базовым элементом, реализующим любые мыслимые принципы, считалась логическая алгебра Буля, которая внедрялась в устройства уже на стадии проектирования.

Несмотря на бурное развитие электронной техники и параллельное этому совершенствование алгоритмических языков вскоре стали заметны несоответствие между широким кругом задач, которые предъявлялись создаваемым системам и теми задачами, которые они были в состоянии выполнить. Например, попытки решения сложных задач (выбор пути в лабиринте, игра в шахматы и т.д.) методом простого перебора вариантов наталкивались на экспоненциальный рост объема вычислений. Это подвигло ученых на пересмотр критериев, характеризующих «интеллектуальность» искусственных устройств. Все большее внимание теперь уделялось не только абстрактно-отвлеченным операциям формальной логики, но и задачам аналогичным другой стороне человеческого мышления: интуитивному восприятию и творческому преобразованию действительности. В связи с этим стала еще более актуальной потребность в уяснении внешне не очевидных закономерностей человеческого мышления и стратегий решения задач. Что бы найти путь решения надо вначале уяснить, что является задачей в принципе. Как отмечают психологи, этот термин тоже не является достаточно определенным. По-видимому, в качестве исходного можно принять понимание задачи как мыслительной задачи, существующее в психологии: задача есть только тогда, когда есть работа для мышления, т. е. когда имеется некоторая цель, а средства к ее достижению не ясны; их надо найти посредством мышления. Хорошо по этому поводу сказал Д. Пойа: «...трудность решения в какой-то мере входит в само понятие задачи: там, где нет трудности, нет и задачи». Если человек имеет очевидное средство, с помощью которого, наверное, можно осуществить желание, то задачи не возникает.

На сегодняшний день наиболее популярно определение искусственного интеллекта как системы способной решать интеллектуальные задачи, т.е. задачи, которые человек обычно решает посредством своего интеллекта (интеллектом принято называть способность приобретать новые и использовать ранее накопленные знания, что подразумевает способность эффективно действовать в нестандартных ситуациях.). Мне такое определение искусственного интеллекта представляется не вполне конкретным. Оно вносит неоднозначность, так как согласно ему требования к функциям, выполняемым системой, могут варьировать в широких пределах. Например, на заре электронной эры, когда исследователи-кибернетики еще не знали об ограничениях применяемого ими подхода, они постулировали создание систем, превосходящих человека по широкому кругу вопросов. Впоследствии, столкнувшись с проблемами, разработчики программ для электронных устройств перенесли основной акцент на создание экспертных систем, и такие системы, имея редуцированные в целом функции, сохранили за собой наименование искусственного интеллекта. Еще больше критики вызывает так называемый тест Тьюринга или игра в имитацию. Обе попытки определить данное понятие страдают антропоморфизмом. Причина сложности видимо кроется в семантической неадекватности термина «искусственный интеллект». Причем это частный случай более широкой проблемы. Так, например, постановка вопроса «может ли машина мыслить?» была обусловлена тем, что при использовании моделирования для изучения мыслительной деятельности стала применяться техническая, точнее, кибернетическая технология, а термины биологии, физиологии и психологии стали проникать в кибернетику. Как справедливо выразился Э. Хольст, «сторонники кибернетики распоряжаются по своему усмотрению тем запасом знаний, который был накоплен с таким трудом отдельными науками…». Подведение под определенный термин не соответствующего ему понятия порождает так называемые «языковые ловушки». Так описание психического процесса при помощи технических терминов нередко приводит к «открытию» машиноподобности психики, мышления. Вот что говорил по этому поводу один из крупнейших кибернетиков Ст. Бир: «Модель языка системы, которым пользуется кибернетика, вносит в описание такие смысловые оттенки, от которых нам хотелось бы избавиться. Но мы не в силах этого сделать и поэтому всегда должны помнить о возможности неверных толкований при обсуждении нервных систем, мозга и машин».

Допустим все же, что можно согласиться с таким обозначением рассматриваемого понятия как «искусственный интеллект». Какие же признаки позволяют однозначно отнести ту или иную вычислительную систему к разряду интеллектуальной? Характеризуя особенности систем «искусственного интеллекта», Л.Т. Кузин указывает на:

  • 1) наличие в них собственной внутренней модели внешнего мира; эта модель обеспечивает индивидуальность, относительную самостоятельность системы в оценке ситуации, возможность семантической и прагматической интерпретации запросов к системе;
  • 2) способность пополнения имеющихся знаний;
  • 3) способность к дедуктивному выводу, т.е. к генерации информации, которая в явном виде не содержится в системе; это качество позволяет системе конструировать информационную структуру с новой семантикой и практической направленностью;
  • 4) умение оперировать в ситуациях, связанных с различными аспектами нечеткости, включая «понимание» естественного языка;
  • 5) способность к диалоговому взаимодействию с человеком;
  • 6) способность к адаптации.

Некоторые из указанных критериев будут обсуждаться ниже.

При характеристике мышления необходимо отметить, что его основная функция заключается в выработке схем целесообразных внешних действий в бесконечно варьирующих условиях. Специфика человеческого мышления (в отличие от рассудочной деятельности животных) состоит в том, что человек вырабатывает и накапливает знания, храня их в своей памяти. Выработка схем внешних действий происходит не по принципу «стимул - реакция», а на основе знаний, получаемых дополнительно из среды, для поведения в которой вырабатывается схема действия.

Этот способ выработки схем внешних действий (а не просто действия по командам, пусть даже меняющимся как функции от времени или как однозначно определенные функции от результатов предшествующих шагов), является существенной характеристикой любого интеллекта. Если задача не является мыслительной, то она решается на ЭВМ традиционными (алгоритмическими) методами и, значит, не входит в круг задач «искусственного интеллекта». Ее интеллектуальная часть выполнена человеком. На долю машины осталась часть работы, которая не требует участия мышления, т. е. «безмысленная», неинтеллектуальная.

Отсюда следует, что к системам «искусственного интеллекта» относятся те, которые, используя заложенные в них правила переработки информации, вырабатывают новые схемы целесообразных действий на основе анализа моделей среды, хранящихся в их памяти. Способность к перестройке самих этих моделей в соответствии с вновь поступающей информацией является свидетельством более высокого уровня «искусственного интеллекта».

Принципы обработки информации, заложенные в первые вычислительные устройства, определялись традиционными представлениями о могуществе формальной логики. Жесткие алгоритмы предписывали устройству поочередно шаг за шагом выполнить некоторые арифметические преобразования. И с такой задачей устройства успешно справлялись. Но далее сложилась парадоксальная ситуация: компьютеры прекрасно имитировали высшие формы абстрактной деятельности человека, такие как решение сложных инженерных задач и в тоже время им были недоступны более «примитивные» способности типа распознавания изображений, понимания конструкций языка. Попытки экстенсивного наращивания скорости и объема вычислений проблему не решили. Стало очевидно, что необходим пересмотр фундаментальных принципов работы решающих устройств.

Первым реальным шагом на пути преодоления ограничений алгоритмического подхода была разработка эвристического программирования. Решению задачи может способствовать использование информации самого различного рода: информация может подсказать порядок, в котором следует проверять возможные решения или послужить основанием, для того чтобы исключить из рассмотрения целый класс возможных решений. Всякая информация такого рода есть эвристика, т.е. то, что способствует открытию. Иными словами суть эвристического поиска - сокращение числа перебираемых вариантов без потери качества решения, благодаря содержащейся в задаче дополнительной информации. Эвристики в редких случаях могут служить безошибочным руководством, их результаты варьируют от задачи к задаче, и успешность их применения нельзя гарантировать. Однако, руководствуясь такими инструкциями, машина проявляет больше «человеческих» свойств, ей становится доступным принципиально новый круг задач (например, поиск в лабиринте). Именно в 50-х годах, когда был открыт принцип эвристического программирования, термин «искусственный интеллект» получил еще одно толкование, теперь им обозначалась область исследований, в которой цифровые машины используются для моделирования разумного поведения.

Другим подходом было создание алгоритмов, которые обеспечили бы компьютерам способность обучаться, или, иначе говоря, способность изменяться под влиянием собственного опыта. К сожалению, системы искусственного интеллекта практически неспособны активно воздействовать на внешнюю среду, что отрицательно сказывается на возможностях самообучения и вообще совершенствования «интеллектуальной» деятельности. Простые процессы ассоциативного обучения были промоделированы на цифровых машинах, но такое обучение имеет мало общего с тем, что мы наблюдаем у человека или высокоорганизованных животных.

Задача создания обучающихся систем непосредственно связана со структурированием знаний, объем которых может быть грандиозным. Вспомним, что наличие собственной модели мира неотъемлемый признак «искусственного интеллекта». Формирование такой модели связано с преодолением синтаксической односторонности системы, т.е. с тем, что символы или та их часть, которой оперирует система, интерпретированы, имеют семантику. На начальных этапах разработки проблемы искусственного интеллекта ряд исследователей, особенно занимающихся эвристическим программированием, ставили задачу создания интеллекта, успешно функционирующего в любой сфере деятельности. Это можно назвать разработкой «общего интеллекта». Сейчас большинство работ направлено на создание «профессионального искусственного интеллекта», т. е. систем, решающих интеллектуальные задачи из относительно ограниченной области (например, управление портом, интегрирование функций, доказательство теорем геометрии и т.п.). Тем самым создаются предпосылки для устранения неоднозначности семантической интерпретации, что упрощает процесс реализации функций самообучения. Такие специализированные системы получили название экспертных. Однако даже на современном этапе экспертные системы не в полной мере оправдывают свое название. Они представляют собой скорее склад знаний, которыми обладают различные эксперты и только в этом могут принести пользу при определенных обстоятельствах. Однако элемент интеллектуальности у этих систем все-таки имеется. Дело в том, что самостоятельное структурирование огромных массивов информации является довольно сложной задачей. Основой современных экспертных систем служат фреймы - крупная, структурированная единица знаний, основанная на фактах и процедурах. Фактуальные (декларативные) знания - база данных. Важнейшая часть базы данных - сценарий, описывающий внешнюю обстановку, с которой взаимодействует эксперт. Процедурные знания - множество правил вывода (продукций) для базы знаний. Правила включают информацию о методах сужения области поиска. Отдельные фреймы взаимосвязаны и образуют единую систему. Единство системы реализуется с помощью дополнительной информации, содержащейся в каждом фрейме. Она включает сведения о способе обращения с данным фреймом, о действии, которое нужно выполнить, о действии которое нужно выполнить, если текущие предположения не оправдались. Таким образом, фрейм включает способы переадресации к другому фрейму, а иногда переадресация осуществляется по аналогии. Еще одна характерная особенность фрейма связана с наследованием атрибутов, что позволяет избегать дублирования информации и устранять противоречивые данные

Некоторые задачи, такие как распознавание образов и использование естественных языков не удавалось реализовать длительное время, лишь в последние годы в этой области наметился некоторый прогресс. На задаче распознания зрительных образов следует остановиться особо. Человек узнает человека, которого видел один - два раза, непосредственно в процессе чувственного восприятия. Исходя из этого, кажется, что задача не является интеллектуальной. Но в процессе узнавания человек не решает мыслительных задач лишь постольку, поскольку программа распознания не находится в сфере осознанного. Традиционный подход показал полную несостоятельность в плане восприятия естественного языка даже для эвристически запрограммированных систем. Попытки свести понимание языка к конечному набору каких-то правил выявили, что он не поддается окончательной формализации. Правила, которые выводились из других правил, в свою очередь нуждались в интерпретации. Вскрылась проблема «изначального понимания» человеком неявных инструкций, которые не могут быть четко сформулированы. Принципиальная корректность работы компьютера означает невозможность порождения ошибочных гипотез, а указание на локальный характер работы ЭВМ - отсутствие как такового механизма выдвижения гипотез, поскольку для выдвижения гипотез необходима другая, отличная от алгоритмического вычислителя, программа, способная «помнить» результаты своих прошлых вычислений и анализировать их. По существу, речь в данном случае идет уже о программе следующего иерархического уровня (метапрограмме), которая работает не непосредственно с «входными данными», а с результатами работы программы первого уровня - с результатами работы алгоритмического вычислителя.

Это заставило ученых обратиться к еще одному аспекту человеческого мышления: умению человека учитывать нечеткие ситуации, не прибегая к замене их точными описаниями. Человек способен использовать глобальный контекст для требуемого уменьшения неоднозначности, не прибегая при этом к формализации (то есть полному исключению неопределенности). Это особенно ярко проявляется при манипулировании естественным языком. Присущее человеку ощущение ситуации позволяет ему исключить из рассмотрения большинство возможных вариантов до всякого точного их анализа. По аналогии с человеком в цифровые вычислительные устройства попытались ввести принцип случайности. Такой подход оказался наиболее продуктивным при решении игровых задач, например шахматных. Также интересной в этом плане представляется используемая во фреймах операция по умолчанию. Она включается, если не хватает конкретной информации для использования данного фрейма. Тогда вводится предположение, что недостающая информация - обычная, т.е. не отличается от нормы. Такой прием позволяет снять неопределенность - понять смысл ситуации при неполноте информации. Вывод по умолчанию выполняет весьма важную функцию при распознавании. Например, если видна лишь часть образа, то, заменив другие части значениями по умолчанию, можно хотя бы приблизительно идентифицировать образ. Точно также, используя значения по умолчанию, можно восстановить смысл контекста, из которого выхвачены отдельные предложения. Отчетливо видно, что те механизмы мышления, которые мыслители прошлого, считали лишь помехой на пути постижения истины, являются не менее важным способом получения информации о действительности, хотя законы такого способа не столь очевидны по сравнению с правилами формальной логики.

На данной стадии возникает необходимость прояснить взаимоотношения, существующие между «искусственным интеллектом» и биологической наукой о мышлении. Один из аспектов проблемы - это моделирование процессов мышления. В исследованиях по «искусственному интеллекту» ученые, сталкиваясь с затруднениями, неизбежно обращали взоры на процессы мыслительной деятельности, имеющие место у человека. Вот что пишет по этому поводу Станислав Мурсалов программист, известный разработчик систем с элементами «искусственного интеллекта»: «Многочисленные аналогии с психикой человека будут продолжаться, аналогия в данном случае - важный инструмент разработки. Фундаментальная теория всегда опирается на подходящую модель явления, а здесь самая подходящая модель - наша психика, сотворив которую, природа давно решила нашу задачу. Уже многократно в трудах своих, придя к тем или иным выводам, впоследствии я обнаруживал объяснение этому в «психической» книжке или, беседуя с умным человеком, если совершенно разные пути приводят к аналогичным выводам, значит предмет - рационален, работать с ним можно …»

Общим для мозга и моделирующими его работу устройствами является материальность, закономерный характер всех процессов, общность некоторых форм движения материи и отражение как всеобщее свойство материи.

Когда мы говорим о модели, речь идет о системе, в определенных существенных структурах и отношениях аналогичной предмету исследования, системе, применение которой при исследовании определенных предметных областей опирается на научную обоснованность выводов по аналогии. Аналогия предполагает тождественность некоторых характеристик сравниваемых систем, но в целом эти системы всегда различны.

Модель при этом выступает как заместитель прототипа, причем это не простое замещение, а такое, которое дает возможность получить о прототипе определенное знание. Следовательно, для всех научных моделей характерно то, что они являются заместителями объекта исследования, находящимися с последним в таком сходстве (или соответствии), которое позволяет получить новое знание об этом объекте. Весьма распространенным является отождествление модели с идеальным образом. С этой точкой зрения трудно согласиться, ведь нетождественность модели и образа определяется самой природой моделирования - последнее предполагает формирование образа в процессе предварительного исследования объекта (прототипа).

В моделировании объекта мы можем выделить разные этапы, для которых характерно использование моделей, отражающих степень полноты аналогии между моделью и прототипом: моделирование результата; моделирование поведения, ведущего к этому результату; моделирование структуры; моделирование материала. Этот способ разделения моделей оказывается удобным для анализа моделирования отражательных функций мозга. Например, такой вид аналогии как изоморфизм предполагает тождество структур и различие элементов, но соответствие структур разных объектов не предполагает обязательность тождества элементов, связанных определенными соотношениями. Такова же ситуация и при других видах аналогии.

Возникновение системного подхода было обусловлено тем, что традиционные методы исследования при изучении сложных объектов оказались несостоятельными. Поэтому и появилось необходимость представления сложного объекта в виде системы. С использованием системного подхода возникает вопрос: существуют ли системы реально или же системы привносятся в реальность человеком? Имеется тенденция, берущая начало с Клода Бернара, согласно которой системы существуют не в природе, а в сознании людей. С. Бир, исходя из разрабатываемой им идеи имманентности организации, утверждает, что наш мозг накладывает некоторую структуру на реальное бытие, выделяя тем самым систему. Конечно, можно согласиться с тем, что прерогатива выделения системы принадлежит субъекту, но это не означает, что система - произвольная конструкция сознания, т.к. если есть отражение в сознании, то есть и то, что отображается, т.е. объективная действительность. Несмотря на объективность существования системы, ее выражение, представление носит условный характер, определяемый уровнем развития нашего знания. И в этом смысле мы можем сказать, что система в виде некоторого теоретического представления объекта не существует вне человеческого познания и общественной практики, хотя сам объект с его взаимосвязью составляющих существует объективно. Таким образом, можно говорить, что существую реальные объективные системы (объекты) и системы понятий (мысленные, концептуальные системы), которые характеризуют этот объект. Следовательно, в виде систем могут быть представлены не только объекты, но и теории.

Мозг и кибернетические моделирующие устройства принадлежат к самоорганизующимся динамическим функциональным системам. Для правильного функционирования системы в ней необходимо постоянство определенных параметров. Регулирование осуществляется по замкнутому циклу, при котором посредством обратной связи система получает сигнал о степени полезности действия. Между мозгом и моделирующим устройством существует структурно-функциональная аналогия, заключающаяся в том, что определенной структуре соответствует определенная функция.

Субстанциональные теории психического стали терять популярность по мере того, как дальнейшее развитие наук, таких как физика, математика и, в особенности, кибернетика, показало, что функции, как правило, не столь тесно связаны с субстратом, в котором или посредством которого они реализуются. Одна и та же функция (описываемая, например, одними и теми же математическими формулами) может быть реализована различными способами и в различных по своим физическим свойствам субстратах. Выяснилось, что функция больше зависит не от специфических свойств материального субстрата, а от его структурной организации. Выяснилось также, что сложные функции можно представить в виде суперпозиции некоторого фиксированного множества простых функций. В математике подобный подход получил развитие в теории алгоритмов (теории рекурсивных функций).

Однако при моделировании мышления в технической модели воссоздается не мыслительный процесс, а лишь его результат. Совершенно прав, по моему мнению, В.А. Веников, утверждающий, что при моделировании живых систем между моделью и прототипом проявляется сходство по отдельным функциям и несходство по существу.

Несмотря на это стала выдвигаться, по словам Б.М. Кедрова, «идея о сведении мозга к чисто физической системе, о мнимой замене мозга машиной». Так возникла проблема, получившая первоначальную формулировку «может ли машина мыслить?». И нередко признание возможности наделения моделирующих устройств сознанием стало ассоциироваться с материализмом, а отрицание такой возможности- с идеализмом. Столь категоричная постановка вопроса неправомерна: между живыми системами и моделирующими устройствами есть и общность, которую невозможно отрицать, и специфика, которой нельзя пренебречь. А для проведения сравнительного анализа этих двух объектов необходимо в первую очередь конкретизировать терминологию описания.

Те сведения о мозге, которые нам дает нейрофизиология и нейроанатомия, по большей части укладываются в схему, согласно которой мозг есть некая разновидность «сетевого нейрокомпьютера», т.е. представляет собой нечто подобное сети взаимосвязанных элементарных вычислительных устройств, параллельно обрабатывающих большие массивы сенсорной информации. Нервная клетка (нейрон) рассматривается с этой точки зрения как основной рабочий элемент «нейрокомпьютера», а его функция сводится к простой суммации входных сигналов (нервных импульсов, поступающих от других нейронов) с различными «весовыми коэффициентами». Если сумма превышает определенный порог, то нейрон генерирует «потенциал действия» - стандартный импульс, который может быть адресован десяткам тысяч других нейронов. Функция долгосрочной памяти в этой модели обеспечивается устойчивыми изменениями проводимости межнейронных контактов - синапсов (так называемая «коннекторная» теория долгосрочной памяти). Еще в 40-х годах было показано (У.С. Маккаллок, У. Питс), что сеть, построенная из элементов, аналогичных по своим функциональным свойствам нейронам, способна, при условии наличия достаточно большого числа нейроподобных элементов, выполнять функцию универсальной вычислительной машины, т.е. в соответствии с тезисом Черча, вычислять все, что вычислимо.

Схематизм такого подхода очевиден. Заметим, что нейрон - это по компьютерным меркам чрезвычайно медлительный, ненадежный, обладающий огромной латентностью и рефрактерностью функциональный элемент. (Достаточно сказать, что время переключения на одном нейроне составляет величину порядка одной сотой секунды, максимальная частота импульсации не превышает нескольких сотен герц). По всем этим параметрам нейрон не выдерживает никакой конкуренции с транзистором или микросхемой. Кроме того, скорость передачи нервных импульсов внутри мозга примерно в три миллиона раз меньше, чем скорость передачи электромагнитных сигналов между элементами компьютера. Каким образом агрегат, состоящий из столь несовершенных элементов, может не просто конкурировать с электронным компьютером, но и существенно его превосходить при решении определенного рода задач (распознавание образов, перевод с одного языка на другой и т.п.)? Обычный ответ - за счет использования принципа параллельной обработки информации. Однако, интенсивные исследования в этой области за последние десятилетия показали, что распараллеливание в общем случае дает лишь сравнительно небольшой выигрыш в скорости вычислений (не более, чем на два-три порядка). Причем этот факт мало зависит от архитектуры вычислительных систем. Кроме того, далеко не все задачи допускают распараллеливание вычислений. Далее, вычислительную мощность мозга в целом можно приблизительно оценить числом событий, которые могут происходить в нем за одну секунду (здесь имеются в виду лишь информационно значимые события, например генерация потенциала действия нейроном). Общее число таких значимых событий оценивается величиной порядка сотен миллиардов, что вполне сравнимо с числом операций в секунду в большой параллельной компьютерной системе. То есть и с этой точки зрения мозг ничем не превосходит компьютер. Остается предположить, что мозг, наряду с известными нам из физиологии электрохимическими процессами, использует для обработки информации и какие-то иные физические принципы, которые и позволяют ему достичь большей по сравнению с компьютером «вычислительной эффективности».

Перейдем теперь к анализу проблемы моделирования отражательных функций мозга. В процессе развития и усложнения форм движения материи появляются и соответствующие им формы отражения. Поэтому в результате развития может возникнуть живая, ощущающая материя, обладающая аналогичными человеку свойствами. Л. фон Берталанфи подчеркнул отличие живого организма от машины, заключающееся в том, что живой организм развивается в направлении увеличения дифференциации и негомогенности и может корректировать «шум» в более высокой степени, чем это имеет место в коммуникационных каналах неживых систем - оба эти свойства организма являются результатом того, что организм представляет собой открытую систему. Человеку и устройству свойственны различные формы движения материи, а потому и формы отражения у них качественно различны. Техническим моделям присущи низшие формы движения материи, а человеческому организму - также биологическая и социальная.

Некоторые авторы утверждают, что хотя современные моделирующие устройства и не обладают чертами сознания, из этого положения нельзя сделать вывод о невозможности существования неорганической материи, обладающей свойствами мышления. При этом высказывается мнение, что такое свойство может появиться в ходе усложнения организации моделирующего устройства, т.е. на базе количественных изменений произойдут качественные изменения.

Между структурой и субстратом мозга мыслящего субъекта и функцией сознания, мышления существует органическая связь. В моделирующих устройствах вид связи функции со структурой и субстратом принципиально иной, чем у человека, здесь материальный субстрат уже не играет главной роли и все внимание направлено на структуру, способу организации логических сетей. Такая ситуация сохраняется по сей день, хотя ограниченность такого подхода становится все более очевидной. Является ли столь пренебрежительное отношение к субстратным особенностям обоснованным? Конечно первоначальное значение понятия субстратный подхода, исходящее из того, что для каждого свойства необходим соответствующий субстрат, существующий независимо от остального мира, изжило себя, поскольку свойства, как оказалось, не имеют субстанционального характера, они являются результатом взаимодействия объектов. Один и тот же субстрат в разных условиях обнаруживает разные свойства. В единой системе «субстрат-структура-свойство» от одного из элементов можно отвлечься лишь в строго определенных пределах. Какого бы высокого уровня не достигли функциональные исследования, рано или поздно возникает необходимость проникновения на следующий уровень вплоть до субстрата. Познание лишь структуры не может обеспечить раскрытия специфики живых систем, т.к. познание с точностью до изоморфизма не может быть исчерпывающим, в противном случае любой объект может быть разложен без остатка «на совокупность структур из чистых отношений». Кибернетический подход рассматривает структуры и функции в той мере, в какой они являются общими у разных форм движения материи, поэтому для него характерно отвлечение от конкретных материальных процессов. В рамках наук изучающих специфику живого, отвлечение от конкретной формы движения материи невозможно. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реализуется этот процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Вообще говоря, не исключено, что механизмы, необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или даже в любой технической системе, включающей в себя только компоненты неорганической природы. Иначе говоря, в принципе не исключено, что хотя мы можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема лишь в системе, субстратно тождественной человеку.

Познание объективной действительности человеком осуществляется посредством языка, с помощью которого происходит выявление и закрепление результатов процесса познания. Язык человека носит понятийный характер. Образ вещи или явления предстает свободным от вещественного, материального облика, от второстепенных несущественных признаков. Понятие, поэтому, выступает как форма абстрактно-логического мышления, возникшая в практической деятельности и непосредственно связанная с языком.

При сравнении языка человека и машин следует помнить, что идеальность психической формы отражения заключается в предметной соотнесенности, а это означает, что в нейродинамических состояниях отражательного аппарата выделяются структуры, изоморфные структурам в предметной сфере - получающийся идеальный образ не что иное, как результат использования упорядоченности нейродинамических процессов мозга в функции особых заместителей вещей и регуляторов действий с вещами.

Человек, осмысливая знаки, постигает их значение. Но для самой машины всякий символ играет роль физического сигнала, на который она отвечает другим сигналом. Машина действует не с понятийным языком, а с системой правил, по своему характеру являющейся формальной, не имеющей предметного содержания. Поэтому речь может идти не об образовании понятий моделирующими устройствами, а о физическом аналоге процесса образования понятий. Моделирование процесса образования понятий должно рассматриваться не как образование подлинных понятий, а как образование символов для обозначения определенных классов явлений. Машина, таким образом, имеет дело не со значением знака, а лишь с его материальной формой. Знак и объект, обозначаемый знаком, связаны не непосредственно, а при помощи абстрактно-логического мышления. Связь знака и обозначаемого предмета опосредуется значением.

Для того чтобы знак стал носителем информации, необходима операция соотнесения, а соотносить знак и объект, обозначаемый этим знаком, может лишь человек. В моделирующих же устройствах имеет место перекодирование информации, т.е. преобразование формализма, но отнюдь не его смыслового содержания. Информацию, заключенную в образе, можно передавать посредством соответствующего кода, но сам образ по каналам связи не передается. Современные системы искусственного интеллекта почти не имитируют сложную структуру образа, что не позволяет им перестраивать проблемные ситуации, комбинировать локальные части сетей знаний в блоки, перестраивать эти блоки и т. д.

Использование знаков и знаковых систем в процессе познания увеличивает возможности познания. Связи между знаками выступают в более упрощенном виде, чем между реальными объектами. Кроме того, выражение понятий посредством знаков позволяет значительно быстрее оперировать, что и осуществляется на моделирующих устройствах. Однако в настоящее время не в полной мере реализованы даже принципы формального соответствия естественной и машинной переработки информации.

Воплощение в информационные массивы и программы систем «искусственного интеллекта» аналогов категорий находится пока в начальной стадии. Аналоги некоторых категорий (например, «целое», «часть», «общее», «единичное») используются в ряде систем представления знаний, в частности в качестве «базовых отношений», в той мере, в какой это необходимо для тех или иных конкретных предметных или проблемных областей, с которыми взаимодействуют экспертные системы.

В формализованном понятийном аппарате некоторых систем представления знаний предприняты отдельные попытки выражения некоторых моментов содержания и других категорий (например, «причина», «следствие»). Однако ряд категорий (например, «сущность», «явление») в языках систем представления знаний отсутствует. Предстоит большая работа философов, логиков и кибернетиков по внедрению аналогов категорий в системы представления знаний и другие компоненты интеллектуальных систем. Это одно из перспективных направлений в развитии теории и практики кибернетики.

Мышление человека осуществляется не только с помощью, но и посредством образов, подчас неясных смутных, оно представляет собой единство понятий и образных представлений. Для традиционного понимания психики характерно отождествление понятий «психическое» и «идеальное». Нередко возражения против возможности моделирования психики аргументируются невозможностью переведения материальных операций в идеальные. В процессе развития научного знания, когда вставал вопрос об отделении собственно психической проблематики от философской, психологи проблему соотношения материального и идеального характерную для философии, перенесли в психологию, подменив систему категорий «объект деятельности - субъект деятельности» системой категорий «материальное - идеальное».

Необходимо сказать несколько слов о таких понятиях как «информация» и «отражение». К пониманию информации наметились разные подходы. Одни авторы считают информацию материальным явлением, другие идеальным, третьи - не материальным и не идеальным, а каким-то другим компонентом действительности. Н. Винер определил информацию следующим образом: «Информация есть информация, а не материя и не энергия». Информацией обладают все материальные объекты. Однако, актуальная информация может быть представлена как ограничение разнообразия, выбор из разнообразия и его использование в адаптационных процессах и системах управления. Эта форма информации активна, т.е. на ее основе осуществляется управление. В отличие от указанных систем для неживой природы характерно преобразование информации в ходе взаимодействия тел, поэтому здесь нет активного использования разнообразия. Актуализация потенциальной информации осуществляется в результате уничтожения неопределенности равновероятных элементов разнообразия посредством выбора определенных элементов. Отражение служит основой информационных процессов. Понятие «отражение» и «информация» нетождественны друг другу. Способностью к активному отражению обладают лишь высокоорганизованные информационные системы. Актуальная информация неразрывно связана с управлением - где нет управления, там нет актуальной информации. Возможно, что именно дальнейшее развитие моделирования психики позволит ответиить на вопрос правомерности установления отношений соответствия между психическим образом и объектом познания. Всякий сигнал представляет собой структурную единицу и форму передачи информации, а информация выражает определенное отношение между ее источником и носителем (информацию можно представить как взаимную упорядоченность двух множеств состояний, одно из которых представлено в источнике, а другое - в носителе). Общая форма упорядоченности двух множеств состояний называется изоморфизмом. С этих позиций, нервное возбуждение как сигнал можно рассматривать как разновидность кода. Иногда в философской литературе утверждается, что допущение возможности выполнения технической системой интеллектуальных функций человека означает сведение высшего (биологического и социального) к низшему (к системам из неорганических компонентов) и, следовательно, противоречит материалистической диалектике. Однако в этом рассуждении не учитывается, что пути усложнения материи однозначно не предначертаны и не исключено, что общество имеет возможность создать из неорганических компонентов (абстрактно говоря, минуя химическую форму движения) системы не менее сложные и не менее способные к отражению, чем биологические.

Специфическим качеством человеческого сознания, который нельзя не учитывать при сопоставлении его с «машинным мышлением», является субъективно-сознательное отражение бытия. Наличие объективных физико-химических процессов мозга с одной стороны и субъективных ощущений с другой обуславливает постановку психофизической проблемы. Мозг каким-то образом «производит» ощущения, образы, представления, смыслы, способен испытывать желания, страхи, надежду, любовь. Иными словами, помимо внешней, функциональной стороны, сознание обладает «внутренней» стороной - субъективным миром непосредственно данного, переживаемого. Для описания внутреннего мира субъекта необходимы такие категории, как «чувственное качество», смысл, «самость» и т.п. - которые, как представляется на первый взгляд, не имеет ничего общего с категориями, с помощью которых мы описываем мозг, как физический объект. В отличие от вещного, физического мира, который существует «публично» - доступен для всех, сфера субъективного доступна лишь «внутреннему» наблюдению. Поскольку наука занимается лишь исследованием «объективного», научный подход к решению психофизической проблемы должен быть дополнен философским анализом.

Однако, реальное сопоставление «внутреннего опыта» и предположительно соответствующего ему «нейродинамического субстрата» приводит к весьма неоднозначным, противоречивым результатам. Складывается впечатление, что фундаментальные свойства сферы субъективного отличны от свойств нейрофизиологической системы. Например, одно из наиболее фундаментальных свойств субъективного - это его целостность. Любой акт чувственного переживания - это синтез ощущений в целостные полимодальные образы, которые в свою очередь объединены в единое целостное феноменальное поле совместно переживаемого. Однако, нейрофизиологические исследования показывают, что мозг - это, напротив, скорее совокупность относительно автономных функциональных модулей и, соответственно, не обладает тем «слитным единством», которое характерно для нашей сферы субъективного.

Необходимость различать сознание и субъективное связана с тем, что сознание, в обычном смысле этого слова, непременно предполагает знание о том или ином содержании сферы субъективного. То есть осознание предполагает возможность осуществления рефлексивного акта. С другой стороны, человек вполне может что-то ощущать, не давая себе отчет о наличии у себя данного ощущения. То есть помимо рефлексируемого содержания субъективного существует внерефлексивное (дорефлексивное, иррефлексивное) субъективное, которое можно, также, обозначить как «бессознательное».

Поскольку внерефлексивное содержание субъективного - это то, о чем мы не можем дать отчет, не имеем явного знания, то возникает вопрос: как же мы в таком случае вообще способны прийти к заключению, что помимо осознаваемого содержания в субъективном может присутствовать что-то еще? Очевидно, это, возможно, прежде всего, в силу нашей способности к ретроспективному анализу состояний собственной сферы субъективного.

Отрицательное отношение к метафизике, которое демонстрировал И. Кант, в значительной мере было оправдано противоречивостью «догматических» метафизических систем 17-18 веков. Действительно, для этих систем, как правило, характерно резкое противопоставление внутреннего мира субъекта и внеположной ему «объективной реальности» (так называемый «картезианский дуализм»). Индивидуальное сознание рассматривалось преимущественно как нечто замкнутое в себе и в лучшем случае лишь внешним образом воспроизводящее окружающее. Вселенная в целом представлялась как механический агрегат индивидуумов, каждому из которых познавательно доступна лишь ограниченная часть, фрагмент реальности. С этой точки зрения задача метафизики - установить «общий план» бытия, определить, что представляет собой мир «сам по себе» - очевидно неразрешима. На самом деле, метафизика возможно и имеет право на существование, но лишь как «метафизика всеединства», т.е. как метафизика, изображающая субъекта укорененном во всеобщем надиндивидуальном бытии. В русской философии основателем «метафизики всеединства» был, как известно, В.С. Соловьев. Его идеи получили дальнейшее развитие в работах С.Л. Франка, С.Н. Булгакова, П.А. Флоренского и других российских философов. По сути же, «метафизика всеединства» восходит к Гегелю, а также к античному неоплатонизму.

Имеющийся богатый эмпирический материал, добытый естественными науками, тем не менее, не дает ответа на вопрос: как субъективное соотносится с конкретными физиологическими процессами. Следовательно, необходимы принципиально новые гипотезы, из которых можно было бы дедуктивно вывести проверяемые следствия. Но сформулировать такие гипотезы можно лишь на основе понимания возможных вариантов сущностной связи материи и субъективного.

Например, мы знаем, что многие субъективные состояния можно помимо воли субъекта вызвать электрическим раздражением мозга, причем полученный эффект (ощущение) в этом случае совершенно не похож на вызвавшую его причину (электрический ток). Но в таком случае можно ли гарантировать, что переживаемый нами чувственный мир не есть продукт воздействия некоторых «трансцендентных экспериментаторов», которые вызывают в нас чувственные переживания путем сложного комбинированного раздражения нашего мозга? Но если это допустить, то тогда нужно признать, что переживаемый нами «мозг» - это лишь один из образов, по прихоти «экспериментаторов» выбранный в качестве как бы «символа» или условного «носителя» сферы субъективного, так что всякое видимое «воздействие» на этот образ приводит к глобальным изменениям всей программы дальнейшей стимуляции. Первым к такого рода «картине мира», по-видимому, пришел Дж. Беркли, По Беркли, трансцендентным источником ощущений является Бог. Бог непосредственно вкладывает ощущения в душу каждого индивида, как бы показывает каждому из нас индивидуальный «кинофильм», причем его сюжет непрерывно корректируется в зависимости от наших волевых решений. Поскольку всегда можно сослаться на «божественный произвол» - такого рода онтологии не могут быть каким-то образом опровергнуты. Можно лишь указать на недостаточную объяснительную и предсказательную силу такого миросозерцания - поскольку данный тип онтологии совместим с любыми возможными фактами и, следовательно, бесплоден с точки зрения научного подхода.

В традиционной философии широко распространено представление, согласно которому проблема субъективного попросту не существует. В самом общем плане стратегия «элиминации» субъективного сводится к тому, чтобы показать, что субъективное как бы выдает себя не за то, чем оно является на самом деле. Далее используются два различных подхода. В первом случае пытаются доказать, что то, что мы принимаем за субъективное на самом деле есть просто физические состояния мозга, которые мы по ошибке принимаем за некую «субъективную реальность». Такой подход, в частности используется представителями «элиминирующего материализма» (Дж. Смарт, Р. Рорти, Д. Армстронг и др. В рамках этого направления выдвигается требование полной редукции «ментальных терминов», которые нам навязывает обыденный язык, к «научным» (и тем самым более адекватным) нейрофизиологическим или физическим терминам.

Данный способ элиминации субъективного оказывается не самостоятельной, замкнутой в себе точкой зрения, но зависит от решения других теоретико-познавательных вопросов - в частности, зависит от решения проблемы статуса «трансцендентного предмета знания».

Исходным пунктом второго способа элиминации субъективного является критика так называемого «удвоения реальности». Согласно этой гипотезе нет никакой необходимости рассматривать то, что мы непосредственно вокруг себя воспринимаем, как нечто существующее «в голове». То, что мы непосредственно видим, слышим, осязаем и т.д. это не ощущения, а сами реальные предметы внешнего мира и их свойства - как они существуют «сами по себе», «в подлиннике». Одним из первых такую «экстериоризацию» субъективного осуществил А. Бергсон. Согласно разработанной им «интуитивистской» теории познания, «материя совпадает с чистым восприятием», она «абсолютно такова, как кажется» и, следовательно, «было бы напрасно придавать мозговому веществу способность порождать представления». Это означает, что-то, что мы воспринимаем вокруг себя - это не образы, порожденные мозгом, или существующие «внутри мозга», а сами внешние объекты. Психический аппарат лишь входит в контакт, связывается с этими внешними объектами и в результате эти объекты обретают способность управлять поведенческими актами. Таким образом, с точки зрения Бергсона, мозг отнюдь не генератор образов или вообще каких-либо субъективных состояний, а просто некая «рефлекторная машина».

Здесь, однако, возникает сложность, связанная с тем, что сфера субъективного состоит не только из образов внешнего мира, но также из представлений, воспоминаний, смыслов, интеллектуальных и волевых актов, эмоций. Ясно, что все это весьма трудно отождествить в внешними объектами - как они существуют «сами по себе». Для того чтоб решить эту проблему, по крайней мере, в отношении памяти, Бергсон предложил рассматривать воспоминания как непосредственный доступ к прошлым состояниям внешнего мира. Таким образом, по крайней мере, одну из разновидностей памяти - так называемую «память духа» (декларативную эпизодическую память - по современной терминологии) - удается также «вынести» за пределы мозга и «спроецировать» в объективную реальность.

Однако, признание актуальности психофизической проблемы приводит также к неоднозначному результату. Наиболее хорошо разработанным является функциональный подход, но он тоже не лишен недостатков. В краткой форме сущность «функционального подхода» можно передать формулой: «психика есть функция мозга». При этом, как «функция мозга» рассматривается и субъективное - т.е. «внутренняя сторона» психического. Субъективные феномены не тождественны веществу мозга, а представляют собой его деятельность. При этом деятельность мозга нередко рассматривается не изолированно, а как деятельность, вовлеченная в реальную предметную деятельность субъекта во внешнем мире, т.е. ту деятельность, через которую осуществляется жизнь человека в природе и в обществе. Хотя субъективное процессуально, оно не тождественно физическим, химическим или физиологическим процессам в мозге, но понимается как функция «более высокого уровня», как системное свойство , несводимое к процессам более низкого уровня.

Функциональный подход оформился в самостоятельное направление, состоящее из ряда течений, таких как «эмерджентный материализм», «информационный подход», «функциональный материализм» и др. сравнительно недавно - в начале 60-х годов. Не малую роль при этом сыграло влияние так называемой «компьютерной метафоры» (уподобления мозга компьютеру, а психической деятельности - выполняемой компьютером программе). Таким образом, это сравнительно новое (и, вместе с тем, наиболее популярное) направление решения психофизической проблемы.

Однако, философские «корни» функционализма уходят в глубокую древность. Подлинным основателем функционализма можно считать Аристотеля, который, в частности, утверждал, что душа относится к телу так же, как зрение относится к глазу (т.е. как его функция). Душа, по Аристотелю, также, есть «форма тела» и, таким образом, она не тождественна материи, но есть проявление ее упорядоченности, структурной организации, есть «принцип» и, одновременно «цель» ее деятельности. Аналогия современного «функционализма» и учения Аристотеля о душе представляется не случайной. По своей философской сущности «функционализм», как мы увидим далее, и есть современная форма Аристотелизма.

Следует заметить, что материя мозга на первый взгляд, не обладает такими свойствами субъективного, как целостность, временная нелокальность, качественная разнородность. Если, например, мы субъективно наблюдаем, качественные различия между зрительными и слуховыми ощущениями, то нейрофизиологические исследования, напротив, показывают качественную однородность нервных процессов в зрительном и слуховом анализаторах. Точно так же отсутствует соответствие между временными параметрами субъективных состояний и аналогичными параметрами физических состояний предполагаемого нейрофизиологического субстрата психического. Так, например, мы можем наблюдать динамику нервных процессов на временных интервалах намного меньших минимально различимого «кванта» субъективного времени. Это означает, что наблюдаемые в нейрофизиологических исследованиях временные отношения «нейронных событий» в микроинтервалы времени никак не проявляют себя на уровне наших субъективных переживаний. Аналогично, пространственная «зернистость» материи мозга, т.е. «составленность» мозга из дискретных единиц: атомов, молекул, отдельных нервных клеток - никак не проявляется на уровне субъективных переживаний. Наш внутренний мир предстает перед нами как нечто единое, не составленное из каких-то независимых друг от друга элементов.

Е.М. Иванов настаивает на том, что «… «тождественные» с точки зрения макропараметров состояния нейрона могут характеризоваться совершенно различными микропараметрами, т.е. на самом деле не тождественны. Поэтому функционально тождественные физиологические состояния нервной системы практически никогда не бывают, тождественны физически. Следовательно, если субъективные состояния коррелятивны физиологическим состояниям мозга, то это означает отсутствие изоморфизма физического и субъективного».

Однако мне такое противопоставление физического и физиологического кажется не вполне верным. На чем может основываться уверенность, что два физиологических состояния функционально тождественны? Если с той точки зрения, что они сопровождаются одним и тем же субъективными переживаниями, то в этом случае и вся разнородная масса физических «микропроцессов» может считаться «функционально» тождественной друг другу. Если же речь идет об идентичности двух физиологических состояний, т.е. макросостояний нейрона, то, строго говоря, такая абсолютная идентичность невозможна, а если иметь ввиду относительное сходство процессов, то оно возможно и на «микроуровне», например химическом. Вообще употребляемые в данном контексте термины «физиологический» и «физический» выглядят механистическими и абстрактными, хотя на самом деле им соответствует вполне конкретное содержание.

Естественным временным масштабом сферы субъективного оказывается тот временной интервал, внутри которого мозг вполне проявляет себя как взаимосвязанное функциональное целое. Всякий более дробный временной анализ деятельности мозга в силу запаздывающего характера физических силовых связей, превращает его из связанного целого в конгломерат независимых друг от друга элементов или областей и, таким образом, «уничтожает» те системные качества, которые мы связываем с субъективными явлениями. Это означает, что субъективное, как системное свойство, может существовать лишь в некотором характерном для него интервале времени, вне которого оно просто исчезает, лишено какого-либо бытия.

Эта проблема наиболее правдоподобно решается в рамках так называемого «информационного подхода».

Функционализм обычно противопоставляют теории психофизического тождества. Последняя утверждает, что некоторая часть материи мозга и субъективное - суть одно и то же. Одно из основных возражений против «теории тождества» исходит из здравого смысла, каким же образом материя и субъективное могут быть тождественными, если совершенно очевидно, что материя - это одно, а ощущения, образы, смыслы и т.п. - это нечто совсем другое, если они совершенно не похожи друг на друга.

Существуют, однако, возражения и против функционального подхода. Рассмотрим тезис об «элиминации» субстратных свойств мозга на уровне субъективных явлений. Обосновывая этот тезис, обычно указывают на то обстоятельство, что многие психические функции могут быть успешно имитированы с помощью цифровой вычислительной машины, т.е. с помощью физической системы, отличающегося от мозга своим субстратным составом, устройством, видами используемой энергии, принципами обработки информации. Это говорит о том, что психические функции не привязаны жестко к определенному «виду» материи и даже не привязаны к определенной форме ее организации. Что касается этого аргумента, то здесь можно возразить, что ни одна компьютерная программа пока еще не способна во всем объеме имитировать психическую деятельность человека. Более того, можно усомниться в самой разрешимости проблемы компьютерной имитации человеческой психики. Если бы психические функции были инвариантны по отношению к субстратному составу их материального «носителя», то замена этого носителя функционально тождественным, но физически совершенно отличным (из других материалов и т.д.) субстратом никак не отразилась бы на психических функциях. В таком случае не изменилось бы и описание субъектом своего внутреннего мира (т.к. рефлексия - это тоже одна из психических функций). Таким образом удалось бы доказать, что субъективное - есть нечто независимое от субстрата, есть функция «в чистом виде» в которой никак не отражены физические свойства реализующего ее носителя.

Здесь необходимо учитывать, что принцип «инвариантности функции по отношению к субстратному носителю», на который существенно опирается функциональный подход, не является чем-то абсолютным (по крайней мере, применительно к устройствам, осуществляющим обработку информации). На практике, степень инвариантности существенно зависит от сложности решаемых задач, необходимого быстродействия и других параметров. Так, простейшие задачи можно решить при помощи механического арифмометра, для более сложных задач круг устройств, способных решить эти задачи, неизбежно сужается. Чем выше набор требований к вычислительному устройству, тем в большей степени ограничен выбор материалов, форм организации и видов энергии, посредством которых можно осуществлять соответствующие вычисления. Не исключено, что достижение уровня «вычислительной мощности» человеческого мозга сделает выбор, по крайней мере, части субстратного носителя «вычислительного процесса», воплощенного в нашем сознании, однозначным и также однозначным образом фиксирует способ организации вычислительного процесса. Факт существования ощущений и образов, а также факт осмысленности переживаемого - эти факты, вопреки функционализму, отнюдь не инвариантны к субстратному составу «вычислительного устройства» и способу переработки информации. Напротив, они, по-видимому, как раз и определяются этим способом переработки и тем субстратом, из которого состоит устройство, перерабатывающее информацию. Поскольку способ обработки информации в мозге определяется его физическим устройством, то, очевидно, ошибочным оказывается тезис функционализма об «элиминации» физических процессов в мозге на уровне субъективных переживаний. Утверждая, что субъективность есть некое системное свойство, отсутствующее в неорганической материи, и скачкообразно (эмерджентно) возникающее при достижении определенного уровня ее организации, мы тем самым приписываем системным свойствам безусловную реальность.

Если мы эмпирически обнаружим отсутствие изоморфизма физического и субъективного, то мы, очевидно, должны, невзирая на теоретические возражения, признать правоту функционализма. Таким образом, речь должна идти не об «опровержении» функционализма, а о его более корректной формулировке.

Как подчеркивает Е.М. Иванов, функционализм можно рассматривать как разновидность более общей «атрибутивной» теории субъективного, которая утверждает, что субъективное не тождественно материи, но есть ее свойство.

Можно утверждать, что функция сознания не может быть физически реализована с помощью какого-либо алгоритмического устройства, подобного компьютеру. Речь здесь идет о физической нереализуемости, а не об алгоритмической невычислимости, т.е. не о принципиальной невозможности существования алгоритма, способного, в принципе, имитировать функцию сознания. В последнее время, однако, в литературе интенсивно обсуждается вопрос об алгоритмической вычислимости или невычислимости функции сознания. Сторонники идеи алгоритмической невычислимости функции сознания (в частности, Р. Пенроуз) опираются на так называемый «геделевский аргумент», предложенный Дж. Лукасом еще в начале 60-х годов. Теорема Геделя о неполноте формальных систем накладывает ограничения на любые системы искусственного интеллекта, но не накладывает соответствующих ограничений на человеческий интеллект.

Теорема Геделя о неполноте утверждает, что при определенных условиях, накладываемых на формальный язык и множество истинных утверждений этого языка, не существует формальной дедуктивной системы, полной и непротиворечивой относительно данного языка и множества истинных утверждений данного языка. Иными словами, любая непротиворечивая дедуктика будет неполной, т.е. не будет доказывать все истинные утверждения данного языка. Фактически это означает, что в достаточно богатом языке существуют принципиально недоказуемые истинные утверждения - независимо от того, какую формальную систему доказательств мы выбрали (для разных дедуктик, естественно, недоказуемыми будут разные утверждения, но для любой дедуктики такие недоказуемые утверждения непременно должны существовать).

Геделевский аргумент не накладывает ограничения на интеллект человека, что можно обосновать уже самой возможностью для человека определить множество истинных высказываний в составе достаточно богатых формальных языков (например, множество истинных высказываний арифметики), которое, согласно теореме Геделя, не может быть получено с помощью какой-либо автоматической (алгоритмической) процедуры. Человек способен, опираясь на интуицию, определить то, что искусственный интеллект в принципе определить не способен. Так, множество истинных утверждений арифметики алгоритмически неперечислимо, т.е. не может являться множеством значений какой-либо алгоритмически вычислимой функции, но, тем не менее, интуитивно представляется, что человек всегда способен отличить истинное арифметическое высказывание от ложного (по крайней мере, в принципе). Отсюда следует, что человеческий интеллект не может быть эквивалентным какой-либо алгоритмической системе.

Отметим, что можно говорить об алгоритмической невычислимости функции сознания «вообще» и в том случае, если мы рассматриваем сознание в бесконечной временной перспективе. Вполне возможно, что не существует какой-либо алгоритмической процедуры, которая была бы способна проявлять себя как человеческий интеллект при условии неограниченного времени функционирования. Это означает, что при условии неограниченного времени жизни, человеческое существо, возможно, рано или поздно начнет весть себя так, что ни одно алгоритмическое устройство не сможет заранее предвидеть его реакции.

В последнее время возникла модель сознания - в которой «феноменальная реальность» связывается с функцией лишь одного специфического мозгового функционального модуля (не обязательно имеющего компактную внутримозговую локализацию). Эта модель позволяет, с одной стороны, снять (отчасти) остроту проблемы субстратной основы феноменальной целостности сознания, а с другой естественным образом объясняет существование бессознательного психического. «Мое» феноменальное сознание коррелятивно лишь функции выделенного нейронального модуля, т.е. я, испытываю какие-либо субъективные переживания только в том случае, если задействована строго определенная функциональная подсистема мозга. Деятельность же других функциональных подсистем никакими «моими» субъективными феноменами не сопровождается.

Поскольку феноменальная реальность связывается с одним единственным функциональным модулем мозга, то естественно возникает вопрос о специфике функции данного модуля. В настоящее время предложено несколько концепций, объясняющих специфику функции сознания с позиций «модульного» подхода. Типичным примером может служить гипотеза о функции сознания, предложенная Б. Баасом (так называемая, «театральная метафора»).

Модель функции сознания, предложенная Б. Баасом, заимствована из компьютерных наук. В качестве прообраза сознания Баас взял предложенную А. Ньюменом и Х.А. Саймоном вычислительную архитектуру «глобального рабочего пространства» (global workspace). Принцип действия этой вычислительной архитектуры можно понять с помощью метафоры «театра». Баас сравнивает чувственную репрезентацию информации в сознании со сценой театра, а бессознательные процессы - со всеми остальными элементами театра: зрителями, рабочими сцены, осветителями и т.п. Специфика сцены, как особого места в театре, заключается в том, что происходящее на сцене доступно всем, тогда как все остальное - очень немногим. Если сознание - это нечто вроде сцены, то функцию сознания можно определить как функцию обеспечения «глобального доступа» к той информации, которая попадает на «сцену» сознания.

Сознание, с этой точки зрения, не обладает какой-либо специализированной функцией содержательной обработки сенсорной или иной информации, но действует как универсальный интегратор и распределитель информации. По сути, сознание представляется в данной модели как некий «центральный процессор», выполняющий функцию «доски объявлений»: через этот процессор все другие «бессознательные процессоры» осуществляют обмен информацией.

Модель Бааса несомненно имеет ряд позитивных сторон. Так, она объясняет, зачем наш мозг строит интегральную модель сенсорного входа, переживаемую нами в виде полимодального «перцептивного поля». Просто эта модель необходима для более эффективного обмена информацией между различными функциональными блоками мозга. Существенный недостаток данной модели, однако, видится в том, что сознание здесь отождествляется с чувственной составляющей сферы субъективного, то есть рассматривается как некий «экран», на который пассивно проецируется изображение окружающего нас мира.

Можно указать целый ряд моделей функции сознания, во многих отношениях сходных с моделью Б. Бааса (модели Г. Эдельмана, Г. Мандлера, Д. Шактера, Дж. Кихлстрома, Дж. Андраде и др.). Не все авторы, однако, согласны с тем, что сознание не обладает специализированной функцией. Так, например, Дж. Грей полагает, что «феноменальный мир» есть как бы «выход» нейродинамической функциональной подсистемы мозга, которую он назвал «компаратором». «Компаратор» - это такой функциональный блок, который осуществляет непрерывное сопоставление текущего состояния восприятия внешнего мира с предыдущими состояниями. Эта гипотеза получила известная как феномен «повторного входа» подкреплена нейрофизиологическими данными и способна объяснить большое число особенностей устройства нашего сознания, например, непрерывность потока чувственных переживаний, феномен непроизвольного внимания ко всякой новой и неожиданной информации, феномен перцептивной установки и многое другое.

Б. Шенон, в свою очередь, высказывает предположение, что функция субъективных феноменов заключается в том, что они выполняют роль своего рода «медиатора» в информационных процессах, внося в эти процессы элементы стохастичности, спонтанности. Функциональная роль феноменальных данных подобна, по мнению Б. Шенона, роли шума в каналах связи. Все дело здесь в том, что феноменальные качества являются общими для весьма разнородных семантических единиц (желтое солнце и желтый помидор) и, поэтому они потенциально несут в себе богатый набор случайных, с точки зрения семантического содержания самих информационных единиц, ассоциаций. Шенон приводит пример ассоциации слов сходных по звучанию, но не имеющих достаточной семантической близости для того, чтобы ассоциироваться по смыслу. Благодаря «воплощенности» чистой информации в феноменальную форму происходит как бы отстройка, дистанцирование процессов обработки информации от жестко заданной системы семантических связей и за счет этого становится возможным привлечение нового, неожиданного даже для самого субъекта, когнитивного материала, что создает дополнительные степени свободы. В этом случае функция сферы субъективного понимается как функция «феноменальных качеств» и эта функция непосредственно связывается с творчеством, элементом новизны.

Отсюда вытекает отмеченная, в частности, Н. Блоком, потенциальная возможность существования феноменального сознания без осуществления характерной для него функции и наоборот, осуществления функции сознания в отсутствии субъективных переживаний (последнюю возможность Н. Блок иллюстрирует примером со «слепозрением» - возможностью ограниченного зрительного восприятия в условиях полного отсутствия зрительных образов). Этот вывод, на первый взгляд, противоречит данным самонаблюдения. Мы не замечаем в нашем собственном внутреннем мире каких-либо развернутых, поэтапных действий или операций, которые можно было бы связать с процессом построения чувственного образа, процессами осмысления или процессами выработки поведенческих решений. Субъективно нам, как правило, сразу дан конечный результат: сформированный образ, полный смысл воспринятого, готовое решение. Ошибка здесь заключается в предположении, что упомянутые функции сферы субъективного должны осуществляться наподобие того, как это происходит в компьютере - в виде развернутой во времени серии операций с отдельными единицами информации. Однако нет никакой необходимости думать, что подобный развернутый во времени способ обработки информации является единственно возможным. Прямое самонаблюдение показывает, что осознанное «понимающее» восприятие окружающего осуществляется симультанно - в виде целостного, «вневременного» (не развернутого во времени, но и, вместе с тем, имеющего ненулевую временную протяженность) акта «схватывания» содержания и смысла воспринимаемого. Нет оснований думать, что за этой феноменально наблюдаемой картиной функционирования сознания скрывается некий сукцессивный, развернутый во времени процесс. Думать так - значит превращать сферу субъективного в неадекватное и бесполезное отображение действительных, подлинных мозговых механизмов, осуществляющих высшие психические функции.

Таким образом, как и многие другие объекты, рассматриваемые философией, область «искусственного интеллекта» отличается сложным комплексным характером. Рассмотрение проблемы на различных уровнях, тщательный ретроспективный анализ позволяют наметить дальнейшие пути развития наших представлений о механизмах мышления и сознания. Опыт разработки и создания систем «искусственного интеллекта» предостерегает от односторонних категоричных мнений по данному вопросу и требует применения диалектического подхода.

искусственный интеллект субъективный

ЛИТЕРАТУРА

  • 1. Кочергин А.Н. «Философские вопросы моделирования функций мозга» Новосибирск, 1973.
  • 2. Дрейфус Х. «Чего не могут вычислительные машины» М. «Прогресс», 1978.
  • 3. Соколов Е.Н., Вайткявичюс Г.Г., «Нейроинтеллект: от нейрона к нейрокомпьютеру» М. «Наука», 1989.
  • 4. Грановская Р.М., Березная И.Я. «Интуиция и искусственный интеллект» ЛГУ, 1991.
  • 5. «Нейрокомпьютер как основа мыслящих ЭВМ» М. «Наука», 1993.
  • 6. Иванов Е.М. «Материя и субъективность» Саратов: Изд-во СГУ, 1998.
  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то