Skip to Content

История исследований в области Искусственного интеллекта, начиная с 1950 года

История исследований в области ИИ, начиная примерно с 1950 года и по сегодняшний день, условно разделена на четыре периода. За основу периодизации были взяли те направления исследований, которые наиболее активно развивались в течении каждого из периодов, как в смысле наибольшей активности ученых, так и в смысле получения наиболее существенных практических результатов.

Характеристика периодов исследований
Исследования в области искусственного интеллекта начались практически сразу же после появления компьютеров и первых опытов по их применению для других, более «приземленных» целей. На следующем этапе развитие научной и инженерной мысли было направлено на создание компьютера, способного на автоматизацию интеллектуальной человеческой деятельности, на то, чтобы сложные интеллектуальные задачи, считавшиеся прерогативой человека, решались техническими средствами [5, 6].
Исследования начались вскоре после окончания Второй мировой войны, когда были предприняты попытки решать с помощью компьютера игровые задачи и головоломки. Исследовательским полигоном для развития методов ИИ на первом этапе явились всевозможные игры, головоломки, математические задачи. Некоторые из этих задач стали классическими в литературе по ИИ (задачи об обезьяне и бананах, миссионерах и людоедах, Ханойской башне, игра в 15 и другие).
Выбор таких задач обуславливался простотой и ясностью проблемной среды (среды, в которой разворачивается решение задачи), ее относительно малой громоздкостью, возможностью достаточно легкого подбора и даже искусственного конструирования «под метод». Конечно, такие задачи интеллектуальных систем недостаточно серьезны, чтобы представлять большую практическую ценность для реальных приложений. Однако сейчас, оглядываясь назад, можно проследить, как некоторые идеи и подходы к решению проблем с помощью компьютера выросли именно из этих первых экспериментов.
Основной расцвет такого рода исследований приходится на конец 60-х годов, после чего стали делаться первые попытки применения разработанных методов для задач, решаемых не в искусственных, а в реальных проблемных средах.
Необходимость исследования систем ИИ при их функционировании в реальном мире привело к постановке задачи создания интегральных роботов. Проведение таких работ можно считать вторым этапом исследований по ИИ. В Стэнфордском университете, Стэнфордском исследовательском институте и некоторых других местах были разработаны экспериментальные роботы, функционирующие в лабораторных условиях. Проведение этих экспериментов показало необходимость решения кардинальных вопросов, связанных с проблемой представления знаний о среде функционирования, и одновременно недостаточную исследованность таких проблем, как зрительное восприятие, построение сложных планов поведения в динамических средах, общение с роботами на естественном языке [11].
Эти проблемы были более ясно сформулированы и поставлены перед исследователями в середине 70-х гг, связанных с началом третьего этапа исследований систем ИИ. Характерной чертой этого этапа явилось смещение центра внимания исследователей с создания автономно функционирующих систем, самостоятельно решающих в реальной среде поставленные перед ними задачи, к созданию человеко-машинных систем, интегрирующих в единое целое интеллект человека и способности ВМ для достижения общей цели – решения задачи, поставленной перед интегральной человеко-машинной решающей системой [10, 11].
Такое смещение обуславливалось двумя причинами:
• К этому времени выяснилось, что даже простые на первый взгляд задачи, возникающие перед интегральным роботом при его функционировании в реальном времени, не могут быть решены методами, разработанными для экспериментальных задач специально сформированных проблемных средах.
• Стало ясно, что сочетание дополняющих друг друга возможностей человека и ЭВМ позволяет обойти острые углы путем перекладывания на человека тех функций, которые пока еще не доступны для ЭВМ. На первый план выдвигалась не разработка отдельных методов машинного решения задач, а разработка методов средств, обеспечивающих тесное взаимодействие человека и вычислительной системы в течение всего процесса решения задачи с возможностью оперативного внесения человеком изменений в ходе этого процесса.
Развитие исследований по ИИ в данном направлении обусловливалось также резким ростом производства средств вычислительной техники, а также резким их удешевлением, делающим их потенциально доступными для более широких кругов пользователей.

На мой взгляд, период от середины 60-х до середины 70-х можно назвать «романтическим» в истории исследований искусственного интеллекта. В это время внимание исследователей сосредоточилось в основном на проблеме машинного «понимания», т.е. способности воспринимать естественный язык человека, в частности вести осмысленный диалог. Эти попытки были встречены философами с определенным скепсисом. Они сомневались в том, что по отношению к компьютерной программе вообще можно употреблять слово «понимание».
Период, который можно назвать периодом «модернизма», продолжался с середины 70-х до конца 80-х годов. Он характеризуется значительным прогрессом в области экспертных систем и так называемой «зимней спячкой» в области «чистого» искусственного интеллекта, интерес к которому возобновился с появлением Всемирной паутины.
Период, который начался с 1990 года и продолжается по сегодняшний день можно отнести к периоду «постмодернизма», характеризовать который достаточно трудно, поскольку автор сам является участником происходящих в нем событий. Но, не боясь ошибиться, можно утверждать, что происходящее в этом периоде во многом определяется развитием Internet-приложений, в частности интеллектуальных агентов и советчиков, облегчающих и упрощающих извлечение информации при работе со средствами электронной коммерции.
Успехи и неудачи в области искусственного интеллекта в этот период в значительной мере зависят от возможности и желания исследователей преодолеть влияние традиционных концепций, характерных для прежних периодов, и сосредоточить усилия на реальных проблемах новой информационной среды.

Периоды исследований и разработок по созданию ИИ
История исследований и разработок систем искусственного интеллекта ведущихся с 1950 года, несмотря на свою краткость, может быть разделена на четыре периода [6, 8, 12]:
1. 50-е – начало 70-х годов XX века – исследования по «общему интеллекту», попытки смоделировать общие интеллектуальные процессы, свойственные человеку: свободный диалог, решение разнообразных задач, доказательство теорем, различные игры (шашки, шахматы и т.д.), сочинение стихов и музыки и т.д.;
2. 70-е годы – исследования и разработка подходов к формальному представлению знаний и умозаключений, попытки свести интеллектуальную деятельность к формальным преобразованиям символов, строк и т.д.;
3. с конца 70-х годов – разработка специализированных на определенных предметных областях интеллектуальных систем, имеющих прикладное практическое значение (экспертные системы);
4. 90-е годы – фронтальные работы по созданию ЭВМ 5-го поколения, построенных на иных принципах, чем обычные универсальные ЭВМ, и программного обеспечения для них.

Перечисление основных исследований, трудов и разработок в области ИИ относящихся к вышеперечисленным периодам приведено в последующих главах.
Первый период
Начало исследований в области ИИ (конец 50-х годов) связывают с работами Ньюэлла, Саймана и Шоу, исследовавших процессы решения различных задач. Результатами их работ явились такие программы как «логик-теоретик», предназначенная для доказательства теорем в исчислении высказываний, и «общий решатель». Эти работы положили начало первому этапу исследований в области ИИ, связанному с разработкой программ, решающих задачи на основе применения разнообразных эвристических методов.
В 50-х годах исследователи в области ИИ пытались строить разумные машины, имитируя процессы, протекающие в мозге человека [8, 9].
В конце 1950 года американскими учеными Г. Розен-блаттом и П. Мак-Каллоком были созданы первые нейросети. Это были попытки создать системы, моделирующие человеческий глаз и его взаимодействие с мозгом. Устройство, созданное ими, получило название перцептрона. Оно умело различать буквы алфавита, но было чувствительно к их написанию, например, буквы « А », « А » и « А » для этого устройства были тремя разными знаками.
В конце 50-х годов родилась модель лабиринтного поиска. Этот подход представляет задачу как некоторый граф, отражающий пространство состояний, и в этом графе проводится поиск оптимального пути от входных данных к результирующим. Была проделана большая работа по разработке этой модели, но в решении практических задач идея большого распространения не получила [12].
В 1954 году в МГУ под руководством профессора А.Ляпунова (1911 – 1973 гг.) начал свою работу семинар «Автоматы и мышление». В этом семинаре принимали участие крупнейшие физиологи, лингвисты, психологи, математики. Принято считать, что именно в это время зародился искусственный интеллект в России.
В те годы в России, как и за рубежом, выделились направления нейрокибернетики и кибернетики «черного ящика».
Основную идею нейрокибернетики можно сформулировать следующим образом. Единственный объект, способный мыслить, – это человеческий мозг. Поэтому любое «мыслящее» устройство должно каким-то образом воспроизводить его структуру. Таким образом, нейрокибернетика ориентирована на аппаратное моделирование структур, подобных структуре мозга. Физиологами давно установлено, что основой человеческого мозга является большое количество (до 1021) связанных между собой и взаимодействующих нервных клеток – нейронов. Поэтому усилия нейрокибернетики были сосредоточены на создании элементов, аналогичных нейронам, и их объединении в функционирующие системы. Эти системы принято называть нейронными сетями, или нейросетями [12].
В основу кибернетики «черного ящика» лег принцип, противоположный нейрокибернетике. Не имеет значения, как устроено «мыслящее» устройство, главное, чтобы на заданные входные воздействия оно реагировало так же, как человеческий мозг. Это направление искусственного интеллекта было ориентировано на поиски алгоритмов решения интеллектуальных задач на существующих моделях компьютеров [12].

В 60-х годах в России предпринимались попытки отыскать общие методы решения широкого класса задач, моделируя сложный процесс мышления. Разработка универсальных программ оказалась слишком трудным и бесплодным делом, т.к. чем шире был класс задач, которые может решать одна программа, тем беднее оказываются ее возможности при решении конкретной проблемы. Эти попытки оказались безуспешными по причине полной непригодности как аппаратных так и программных средств [9].
В 1961 году профессор Д. Мичи, один из ведущих английских специалистов по ИИ, описал механизм, состоящий из 300 спичечных коробков, который мог научиться играть в крестики и нолики. Мичи назвал это устройство MENACE (Matchbox Educable Naughts and Crosses Engine).
В 1964 году А. Робинсон доказал, что метод резолюции обладает свойством «полноты»: если исходное утверждение истинно, то в любом случае рано или поздно этот метод приведет к противоречию. Если же исходное утверждение ложно, то нет гарантии в том, что процесс вывода при помощи резолюции не окажется бесконечным. Таким образом, метод резолюций Робинсона позволяет автоматически доказывать теоремы при наличии набора исходных аксиом. Выводы Робинсона положили начало активным исследованиям, связанным с применением метода резолюции и других родственных ему методов в области автоматического доказательства теорем. Однако у метода резолюции есть один крупный недостаток: он подвержен явлению «комбинаторного взрыва», когда число резолюций, проводимых программой, растет экспоненциально как функция сложности задачи. Программы, успешно применяющие метод резолюции на небольших пробных задачах, как правило, не справляются с более интересными задачами реального мира, масштабы которых значительно шире [9].
В 1945 – 1964 годах создаются отдельные программы и исследуется поиск решения логических задач. В Ленинграде в ЛОМИ (ЛОМИ – Ленинградское отделение математического института им. В.А.Стеклова) создается программа, автоматически доказывающая теоремы (АЛПЕВ ЛОМИ). Программа основана на оригинальном обратном выводе С.Ю.Маслова , аналогичном методу резолюций Робинсона [9, 11].
Среди наиболее значимых результатов, полученных отечественными учеными, следует отметить алгоритм «Кора» М.Бонгарда, моделирующий деятельность человеческого мозга при распознавании образов (60-е годы).

Начало 60-х годов принято называть эпохой эвристического программирования. Приведем необходимую терминологию. Эвристика – это правило, теоретически не обоснованное, но позволяющее сократить количество переборов в пространстве поиска. В свою очередь эвристическое программирование – разработка стратегии действий на основе известных, заранее заданных эвристик. Эвристические знания – знания, накапливаемые интеллектуальной системой в процессе ее функционирования, а также знания, заложенные в ней априорно, но не имеющие статуса абсолютной истинности в данной проблемной области. Обычно эвристические знания связаны с отражением в базе знаний неформального опыта решения задач.
Эвристический метод решения задачи при этом рассматривался как свойственный человеческому мышлению «вообще», для которого характерно возникновение догадок о пути решения задачи с последующей их проверкой.
Ему противопоставлялся используемый в ЭВМ алгоритмический метод, который интерпретировался как механическое осуществление заданной последовательности шагов, детерминировано приводящей к правильному ответу.
Трактовка эвристических методов решения задач как сугубо человеческой деятельности и обусловила появление и дальнейшее распространение термина ИИ [12].

Так, при описании своих программ Ньюэлл и Саймон приводили в качестве доводов, подтверждающих, что их программы моделируют человеческое мышление, результаты сравнения записей доказательств теорем в виде программ с записями рассуждения «думающего вслух» человека. В начале 70-х годов они опубликовали много данных подобного рода и предложили общую методику составления программ, моделирующих мышление.

Второй период
На дальнейшие исследования в области ИИ большое влияние оказало появление метода резолюций Робинсона, основанного на доказательстве теорем в логике предикатов и являющегося исчерпывающим методом доказательства. При этом определение термина ИИ претерпело существенное изменение.
Целью исследований, проводимых в направлении ИИ, стала разработка программ, способных решать «человеческие задачи». Так, один из видных исследователей ИИ того времени Р. Бенерджи в 1969 году писал: «Область исследований, обычно называемую ИИ, вероятно, можно представить как совокупность методов и средств анализа и конструирования машин, способных выполнять задания, с которыми до недавнего времени мог справиться только человек. При этом по скорости и эффективности машины должны быть сравнимы с человеком» [9].
Функциональный подход к направленности исследований по ИИ сохранился в основном до настоящего времени, хотя еще и сейчас ряд ученых, особенно психологов, пытаются оценивать результаты работ по ИИ с позиций их соответствия человеческому мышлению.
В начале 70-х годов специалисты в области ИИ сосредоточили свое внимание на разработке методов и приемов программирования, пригодных для решения более специализированных задач:
• методов представления – способ формулирования проблемы для решения на средствах вычислительной техники;
• методов поиска – способ управления ходом решения так, чтобы оно не требовало слишком большого объема памяти и времени.
В 1963 – 1970 годах в России к решению задач стали подключать методы математической логики. На основе метода резолюций, позволившего автоматически доказывать теоремы при наличии набора исходных аксиом, в 1973 году создается язык программирования Пролог.

В период модернизма возросла уверенность, что эвристические возможности «решателя» проблем определяются представлением в явной форме соответствующих зданий, доступных программе, а не применением какого-то изощренного механизма определения взаимовлияния или сложных оценочных функций. Значительные усилия были направлены на разработку методов разбиения знаний, присущих человеку, на модули, которые можно было бы активизировать по заданной схеме.
Уже при первых попытках сымитировать процесс разрешения проблем, характерный для человеческого разума (например, в работе Ньюэлла и Саймона в 1972 году), исследователи столкнулись с ограниченными возможностями представления знаний и необходимостью упростить механизм их взаимовлияний, хотя более поздние исследования и помогли в определенной степени преодолеть эти трудности.
Примерно в то время, когда работы Ньюэлла и Саймона стали привлекать к себе внимание, в Массачусетсском технологическом институте, Стэнфордском университете и Стэнфордском исследовательском институте также сформировались исследовательские группы в области ИИ. В противоположность ранним работам Ньюэлла и Саймона эти исследования больше относились к формальным математическим представлениям. Способы решения задач в этих исследованиях развивались на основе расширения математической и символической логики. Моделированию же человеческого мышления придавалось второстепенное значение [9, 12].
Третий период
Существенный прорыв в практических приложениях искусственного интеллекта произошел в середине 70-х годов, когда на смену поискам универсального алгоритма мышления пришла идея моделировать конкретные знания специалистов-экспертов.
В конце 70-х годов была принята принципиально новая концепция, которая заключается в том, что для создания интеллектуальной программы ее необходимо снабдить множеством высококачественных специальных знаний о некоторой предметной области. Развитие этого направления привело к созданию направления по разработке экспертных систем (ЭС) [9].
В США появились первые коммерческие системы, основанные на знаниях, или так называемые экспертные системы. Был создан новый подход к решению задач искусственного интеллекта – представление знаний. Были созданы такие экспертные системы как MYCIN и DENDRAL – ставшие уже классическими экспертными системами для медицины и химии.
В эти годы было объявлено о создании нескольких глобальных программ развития интеллектуальных технологий – ESPRIT (Европейский Союз), DARPA (министерство обороны США), японский проект машин V поколения.
В 1965-1980 годах в России получает развитие новая наука – ситуационное управление, что соответствует представлению знаний в западной терминологии. Основоположником этой научной школы являлся профессор Д.А.Поспелов. Им были разработаны специальные модели представления ситуаций – представления знаний.
В 1976 году Ньюэлл и Саймон следующим образом сформулировали гипотезу физической символической системы (Physical Symbol System Hypothesis): «Физическая символическая система имеет необходимые и достаточные средства для того, чтобы производить осмысленные действия». Другими словами, без символических вычислений невозможно выполнять осмысленные действия, а способность выполнять символические вычисления вполне достаточна для того, чтобы быть способным выполнять осмысленные действия. Таким образом, если мы полагаем, что животное, или человек, или машина действуют осмысленно, то значит, они каким-то образом выполняют символические вычисления (т.е. животные в действительности умнее, чем мы о них думаем) [12].
В работах Ньюэлла и Саймона разработана так называемая парадигма символьной обработки информации и предложена гипотеза о физической символьной системе, в соответствии с которой человеческое мышление представляет собой некоторую систему, оперирующую с материальными символами, отображающими действительность. Такой же физической символьной системой признается и ЭВМ.
Независимо от того, справедлива ли эта гипотеза, символические вычисления стали реальностью, и полезность этой парадигмы для программирования трудно отрицать. Подобное представление, в целом развивающее идеи А.Тьюринга, в дальнейшем стало описываться как компьютерная метафора и концепция «бестелесного интеллекта».

Постепенно в период с 70-80 годы количество работ по направлению искусственного интеллекта стало снижаться. Слишком неутешительными оказались первые результаты. Функционально разочаровывали экспертные системы, а разработки в области создания ИИ не давали практических результатов. Авторы объясняли неудачи малой памятью и низким быстродействием существующих в то время компьютеров.
Четвертый период
В 80-х годах ИИ пережил второе рождение. Были широко осознаны его большие потенциальные возможности как в исследованиях, так и в развитии производства. В рамках новой технологии появились первые коммерческие программные продукты.
В это время стала развиваться область машинного обучения. Создание систем, автоматически улучшающих и расширяющих свой запас эвристических правил (не формальных, основанных на интуитивных соображениях) – является важнейшим этапом за последние годы. В начале десятилетия в различных странах были начаты крупнейшие в истории обработки данных национальные и международные исследовательские проекты, нацеленные на «интеллектуальные ВМ пятого поколения» [11, 12].
Начиная с середины 80-х годов происходит коммерциализация искусственного интеллекта. Растут ежегодные капиталовложения в эту сферу научных разработок, создаются промышленные экспертные системы. Происходит рост интереса к самообучающимся системам.
В середине 80-х годов в Японии в рамках проекта разработки компьютера V поколения, основанного на знаниях, был создан компьютер VI поколения, или нейрокомпьютер. К этому времени ограничения по памяти и быстродействию были практически сняты. Появились транспьютеры – параллельные компьютеры с большим количеством процессоров. От транспьютеров оставался один шаг до нейрокомпьютеров, моделирующих структуру мозга человека. Основная область применения нейрокомпьютеров представлялась как распознавание образов.
В 1980 – 1990 годах в России проводятся активные исследования в области представления знаний, разрабатываются языки представления знаний, экспертные системы (последних было более 300). В Московском государственном университете создается язык РЕФАЛ [9].
В 1988 году в России создается АИИ – Ассоциация искусственного интеллекта, членами которой являются более 300 исследователей. В те годы президентом Ассоциации был Д.А. Поспелов. В рамках Ассоциации ИИ проводится большое количество исследований, собираются конференции, издается журнал.
В 1980 – 1990 годы уровень теоретических исследований по искусственному интеллекту в России отмечен ничуть не ниже мирового. К сожалению, начиная с 1975 года на развитии этого направления сказалось прогрессирующее отставание в технологии. На данный момент отставание в области промышленных интеллектуальных систем составляет порядка 5-7 лет.
В 1982 году Ньюэлл опубликовал статью «Уровень знаний» (The Knowledge Level), в которой предпринял попытку определить место понятия знания в архитектуре любых (как искусственных, так и естественных) когнитивных систем. Им было предложено оригинальное определение, связавшее понятия знания и рациональности: знание – это то, наличие чего мы должны постулировать у некоторой системы, если считаем ее поведение рациональным [12].
В 1990 году вышла в свет книга Ньюэлла «Единые теории мышления» (Unified Theories of Cognition), в которой он обосновывал необходимость перехода от частных когнитивных моделей к модели универсальной и рассмотрел некоторые варианты последней, к числу которых отнес разрабатывавшуюся им с 1980-х годов модель SOAR.
В 1998 году было показано, что компьютер Конрада Цузе (1910 – 1995 гг.) «Z4» всё-таки может воспроизвести поведение универсальной машины Тьюринга,правда, при допущении неограниченного объёма хранящихся данных и нулевой вероятности ошибок.
«Неуклюжесть этого решения – не должна смущать, поскольку сама машина Тьюринга является весьма неуклюжим устройством, разработанным для демонстрации простоты и универсальности, а не эффективности» – отметил Конрад Цузе [8].

Вывод
В наши дни искусственный интеллект представляют как науку о концепциях, позволяющих ВМ осуществлять различные операции, которые у людей выглядят разумными. Однако, специалисты, занимающиеся изучением проблемы создания ИИ, пытаются понять, какое поведение, считается разумным (анализ), и создать работающие модели этого поведения (синтез). Практической целью является создание методов и техники, необходимой для программирования «разумности» и передачи ее вычислительным машинам, а через них всевозможным системам и средствам.
Центральные задачи ИИ на сегодняшний день состоят в том, что бы сделать ВМ более полезными для человечества посредством их интеллектуализации – обучению их различным навыкам в области обработки и представления информации.
Во всех этих направлениях разработок искусственного интеллекта главные трудности связаны с тем, что недостаточно изучены и поняты принципы человеческой интеллектуальной деятельности, процесс принятия решений и решение задач. В принципе, что такое «понимание», «мышление» нуждается в осмыслении.
Если в 60-х годах широко обсуждался вопрос «может ли компьютер мыслить», то теперь вопрос ставится иначе: «достаточно ли хорошо человек понимает, как он мыслит, чтобы передать эту функцию компьютеру»? В силу этого, работы в области искусственного интеллекта тесно соприкасаются с исследованиями по соответствующим разделам психологии, физиологии и лингвистики.

(c) 2009 Раздобарина Е.А.
Все права принадлежат ООО "Смарт Автоматикс" (Smart Automatics ltd).
Ссылка на www.smaut.com при использовании материалов ОБЯЗАТЕЛЬНА.