Дальше К следующему разделу Назад К предыдующему разделу Начало К началу разделу Конец К концу разделу Список К оглавлению

2.8. Методы и модели искусственного интеллекта

Мем № 19: “Обладая возможностью запоминать и взаимосвязывать огромное число каузальных сил, компьютер может нам помочь справляться с проблемами на гораздо более глубоком, чем обычно уровне. Он может просеивать громадные массивы данных, чтобы отыскать едва уловимые образцы, помочь собрать разрозненные "крупицы информации" в большое по объему и значению целое... Можно ожидать, что компьютеры углубят всю культуру суждения о причинности, усиливая наше понимание взаимосвязанности вещей, помогая нам синтезировать значимое "целое" из вихря кружащихся вокруг нас разрозненных данных”

Э. Тоффлер ["Третья волна", цит. по: Леонов, URLв].

Развитие концепции искусственного интеллекта

Современные исследователи экономики, истории, философии и геополитики признают уже как свершившийся факт начало эры "Третьей волны", концепция которой описана и сформулирована в известной книге американского футуролога Э. Тоффлера. Третья волна – зарождение цивилизации, в которой доминирующим ресурсом развития становятся Информация и Знание. В этой связи наступает переосмысление наших взглядов на компьютеры и информационные технологии [Райс, 1998, Смолл, 1997].

Однако и сами традиционные компьютерные технологии в предшествующее десятилетие столкнулись с лавинообразным ростом информации, которую не в состоянии обработать. На первый план выдвинулись трудно формализуемые проблемы и задачи, оперирующие с нечеткими множествами [Заде, 1974; Орловский, 1981; Масалович, 1995, URL]. Необходимость бесконечно создавать терабайты программного обеспечения вылилась в "творческий" кризис, выход из которого связан с переходом на качественно новый информационно-технологический уровень, который могут обеспечить только системы искусственного интеллекта [Нильсон, 1973, Хант, 1978; Уинстон, 1980; Лорьер, 1991]. Поэтому дальнейшее развитие средств компьютеризации во всем мире проходит под знаком программы "Вычисления в Реальном мире" (Real World Computing RWC), инициированной Японией в 1992 г. [Горбань с соавт., 1998]. В ней речь идет прежде всего о том, чтобы дать вычислительным и управляющим системам возможность самостоятельно, без помощи "переводчика"-человека воспринимать сигналы внешнего мира и воздействовать на него. Авторы программы огромную роль – до 30-40% ее содержания – отводят развитию систем искусственного интеллекта, исследованию естественных и созданию искусственных нейросетевых систем.

Искусственный интеллект ИИ (artificial intelligence) обычно трактуется как свойство автоматических систем брать на себя отдельные функции мыслительной способности человека, например, выбирать и принимать оптимальные решения на основе ранее полученного опыта и рационального анализа внешних воздействий [Сотник, URL]. Речь идет, в первую очередь, о системах, в основу которых положены принципы обучения, самоорганизации и эволюции при минимальном участии человека, но привлечении его в качестве учителя и партнёра, гармоничного элемента человеко-машинной системы.

Естественно, что попытки создать ИИ на базе компьютеров начались на заре развития компьютерной техники. Тогда господствовала компьютерная парадигма, ключевыми тезисами которой утверждалось, что машина Тьюринга является теоретической моделью мозга, а компьютер – реализацией универсальной машины и любой информационный процесс может быть воспроизведён на компьютере. Такая парадигма была доминирующей долгое время, принесла много интересных результатов, но главной задачи – построения ИИ в смысле моделирования мышления человека, так и не достигла. Компьютерная парадигма создания ИИ, потерпевшая крах в связи с неправильным набором ключевых предпосылок, логично трансформировалась в нейроинформатику, развивающую некомпьютерный подход к моделированию интеллектуальных процессов. Человеческий мозг, оперирующий с нерасчленённой информацией, оказался значительно сложнее машины Тьюринга. Каждая человеческая мысль имеет свой контекст, вне которого она бессмысленна, знания хранятся в форме образов, которые характеризуются нечёткостью, размытостью, система образов слабо чувствительна к противоречиям. Система хранения знаний человека характеризуется высокой надёжностью вследствие распределённого хранения знаний, а оперирование с информацией характеризуется большой глубиной и высоким параллелизмом.

Переработка информации в любых интеллектуальных системах основывается на использовании фундаментального процесса – обучения. Образы обладают характерными объективными свойствами в том смысле, что разные распознающие системы, обучающиеся на различном материале наблюдений, большей частью одинаково и независимо друг от друга классифицируют одни и те же объекты. Именно эта объективность образов позволяет людям всего мира понимать друг друга. Обучением обычно называют процесс выработки в некоторой системе специфической реакции на группы внешних идентичных сигналов путем многократного воздействия на распознающую систему сигналов внешней корректировки. Механизм генерации этой корректировки, которая чаще всего имеет смысл поощрения и наказания, практически полностью определяет алгоритм обучения. Самообучение отличается от обучения тем, что здесь дополнительная информация о верности реакции системе не сообщается.

Мы рассмотрели в предыдущем разделе два основных принципа обучения распознаванию образов – геометрический, основанный на построении разделяющих поверхностей в пространстве образов, и структурный (лингвистический), основанный на выделении базовых структурных признаков и отношений между ними. Однако, например, концепции построения нейронных сетей, нелинейных по своей природе, предоставляют качественно более мощные методы моделирования процесса распознавания, позволяющие воспроизводить чрезвычайно сложные зависимости.

Интеллектуальные информационные системы могут использовать "библиотеки" самых различных методов и алгоритмов, реализующих разные подходы к процессам обучения, самоорганизации и эволюции при синтезе систем ИИ. Поскольку к настоящему времени нет ни обобщающей теории искусственного интеллекта, ни работающего образца полнофункциональной ИИ-модели, то нельзя сказать, какой из этих подходов является правильным, а какой ошибочным: скорее всего они способны гармонично дополнять друг друга.

Искусственный интеллект реализуется с использованием четырех подходов (с трудом удержимся, чтобы не произнести модное “парадигм”): логического, эволюционного, имитационного и структурного. Все эти четыре направления развиваются параллельно, часто взаимно переплетаясь.

Логический подход

Основой для логического подхода служит булева алгебра и ее логические операторы (в первую очередь, знакомый всем оператор IF ["если"]). Свое дальнейшее развитие булева алгебра получила в виде исчисления предикатов, в котором она расширена за счет введения предметных символов, отношений между ними, кванторов существования и всеобщности. Практически каждая система ИИ, построенная на логическом принципе, представляет собой машину доказательства теорем. При этом исходные данные хранятся в базе данных в виде аксиом, а правила логического вывода – как отношения между ними.

Для большинства логических методов характерна большая трудоемкость, поскольку во время поиска доказательства возможен полный перебор вариантов. Поэтому данный подход требует эффективной реализации вычислительного процесса, и хорошая работа обычно гарантируется при сравнительно небольшом размере базы данных. Примером практической реализации логических методов являются деревья решений [Breiman et al., 1984; Loh, Shih, 1997; Деревья классификации.., URL], которые реализуют в концентрированном виде процесс "обучения" или синтеза решающего правила.

Добиться большей выразительности логическому подходу позволяет такое сравнительно новое направление, как нечеткая логика. После основополагающих работ Л. Заде [Zadeh, 1965; Заде, 1974, 1976] термин fuzzy (англ. нечеткий, размытый ) стал ключевым словом. В отличие от традиционной математики, требующей на каждом шаге моделирования точных и однозначных формулировок закономерностей, нечеткая логика предлагает совершенно иной уровень мышления, благодаря которому творческий процесс моделирования происходит на более высоком уровне абстракции, при котором постулируется лишь минимальный набор закономерностей. Например, правдивость логического высказывания может принимать в нечетких системах, кроме обычных "да / нет" (1 / 0), еще и промежуточные значения: "не знаю" (0.5), "пациент скорее жив, чем мертв" (0.75), "пациент скорее мертв, чем жив" (0.25) и т.д. Данный подход больше похож на мышление человека, который редко отвечает на вопросы только “да” или “нет”. Теоретические основы и прикладные аспекты интеллектуальных систем оценивания и прогнозирования в условиях неопределенности, основанные на теории нечетких множеств, подробно изложены в литературных источниках [Аверкин с соавт, 1986; Борисов с соавт., 1989; Нетрадиционные модели.., 1991; Васильев, Ильясов, 1995].

Методы самоорганизации и эволюционный подход

Под термином “самоорганизация” понимается “процесс самопроизвольного (спонтанного) увеличения порядка, или организации в системе, состоящей из многих элементов, происходящий под действием внешней среды” [Ивахненко с соавт., 1976].

Принципы самоорганизации были предметом исследования многих выдающихся ученых: Дж. фон Неймана, Н. Винера, У.Р. Эшби и др. Большой вклад в развитие этого направления внесли работы украинских кибернетиков под руководством А.Г. Ивахненко [Ивахненко, 1969, 1975, 1982; Ивахненко, Лапа, 1971; Ивахненко, Юрачковский, 1987], разработавших целый класс адаптивных самоорганизующихся моделей (англ. selforganisation models), который можно было бы назвать "интеллектуальным обобщением" эмпирико-статистических методов.

Можно отметить следующие принципы самоорганизации математических моделей:

Для возникновения самоорганизации необходимо иметь исходную структуру, механизм случайных ее мутаций и критерии отбора, благодаря которому мутация оценивается с точки зрения полезности для улучшения качества системы. Т.е. при построении этих систем ИИ исследователь задает только исходную организацию и список переменных, а также критерии качества , формализующие цель оптимизации, и правила, по которым модель может изменяться (самоорганизовываться или эволюционировать). Причем сама модель может принадлежать самым различным типам: линейная или нелинейная регрессия, набор логических правил или любая другая модель.

Можно выделить следующие подклассы самоорганизующихся моделей [Справочник по типовым.., 1980]:

Принцип массовой селекции, используемый в алгоритмах МГУА, как и многие другие идеи кибернетики, заимствует действующие природные механизмы и схематически повторяет агротехнические методы селекции растений или животных, например:

Алгоритм МГУА воспроизводит схему массовой селекции [Ивахненко, 1975], показанной на рис. 2.4, и включает генераторы усложняющихся из ряда в ряд комбинаций и критерии порогового самоотбора лучших из них.

Рис. 2.4. Алгоритм МГУА как эквивалент массовой селекции

Так называемое “полное” описание объекта

Y = f(x1, x2, x3,¼ ,xm),

где f — некоторая функция типа (2.6) заменяется несколькими рядами “частных” описаний:

1-ряд селекции: y1= j (x1 , x2), y2= j (x1 , x3),..., ys= j (xm-1 , xm),

2-ряд селекции: z1= j (y1, y2), z2= j (y1 , y2),..., zp= j (ys-1 , ys), где s = , p = и т.д.

Входные аргументы и промежуточные переменные сопрягаются попарно, и сложность комбинаций на каждом ряду обработки информации возрастает (как при массовой селекции), пока не будет получена единственная модель оптимальной сложности. Поскольку каждое частное описание является функцией только двух аргументов, его коэффициенты легко определить по данным обучающей последовательности при малом числе узлов интерполяции [Васильев с соавт., 1989].

Из ряда в ряд селекции пропускается только некоторое количество самых регулярных переменных, степень регулярности которых оценивается по специальным критериям [Розенберг с соавт., 1994]. Ряды селекции наращиваются до тех пор, пока регулярность повышается. Как только достигнут минимум ошибки, селекцию, во избежание “инцухта”, следует остановить. Практически рекомендуется остановить селекцию даже несколько раньше достижения полного минимума, как только ошибка начинает падать слишком медленно. Это приводит к более простым и более достоверным уравнениям.

По своим принципам инвариантного отображения среды многорядные алгоритмы МГУА чрезвычайно близки идеям нейросетевого моделирования, в частности, многослойному персептрону Ф. Розенблатта.

Самоорганизующиеся модели служат, в основном, для прогнозирования поведения и структуры экосистем, так как по самой логике их построения участие исследователя в этом процессе сведено к минимуму. Можно привести ряд конкретных примеров использования алгоритмов МГУА: для долгосрочных прогнозов экологической системы оз. Байкал [Ивахненко с соавт., 1980], моделирования геоботанических описаний [Розенберг, 1981, 1984]; системы "хищник–жертва" [Брусиловский, Розенберг, 1981а,б], прироста деревьев [Розенберг, Феклистов, 1982], прогнозирования токсикологических показателей поллютантов [Шитиков с соавт, 1986], оценки динамики численности сообществ зоопланктона [Розенберг с соавт., 1994а].

В математической кибернетике различают два вида итеративных процессов развития систем [Ивахненко с соавт., 1976]:

Если самоорганизация связана только с адаптационными механизмами подстройки реакций системы (например, изменением значений весовых коэффициентов), то понятие эволюции связано с возможностью эффектора (термин, введенный С. Лемом [1968]) изменять свою собственную структуру, т.е. количество элементов, направленность и интенсивность связей, настраивая их оптимальным образом относительно поставленных задач в каждый конкретный момент времени. В процессе эволюции в условиях сложной и меняющейся среды эффектор способен приобрести принципиально новые качества, выйти на следующую ступень развития [Гаазе-Рапопорт, Поспелов, 1987]. Например, в процессе биологической эволюции возникли чрезвычайно сложные и вместе с тем удивительно продуктивно функционирующие живые организмы.

Эволюционное моделирование [Фогель с соавт., 1969; Букатова, 1979; Букатова с соавт., 1991] представляет собой существенно универсальный способ построения прогнозов макросостояний системы в условиях, когда полностью отсутствует апостериорная информация, а априорные данные задают лишь предысторию этих состояний. Общая схема алгоритма эволюции выглядит следующим образом:

Критерий качества модели в этом случае мало чем отличается, например, от минимума среднеквадратической ошибки на обучающей последовательности метода наименьших квадратов (со всеми вытекающими отсюда недостатками). Однако, в отличии от адаптации, в эволюционном программировании структура решающего устройства мало меняется при переходе от одной мутации к другой, т.е. не происходит перераспределения вероятностей, которые бы закрепляли мутации, приведшие к успеху на предыдущем шаге. Поиск оптимальной структуры происходит в большей степени случайным и нецеленаправленным, что затягивает процесс поиска, но обеспечивает наилучшее приспособление к конкретным изменяющимся условиям.

Одним из первых возможность применения эволюционного моделирования для целей экологического прогнозирования использовал В.Ф. Крапивин [1978]. В дальнейшем, эти подходы применялись для прогнозирования величины прироста деревьев [Розенберг, Феклистов, 1982; Розенберг, 1984] и состояний байкальского планктона [Брусиловский, 1987]. Идея эволюции нашла свое выражение в разработке моделей временных рядов экологических переменных с использованием трехэтапного эволюционного предсказывающего алгоритма [Розенберг с соавт., 1994] и автоматов Мили для многосимвольных целочисленных временных рядов [Морозов, 2000]. В этих работах использовался конечный автомат Мили со структурой, описывающей некоторый набор состояний автомата и совокупность связей между ними. Автомат в ходе эволюционного процесса "мутировал" в соответствии с некоторым набором заданных правил преобразования входных символов в выходные.

В последнее десятилетие наблюдается повышенный интерес к наиболее "биологизированным" моделям эволюции с использованием генетического алгоритма, который можно считать "интеллектуальной" формой метода проб и ошибок. Генетический алгоритм [Goldberg, 1989; Скурихин, 1995; Васильев, Ильясов, 1999], позаимствованный у природных аналогов, является наиболее элегантным представителем эволюционных методов и представляет собой мощное поисковое средство, эффективное в различных проблемных областях и основанное на трех компонентах:

Еще один широко используемый подход к построению систем ИИ – имитационный [Емельянов, Ясиновский, 1998]. Данный подход является классическим для кибернетики с одним из ее базовых понятий – "черным ящиком" – устройством, информация о внутренней структуре и содержании которого отсутствует полностью, но известны спецификации входных и выходных сигналов. Объект, поведение которого имитируется, как раз и представляет собой такой "черный ящик". Нам не важно, что у него и у модели внутри и как он функционирует, главное, чтобы наша модель в аналогичных ситуациях вела себя точно так же. Таким образом, здесь, после обучения и самоорганизации, моделируется еще одно свойство человека – способность копировать то, что делают другие, не вдаваясь в подробности, зачем это нужно. Основным недостатком имитационного подхода также является низкая информационная способность большинства моделей, построенных с его помощью.

Структурный подход и нейросетевое моделирование

Под структурным подходом подразумеваются попытки построения систем ИИ путем моделирования структуры человеческого мозга. В последние десять лет впечатляет феномен взрыва интереса к структурным методам самоорганизации – нейросетевому моделированию, которое успешно применяется в самых различных областях – бизнесе, медицине, технике, геологии, физике, т.е. везде, где нужно решать задачи прогнозирования, классификации или управления [Горбань, 1990, 1998а,б; Уоссермен, 1992; Васильев с соавт., 1997]. Описаны и широко распространяются нейросетевые расширения к популярным пакетам прикладных программ [Горбань, Россиев, 1996; Дьяконов, Круглов, 2001; Нейронные сети.., 2001], что делает процесс проектирования интеллектуальных систем доступным любой домохозяйке с персональным компьютером. К сожалению, известные авторам сведения об использовании нейронных сетей в российской экологии весьма скудны и ограничиваются моделированием лесорастительных свойств ландшафтных зон [Царегородцев, Погребная, 1998] и авторским вариантом моделирования гидроэкологических систем [Шитиков с соавт., 2002].

Способность нейронной сети к обучению впервые была исследована Дж. Маккалоком и У. Питтом, когда в 1943 г. вышла их работа "Логическое исчисление идей, относящихся к нервной деятельности". В ней была представлена модель нейрона и сформулированы принципы построения искусственных нейронных сетей.

Крупный толчок развитию нейрокибернетики дал американский нейрофизиолог Ф. Розенблатт, предложивший в 1962 г. свою модель нейронной сети – персептрон [Розенблатт, 1965; Минский, Пейперт, 1971]. Воспринятый первоначально с большим энтузиазмом, персептрон вскоре подвергся интенсивным нападкам со стороны крупных научных авторитетов. И, хотя подробный анализ их аргументов показывает, что они оспаривали не совсем тот персептрон, который предлагал Розенблатт, крупные исследования по нейронным сетям были свернуты почти на 10 лет. И когда в журнале "Успехи физических наук" стали появляться статьи, связанные с фазовыми переходами в нейронных системах, корректоры упорно исправляли в этих статьях слово “нейрон” на слово “нейтрон”.

Значительную роль в общем подъеме интереса к нейропроблемам сыграла теория, предложенная Дж. Хопфилдом [Hopfield, 1982]. Она буквально заворожила на продолжительное время физиков-теоретиков. И хотя с точки зрения нейро-теоретиков и технологов эта теория мало что дала, возбужденные ей аналогии и каскады головокружительных вычислений доставили немало эстетических радостей адептам науки. Более того, по аллитерации “нейрон”-“нейтрон” возникло модное в ту пору сочетание "нейронная бомба" и нейросетевые исследования стали финансироваться в рамках исследовательских программ всех родов войск США. Не исключено, что на вооружении каких-то стран уже имеются нейронные снаряды-камикадзе, чей нейросетевой "интеллект" направлен на уничтожение каких-то конкретных целей…

Другой важный класс нейронных систем был введен в рассмотрение финном Т. Кохоненом [1982]. У этого класса красивое название: "самоорганизующиеся отображения состояний, сохраняющие топологию сенсорного пространства". Теория Кохонена активно использует теорию адаптивных систем, которую развивал на протяжении многих лет академик РАН Я.З. Цыпкин [1968, 1984].

Весьма популярна сейчас во всем мире оценка возможностей обучающихся систем, в частности, нейронных сетей, основанная на теории размерности, созданной в 1966 г. советскими математиками В.Н. Вапником и А.Я. Червоненкисом [1974]. Еще один класс нейроподобных моделей представляют сети с обратным распространением ошибок, в развитии современных модификаций которых ведущую роль сыграл проф. А.Н. Горбань и возглавляемая им красноярская школа нейроинформатики (см. ссылки в начале подраздела). Большую научную и популяризаторскую работу проводит Российская ассоциации нейроинформатики под руководством президента В.Л. Дунина-Барковского.

В основе всего нейросетевого подхода лежит идея построения вычислительного устройства из большого числа параллельно работающих простых элементов – формальных нейронов. Эти нейроны функционируют независимо друг от друга и связаны между собой однонаправленными каналами передачи информации. Ядром нейросетевых представлений является идея о том, что каждый отдельный нейрон можно моделировать довольно простыми функциями, а вся сложность мозга, гибкость его функционирования и другие важнейшие качества определяются связями между нейронами. Предельным выражением этой точки зрения может служить лозунг: "структура связей – все, свойства элементов – ничто".

Нейронные сети (НС) – очень мощный метод моделирования, позволяющий воспроизводить чрезвычайно сложные зависимости, нелинейные по свой природе. Как правило, нейронная сеть используется тогда, когда неизвестны предположения о виде связей между входами и выходами (хотя, конечно, от пользователя требуется какой-то набор эвристических знаний о том, как следует отбирать и подготавливать данные, выбирать нужную архитектуру сети и интерпретировать результаты).

На вход нейронной сети подаются представительные данные и запускается алгоритм обучения, который автоматически анализирует структуру данных и генерирует зависимость между входом и выходом. Для обучения НС применяются алгоритмы двух типов: управляемое ("обучение с учителем") и неуправляемое ("без учителя").

Простейшая сеть имеет структуру многослойного персептрона с прямой передачей сигнала (см. рис. 2.5), которая характеризуется наиболее устойчивым поведением. Входной слой служит для ввода значений исходных переменных, затем последовательно отрабатывают нейроны промежуточных и выходного слоев. Каждый из скрытых и выходных нейронов, как правило, соединен со всеми элементами предыдущего слоя (для большинства вариантов сети полная система связей является предпочтительной). В узлах сети активный нейрон вычисляет свое значение активации, беря взвешенную сумму выходов элементов предыдущего слоя и вычитая из нее пороговое значение. Затем значение активации преобразуется с помощью функции активации (или передаточной функции), и в результате получается выход нейрона. После того, как вся сеть отработает, выходные значения элементов последнего слоя принимаются за выход всей сети в целом.

Рис. 2.5. Пример нейронной сети – трехслойного персептрона с прямым распространением информации

Наряду с моделью многослойного персептрона, позднее возникли и другие модели нейронных сетей, различающихся по строению отдельных нейронов, по топологии связей между ними и по алгоритмам обучения. Среди наиболее известных сейчас вариантов можно назвать НС с обратным распространением ошибки, основанные на радиальных базисных функциях, обобщенно-регрессионные сети, НС Хопфилда и Хэмминга, самоорганизующиеся карты Кохонена, стохастические нейронные сети и т.д. Существуют работы по рекуррентным сетям (т.е. содержащим обратные связи, ведущие назад от более дальних к более ближним нейронам), которые могут иметь очень сложную динамику поведения. Начинают эффективно использоваться самоорганизующиеся (растущие или эволюционирующие) нейронные сети, которые во многих случаях оказываются более предпочтительными, чем традиционные полносвязные НС [Головко, 1999].

Для моделей, построенных по мотивам человеческого мозга, характерны как легкое распараллеливание алгоритмов и связанная с этим высокая производительность, так и не слишком большая выразительность представленных результатов, не способствующая извлечению новых знаний о моделируемой среде. Попытаться в явном виде (например, в виде полинома 2.6) представить результаты нейросетевого моделирования – довольно неблагодарная задача. Поэтому основной удел этих моделей, являющихся своеобразной "вещью в себе", – прогнозирование.

Важным условием применения НС, как и любых статистических методов, является объективно существующая связь между известными входными значениями и неизвестным откликом. Эта связь может носить случайный характер, искажена шумом, но она должна существовать. Известный афоризм “garbage in, garbage out” (“мусор на входе – мусор на выходе”) нигде не справедлив в такой степени, как при использовании методов нейросетевого моделирования. Это объясняется, во-первых, тем, что итерационные алгоритмы направленного перебора комбинаций параметров нейросети оказываются весьма эффективными и очень быстрыми лишь при хорошем качестве исходных данных. Однако, если это условие не соблюдается, число итераций быстро растет и вычислительная сложность оказывается сопоставимой с экспоненциальной сложностью алгоритмов полного перебора возможных состояний. Во-вторых, сеть склонна обучаться прежде всего тому, чему проще всего обучиться, а, в условиях сильной неопределенности и зашумленности признаков, это – прежде всего артефакты и явления "ложной корреляции".

Отбор информативных переменных в традиционной регрессии и таксономии осуществляют путем “взвешивания” признаков с использованием различных статистических критериев и пошаговых процедур, основанных, в той или иной форме, на анализе коэффициентов частных корреляций или ковариаций. Для этих целей используют различные секвенциальные (последовательные) процедуры, не всегда приводящие к результату, достаточно близкому к оптимальному. Эффективный автоматизированный подход к выбору значимых входных переменных может быть реализован с использованием генетического алгоритма. В связи с этим, в общей схеме статистического моделирования методами ИИ рекомендуется [Нейронные сети.., 2001] последовательное выполнение двух разных процедур:

Мы подробно рассмотрим несколько алгоритмов искусственного интеллекта и версий нейронных сетей при изложении главы 9, где приведем примеры их использования в гидробиологии.

Лев состоит из съеденных им баранов”. Это древнеримское изречение вспоминает С.П.Сотник [URL], проведя сравнительный анализ моделей МГУА и НС на примерах различной сложности. На задачах, близких к линейным, МГУА дает прекрасные результаты и оказывается точнее нейронных сетей. Однако при переходе к нелинейным задачам МГУА уже не имеет такого явного преимущества. Это отнюдь не означает, что нейронные сети плохи, а МГУА – хорош (или наоборот). “Они – всего лишь "животные" с различным, хотя и существенно пересекающимся "ареалом обитания"”.

На основании проведенного сравнения представляется, что искусственные нейронные модели будут более эффективны при выполнении следующих условий:

Выбор наиболее адекватного метода обработки данных – одновременно и кропотливый труд, и искусство, основанное на парадоксах и опыте “ошибок трудных”. Авторы надеются, что помочь этому могут материалы, представленные в части 3.

Дальше К следующему разделу Назад К предыдующему разделу Начало К началу разделу Конец К концу разделу Список К оглавлению