Окончание Введения.
5. О сведении теории нечетких множеств к теории слу-чайных множеств
Нечеткость и случайность. С самого начала появления современной теории нечеткости в 1960-е годы началось обсужде-ние ее взаимоотношений с теорией вероятностей. Дело в том, что функция принадлежности нечеткого множества напоминает плотность распределения вероятностей. Отличие только в том, что сумма вероятностей по всем возможным значениям случай-ной величины (или интеграл, если множество возможных значе-ний несчетно) всегда равна 1, а сумма S значений функции при-надлежности (в непрерывном случае — интеграл от функции принадлежности) может быть любым неотрицательным числом. Возникает искушение пронормировать функцию принадлежно-сти, т.е. разделить все ее значения на S (при S 0), чтобы свести ее к распределению вероятностей (или к плотности вероятности). Однако специалисты по нечеткости справедливо возражают про-тив такого «примитивного» сведения, поскольку оно проводится отдельно для каждой размытости (нечеткого множества), и опре-деления обычных операций над нечеткими множествами согла-совать с ним нельзя. Последнее утверждение означает следую-щее. Пусть указанным образом преобразованы функции принад-лежности нечетких множеств А и В. Как при этом преобразуются функции принадлежности АВ, АВ, А + В, АВ? Установить это невозможно в принципе. Последнее утверждение становится со-вершенно ясным после рассмотрения нескольких примеров пар нечетких множеств с одними и теми же суммами значений функ-ций принадлежности, но различными результатами теоретико-множественных операций над ними. Причем и суммы значений соответствующих функций принадлежности для этих результатов теоретико-множественных операций, например, для пересечений множеств, также различны.
В работах по нечетким множествам время от времени ут-верждается, что теория нечеткости самостоятельный раздел при-кладной математики и не имеет отношения к теории вероятно-стей. Некоторые авторы, обсуждавшие взаимоотношения теории нечеткости и теории вероятностей, подчеркивали различие между этими областями теоретических и прикладных исследований. Обычно сопоставляют аксиоматику и сравнивают области при-ложений.
Аргументы при втором типе сравнений не имеют доказа-тельной силы, поскольку по поводу границ применимости даже такой давно выделившейся научной области, как вероятностно-статистические методы, имеются различные мнения. Более того, нет единства мнений об арифметике. Напомним, что итог рассу-ждений одного из наиболее известных французских математиков Анри Лебега по поводу границ применимости арифметики таков: «Арифметика применима тогда, когда она применима» (см. [7, 8]).
При сравнении различных аксиоматик теории нечеткости и теории вероятностей нетрудно увидеть, что списки аксиом разли-чаются. Из этого, однако, отнюдь не следует, что между указан-ными теориями нельзя установить связь, типа известного сведе-ния евклидовой геометрии на плоскости к арифметике (точнее к теории числовой системы R2). Эти две аксиоматики — евклидо-вой геометрии и арифметики — на первый взгляд весьма сильно различаются.
Можно понять желание энтузиастов теории нечеткости под-черкнуть принципиальную новизну своего научного аппарата. Однако не менее важно установить связи этого подхода с ранее известными.
Проекция случайного множества. Как оказалось, теория нечетких множеств тесно связана с теорией случайных множеств. Еще в 1975 г. доказано (см. [7, 8, 12]), что нечеткие множества естественно рассматривать как «проекции» случайных множеств. Рассмотрим этот метод сведения теории нечетких множеств к теории случайных множеств.
Определение 1. Пусть A = A() — случайное подмножест-во конечного множества Y. Нечеткое множество В, определен-ное на Y, называется проекцией А и обозначается Proj A, если
B(y) = P(y A) (3)
при всех y Y.
Очевидно, каждому случайному множеству А можно поста-вить в соответствие с помощью формулы (3) нечеткое множество В = Proj A. Оказывается, верно и обратное.
Теорема 1. Для любого нечеткого подмножества В конеч-ного множества Y существует случайное подмножество А множества Y такое, что В = Proj A.
Изучение связи между нечеткими и случайными множества-ми началось с введения случайных множеств с целью развития и обобщения аппарата нечетких множеств Л. Заде. Дело в том, что математический аппарат нечетких множеств не позволяет в должной мере учитывать различные варианты зависимости меж-ду понятиями (объектами), моделируемыми с его помощью, т.е. не является достаточно гибким. Так, для описания «общей части» двух нечетких множеств есть лишь две операции — произведе-ние и пересечение. Если применяется первая из них, то фактиче-ски предполагается, что множества ведут себя как проекции не-зависимых случайных множеств. Операция пересечения также накладывает вполне определенные ограничения на вид зависимо-сти между множествами, причем в этом случае найдены даже не-обходимые и достаточные условия [7, 8, 12]. Желательно иметь более широкие возможности для моделирования зависимости между множествами (понятиями, объектами). Использование ма-тематического аппарата случайных множеств предоставляет та-кие возможности.
Цель сведения теории нечетких множеств к теории случай-ных множеств в том, чтобы за любой конструкцией из нечетких множеств увидеть конструкцию из случайных множеств, опреде-ляющую свойства первой, аналогично тому, как за плотностью распределения вероятностей мы видим случайную величину. Приведем один из результатов по сведению алгебры нечетких множеств к алгебре случайных множеств.
Теорема 2. Пусть B1, B2, B3, …, Bt — некоторые нечеткие подмножества множества Y из конечного числа элементов. Рассмотрим результаты последовательного выполнения теоре-тико-множественных операций
Bm = ((…((B1 B2) B3) …) Bm–1) Bm, m = 1, 2, …, t,
где — символ одной из следующих теоретико-множественных операций над нечеткими множествами: пересечение, произведе-ние, объединение, сумма (на разных местах могут стоять раз-ные символы). Тогда существуют случайные подмножества A1, A2, A3, …, At того же множества Y такие, что
ProjAi = Bi, i = 1, 2, …, t,
и, кроме того, результаты теоретико-множественных опера-ций связаны аналогичными соотношениями
Proj{((…((A1 A2) A3) Am–1) Am} = Bm, m = 1, 2, …, t,
где знак означает, что на рассматриваемом месте стоит символ пересечения случайных множеств, если в определении Bm стоит символ пересечения или символ произведения нечетких множеств, и соответственно символ объединения случайных множеств, если в Bm стоит символ объединения или символ сум-мы нечетких множеств.
6. Интервальные числа как частный случай нечетких множеств
Интервальное число – это нечеткое множество с функцией принадлежности, заданной формулой (2). Проще говоря, интер-вальное число – это интервал [a, b]. Интервальные числа часто используются для описания результатов измерений, поскольку измерение всегда проводится с некоторой неопределенностью. Прогноз погоды, как и другие прогнозы, дается в виде интервала, например: «Температура завтра днем будет 15 – 17 градусов Цельсия».
Арифметические операции над интервальными числами [a, b] и [c, d] определяются следующим образом:
[a, b] + [c, d] = [a + c, b + d], [a, b] – [c, d] = [a – d+ c, b – c],
[a, b] [c, d] = [ac, bd], [a, b] / [c, d] = [a/d, b/c]
(формулы для умножения и деления приведены в случае положи-тельных чисел a, b, c, d).
Определив арифметические операции, можем по аналогии с обычной математикой проводить различные расчеты, поскольку алгоритмы расчетов представляют собой последовательности арифметических действий.
7. Развитие интервальной математики. «Интервальное удвоение» математики
Первая монография по интервальной математике была опуб-ликована Р.Е. Муром в 1966 г. (практически одновременно с пер-вой статьей Л.А. Заде по нечетким множествам), а на русском языке – Ю.И. Шокиным в 1981 г. В дальнейшем интервальная математика активно развивалась, но не так быстро, как теория нечетких множеств. Исключением является статистика интер-вальных данных, в которой получено много интересных резуль-татов (они приведены в одной из четырех глав монографии [7]), в то время как статистика нечетких данных до сих пор гораздо ме-нее развита и представляет собой в основном результат примене-ния общих подходов статистики объектов нечисловой природы, являющихся элементами пространств произвольного вида [7].
Любую математическую конструкцию, использующую числа, можно обобщить, заменив обычные числа на интервальные. Та-ким образом, применение интервальных чисел позволяет произ-вести «интервальное удвоение» математики. Открывается боль-шое поле для теоретических исследований, имеющих непосред-ственный практический интерес. Вначале основные применения были связаны с автоматическим контролем ошибок округления при вычислениях на ЭВМ. Затем начали учитывать ошибки дис-кретизации численных методов и ошибки в начальных данных. Статистика интервальных данных исходит из модели, согласно которой элементы выборки известны лишь с точностью до «плюс-минус дельта», т.е. выборка состоит из интервалов фикси-рованной длины со случайными концами.
Констатируем необходимость расширения математического аппарата с целью учета присущих реальности нечеткости и ин-тервальности. Такая необходимость отмечалась в ряде публика-ций [35-37], но пока еще не стала общепризнанной. На описании неопределенностей с помощью вероятностных моделей не оста-навливаемся, поскольку такому подходу посвящено множество работ.
8. Система как обобщение множества. Системное обобще-ние математики и задачи, возникающие при этом
В науке принято два основных принципа определения поня-тий:
– через подведение определяемого понятия под более общее понятие и выделение из него определяемого понятия путем ука-зания одного или нескольких его специфических признаков (на-пример, млекопитающие – это животные, выкармливающие сво-их детенышей молоком);
– процедурное определение, которое определяет понятие пу-тем указания пути к нему или способа его достижения (магнит-ный северный полюс – это точка, в которую попадешь, если все время двигаться на север, определяя направление движения с по-мощью магнитного компаса).
Как это ни парадоксально, но понятия системы и множества могут быть определены друг через друга, т.е. трудно сказать, ка-кое из этих понятие является более общим.
Определение системы через множество.
Система есть множество элементов, взаимосвязанных друг с другом, что дает системе новые качества, которых не было у элементов. Эти новые системные свойства еще называются эмерджентными, т.к. не очень просто понять, откуда они берутся. Чем больше сила взаимодействия элементов, тем сильнее свойст-ва системы отличаются от свойств множества и тем выше уро-вень системности и синергетический эффект. Получается, что система – это множество элементов, но не всякое множество, а только такое, в котором элементы взаимосвязаны (это и есть спе-цифический признак, выделяющий системы в множестве), т.е. множество – это более общее понятие.
Определение множества через систему.
Но можно рассуждать и иначе, считая более общим понятием систему, т.е. мы ведь можем определить понятие множества через понятие системы. Множество – это система, в которой сила взаимодействия между элементами равна нулю (это и есть отли-чительный признак, выделяющий множества среди систем). То-гда более общим понятием является система, а множества – это просто системы с нулевым уровнем системности.
Вторая точка зрения объективно является предпочтительной, т.к. совершенно очевидно, что понятие множества является предельной абстракцией от понятия системы и реально в мире существуют только системы, а множеств в чистом виде не су-ществует, как не существует математической точки. Точнее сказать, что множества, конечно, существуют, но всегда исклю-чительно и только в составе систем как их базовый уровень ие-рархии, на котором они основаны.
Из этого вытекает очень важный вывод: все понятия и тео-рии, основанные на понятии множества, допускают обобще-ние путем замены понятия множества на понятие системы и тщательного прослеживания всех последствий этой заме-ны. При этом более общие теории будут удовлетворять принципу соответствия, обязательному для более общих теорий, т.е. в асимптотическом случае, когда сила взаимосвязи элементов систем будет стремиться к нулю, системы будут все меньше от-личаться от множеств и системное обобщение теории перейдет к классическому варианту, основанному на понятии множества. В предельном случае, когда сила взаимосвязи точно равна нулю, системная теория будет давать точно такие же результаты, как основанная на понятии множества.
Этот вывод верен для всех теорий, но в данной работе для ав-торов наиболее интересным и важным является то, что очень многие, если не практически все понятия современной матема-тики основаны на понятии множества, в частности на математи-ческой теории множеств. В частности, к таким понятиям относят-ся понятия:
– математической операции: преобразования одного или не-скольких исходных множеств в одно или несколько результи-рующих;
– функциональной зависимости: отображение множества значений аргумента на множество значений функции для одно-значной функции одного аргумента или отображение множеств значений аргументов на множества значений функций для много-значной функции многих аргументов;
– «количество информации»: функция от свойств множества.
В работе [186] впервые сформулирована и обоснована про-граммная идея системного обобщения математики, суть которой состоит в тотальной замене понятия "множество" на более общее понятие "система" и прослеживании всех последствий этого. При этом обеспечивается соблюдение принципа соответствия, обяза-тельного для более общей теории, т.к. при понижении уровня системности система по своим свойствам становится все ближе к множеству и система с нулевым уровнем системности и есть множество. Приводится развернутый пример реализации этой программной идеи в области теории информации, в качестве ко-торого выступает предложенная в 2002 году системная теория информации [97], являющаяся системным обобщением теории информации Найквиста – Больцмана – Хартли – Шеннона и се-мантической теории информации Харкевича. Основа этой теории состоит в обобщении комбинаторного понятия информации Хартли I = Log2N на основе идеи о том, что количество информа-ции определяется не мощностью множества N, а мощностью сис-темы, под которой предлагается понимать суммарное количество подсистем различного уровня иерархии в системе, начиная с ба-зовых элементов исходного множества и заканчивая системой в целом. При этом в 2002 году, когда было предложено системное обобщение формулы Хартли, число подсистем в системе, т.е. мощность системы Ns, предлагалось рассчитывать по формуле:
.
Соответственно, системное обобщение формулы Хартли для количества информации в системе из n элементов предлагалось в виде:
В работе [270] дано системное обобщение формулы Хартли для количества информации для квантовых систем, подчиняю-щиеся статистике как Ферми-Дирака, так и Бозе-Эйнштейна, и стало ясно, что предложенные в 2002 году в работе [97] выше-приведенные выражения имеют силу только для систем, подчи-няющихся статистике Ферми-Дирака.
В работе [188] кратко описывается семантическая информа-ционная модель системно-когнитивного анализа (СК-анализ), вводится универсальная информационная мера силы и направле-ния влияния значений факторов (независимая от их природы и единиц измерения) на поведение объекта управления (основанная на лемме Неймана – Пирсона), а также неметрический инте-гральный критерий сходства между образами конкретных объек-тов и обобщенными образами классов, образами классов и образ-ами значений факторов. Идентификация и прогнозирование рас-сматривается как разложение образа конкретного объекта в ряд по обобщенным образам классов (объектный анализ), что предла-гается рассматривать как возможный вариант решения на прак-тике 13-й проблемы Гильберта.
В статьях [189, 191] обоснована идея системного обобщения математики и сделан первый шаг по ее реализации: предложен вариант системной теории информации [97, 201]. В данной рабо-те осуществлена попытка сделать второй шаг в этом же направ-лении: на концептуальном уровне рассматривается один из воз-можных подходов к системному обобщению математического понятия множества, а именно – подход, основанный на систем-ной теории информации. Предполагается, что этот подход может стать основой для системного обобщения теории множеств и соз-дания математической теории систем. Сформулированы задачи, возникающие на пути достижения этой цели (разработки систем-ного обобщения математики) и предложены или намечены пути их решения:
Задача 1: найти способ представления системы как совокуп-ности взаимосвязанных множеств.
Задача 2: сформулировать, чем отличаются друг от друга раз-личные системы, состоящие из одних и тех же базисных элемен-тов.
Задача 3: обосновать принципы геометрической интерпрета-ции понятий: "элемент системы" и "система".
Задача 4: предложить способы аналитического описания (за-дания) подсистем как элементов системы.
Задача 5: описать системное семантическое пространство для отображения систем в форме эйдосов (эйдос-пространство).
Задача 6: описать принцип формирования эйдосов (включая зеркальные части).
Задача 7: показать, что базовая когнитивная концепция [97] формализуется многослойной системой эйдос-пространств (тер-мин автора) различных размерностей.
Задача 8: показать, что системная теория информации позво-ляет непосредственно на основе эмпирических данных опреде-лять вид функций принадлежности, т.е. решать одну из основных задач теории нечетких множеств.
Задача 9: сформулировать перспективы: разработка операций с системами: объединение (сложение), пересечение (умножение), вычитание. Привести предварительные соображения по сложе-нию систем.
В данной работе эти варианты решения не приводятся из-за ограниченности ее объема.
9. Системное обобщение операций над множествами (на примере операции объединения булеанов)
В работе [240] рассматривается реализация математической операции объединения систем, являющаяся обобщением опера-ции объединения множеств в рамках системного обобщения тео-рии множеств. Эта операция сходна с операцией объединения булеанов классической теории множеств. Но в отличие от клас-сической теории множеств в ее системном обобщении предлага-ется конкретный алгоритм объединения систем и обосновывается количественная мера системного (синергетического, эмерджент-ного) эффекта, возникающего за счет объединения систем. Для этой меры предложено название: «Обобщенный коэффициент эмерджентности Р. Хартли» из-за сходства его математической формы с локальным коэффициентом эмерджентности Хартли и отражающим степень отличия системы от множества её базовых элементов . Приводится ссылка на авторскую программу, реали-зующую предложенный алгоритм и обеспечивающую численное моделирование объединения систем при различных ограничениях на сложность систем и при различной мощности порождающего множества, приводятся некоторые результаты численного моде-лирования.
В работе [241] предлагается общее математическое выраже-ние для количественной оценки системного (синергетического) эффекта, возникающего при объединении булеанов (систем), яв-ляющихся обобщением множества в системном обобщении тео-рии множеств и независящее от способа (алгоритма) образования подсистем в системе. Для этой количественной меры предложено название: «Обобщенный коэффициент эмерджентности Р.Хартли» из-за сходства его математической формы с локаль-ным коэффициентом эмерджентности Хартли, отражающим сте-пень отличия системы от множества его базовых элементов. Для локального коэффициента эмерджентности Хартли также пред-ложено обобщение, независящее от способа (алгоритма) образо-вания подсистем в системе. Приводятся численные оценки сис-темного эффекта при объединении двух систем с применением авторской программы, на которую дается ссылка.
10. Системное обобщение понятия функции и функцио-нальной зависимости. Когнитивные функции. Матрицы зна-ний как нечеткое с расчетной степенью истинности отобра-жение системы аргументов на систему значений функции
Выше кратко рассматривается программная идея системного обобщения понятий математики (в частности теории информа-ции), основанных на теории множеств, путем тотальной замены понятия множества на более содержательное понятие системы и прослеживания всех последствий этого. Частично эта идея была реализована автором при разработке автоматизированного сис-темно-когнитивного анализа (АСК-анализа) [266], математиче-ская модель которого основана на системном обобщении формул для количества информации Хартли и Харкевича [97].
В работе [166] реализуется следующий шаг: предлагается системное обобщение понятия функциональной зависимости, и вводятся термины "когнитивные функции" и "когнитивные чис-ла". На численных примерах показано, что АСК-анализ обеспе-чивает выявление когнитивных функциональных зависимостей в многомерных зашумленных фрагментированных данных.
В работе [140] намечены принципы применения многознач-ных функций многих аргументов для описания сложных систем и предложено матричное представление этих функций.
В работе [218] обсуждается возможность восстановления значений одномерных и двумерных функций как между значе-ниями аргумента (интерполяция), так и за их пределами (экстра-поляция) на основе использования априорной информации о взаимосвязи между признаками аргумента и значениями функ-ции в опорных точках с применением системно-когнитивного анализа и его инструментария – системы «Эйдос». Приводятся численные примеры и визуализация результатов. Предлагается применение аппарата многомерных когнитивных функций для решения задач распознавания и прогнозирования на картографи-ческих базах данных.
В работе [226] на примере решения проблемы управления аг-ропромышленным холдингом рассматривается технология ког-нитивных функций СК-анализа, обеспечивающая как выявление знаний из эмпирических данных, так и использование этих зна-ний для поддержки принятия решений по управлению холдингом в целом на основе управления характеристиками входящих в него предприятий.
В работе [235] рассматривается применение метода автомати-зированного системно-когнитивного анализа и его программного инструментария – системы «Эйдос» для выявления причинно-следственных зависимостей из эмпирических данных. В качестве инструментария для формального представления причинно-следственных зависимостей предлагаются когнитивные функции.
Когнитивные функции представляют собой многозначные интервальные функции многих аргументов, в которых различные значения функции в различной степени соответствуют различ-ным значениям аргументов, причем количественной мерой этого соответствия выступает знание, т.е. информация о причинно-следственных зависимостях в эмпирических данных, полезная для достижения целей.
В работе [239] на основе применения аппарата когнитивных функций впервые исследована зависимость параметров движения полюса Земли от положения небесных тел Солнечной системы. В последующем эти результаты развиты в монографии [108].
Наиболее полно метод визуализации когнитивных функ-ций, как новый инструмент исследования эмпирических данных большой размерности, раскрыт в работе [243].
В работе [244] рассматривается новая версия системы искус-ственного интеллекта «Эйдос-астра» для решения прикладных задач с эмпирическими данными большой размерности. Прило-жение, написанное на языке JAVA, обеспечивает GUI (графиче-ский интерфейс пользователя) и позволяет подготовить и выпол-нить визуализацию матрицы знаний без ограничений, налагаемых реализацией предыдущих версий системы «Эйдос-астра». Отме-тим, что в системе Эйдос-Х++ все эти ограничения на размер-ность моделей также сняты в универсальной форме, не зависящей от предметной области.
В работе [254] рассмотрена глубокая взаимосвязь между тео-рией автоматизированного и автоматического управления и сис-темно-когнитивным анализом и его программным инструмента-рием – системой «Эйдос» в их применении для интеллектуально-го управления сложными системами. Предлагается технология, позволяющая на практике реализовать интеллектуальное автома-тизированное и даже автоматическое управление такими объек-тами управления, для которых ранее управление реализовалось лишь на слабоформализованном уровне, как правило, без приме-нения математических моделей и компьютеров. К таким объек-там управления относятся, например, технические системы, штатно качественно-изменяющиеся в процессе управления, био-логические и экологические системы, социально-экономические и психологические системы. Намечены возможности получения когнитивных передаточных функций сложных многопарамет-рических нелинейных объектов управления на основе зашумлен-ной фрагментированной эмпирической информации об их факти-ческом поведении под действием различных сочетаний значений факторов различной природы.
Ясно, что если величина интервала будет стремиться к нулю, то интервальные функции, к которым относятся и когнитивные функции, будут асимптотически приближаться к абстрактным математическим функциям, которые можно считать интерваль-ными функциями с нулевой величиной интервала. Поэтому ин-тервальная математика может рассматриваться как более общая, чем точная и для нее выполняется известный принцип соответ-ствия , обязательный для более общих теорий.
В когнитивных функциях, представленных на рис. 1, цветом отображено количество информации в интервальном значении аргумента об интервальном значении функции. Или выражаясь точнее, цветом отображено количество информации в интер-вальном значении аргумента о том, что (при этом значении аргу-мента) функция примет определенное интервальное значение. Или еще точнее, цветом отображено количество информации о том, что при значении аргумента, попадающем в данный интер-вал, функция примет определенное значение, попадающее в со-ответствующий интервал.
Из рис. 1 мы видим, что об одних значениях функции в зна-чениях аргумента содержится больше информации, а о других меньше. Это значит, что различные значения аргумента с разной степенью определенности обуславливают соответствующие значения функции. Иначе говоря, зная одни значения аргумента, мы весьма определенно можем сказать о соответствующем зна-чении функции, а по другим значениям мы можем судить о зна-чении функции лишь приблизительно, т.е. с гораздо большей по-грешностью или неопределенностью.
Таким образом, когнитивная функция содержит информа-цию не только о соответствии значений функции значениям ар-гумента, как абстрактная математическая функция, но и о достоверности высказывания о том, что именно такое их соот-ветствие имеет место в действительности, причем эта досто-верность меняется от одних значений аргумента и функции к другим.
Получается, что в каждом значении аргумента содержится определенная информация о каждом значении функции. Эта ин-формация может быть больше или меньше, она может быть по-ложительная или отрицательная, т.е. в когнитивной функции ка-ждому значению аргумента соответствуют все значения функ-ции, но в различной степени. Из этого следует также, что каждое значение функции обуславливается различными значениями аргу-мента, но каждое из них обусловливает это значение в различ-ной степени. Поэтому когнитивные функции являются много-значными функциями многих аргументов.
Это понятие напоминает доверительный интервал, но с той разницей, что доверительный интервал всегда растет со значени-ем аргумента, а количество информации может и возрастать, и уменьшаться. Если осуществляется интерполяция или прогноз значения когнитивной функции, то при этом одновременно опре-деляется и достоверность этой интерполяции или этого прогно-за. На когнитивной функции эта достоверность представлена в форме полупрозрачной полосы, ширина которой обратно про-порциональна достоверности (как в доверительном интервале), т.е. чем точнее известно значение функции, тем уже полоса, и чем оно более неопределенно, тем она шире.
В теоретической математике нет меры причинно-следственной связи. Математика оперирует абстрактными поня-тиями, а понятие причинно-следственной связи является содер-жательным понятием, относящимся к конкретной изучаемой, в том числе и эмпирически, предметной области. Математические понятия функциональной зависимости или корреляция не явля-ются такой мерой. Правда, в статистике есть критерий хи-квадрат, который действительно является мерой причинно-следственной связи, но статистика специально разработана с це-лью изучения конкретных явлений и этим существенно отличает-ся от абстрактной теоретической математики.
Мы рассматриваем числовые и лингвистические данные, как сырые данные, полученные непосредственно из опыта и еще не подвергнутые какой-либо обработке. Эти эмпирические данные могут быть преобразованы в информацию путем их анализа. Ин-формация есть осмысленные данные. Смысл согласно концепции смысла Шешка-Абельсона, которой мы придерживаемся, пред-ставляет собой знание причинно-следственных зависимостей. Причинно-следственные зависимости возможны только между событиями, а не между данными. Поэтому анализ данных, в ре-зультате которого они преобразуются в информацию, включает два этапа:
– нахождение событий в данных;
– выявление причинно-следственных связей между события-ми.
Знания представляют собой информацию, полезную для дос-тижения цели. Если такой целью является решение задач прогно-зирования, принятия решений и исследования моделируемой предметной области путем исследования ее модели (это коррект-но, если модель адекватна), то информационная модель является и когнитивной моделью, т.е. интеллектуальной моделью или мо-делью знаний.
Поэтому когнитивные функции являются наглядным графи-ческим отображение наших знаний о причинно-следственных связях между интервальными или лингвистическими значениями аргумента и интервальными или лингвистическими значениями функции.
Когнитивные функции представляют собой графическое ото-бражение сечений многомерного эйдос-пространства (базы зна-ний) системы «Эйдос-Х++» плоскостями, содержащими заданные описательные и классификационные шкалы с фактически имею-щимися у них интервальными значениями (градациями).
Рассмотрим с позиций теории информации, чем отличаются когнитивные функции от абстрактных математических функ-ций. Формально по точному значению аргумента любой абст-рактной математической функции возможно точно узнать ее точное значение. Но на практике это возможно лишь тогда, когда и значения аргумента, и значения функции являются целыми числами. Если же они являются иррациональными числами, то совершенно ясно, что точное их значение никогда не может быть ни вычислено на любом компьютере с ограниченной вычисли-тельной мощностью, ни записано, ни на каких носителях с огра-ниченной информационной емкостью, ни передано ни по каким каналам связи с ограниченной пропускной способностью. Поэто-му точное знание значения иррациональной функции означает доступ к бесконечному количеству информации. На практике же мы, конечно, всегда имеем дело с ограниченной точностью или знаем значения функции с некоторой погрешностью, т.е. опери-руем конечным количеством информации в значениях аргумента о значениях функции. Но каким именно количеством информа-ции? До разработки математического аппарата и программного инструментария когнитивных функций это вопрос как-то ребром не ставился и был в тени приоритетных направлений исследова-ний. Ответом на это вопрос и является теория когнитивных функций, где каждому значению аргумента соответствует не только значение функции, но и количество информации в би-тах, содержащееся в этом значении аргумента о том, что ему соответствует данное значение функции. В оцифрован-ных аудио, видео и других сигналах мы всегда знаем глубину ко-дирования, а значит и количество информации в значении аргу-менте о значении функции. В любых таблицах и базах данных числа всегда представлены с ограниченным числом знаков после запятой, а значит само множество таких чисел ограничено, и все-гда можно посчитать, какие количество информации содержится в факте выборки как-то одного конкретного из этих чисел. На-пример, в известной таблице Брадиса приводится 4 знака значе-ния синуса после запятой. Это значит, что определенному углу (от 0 до 90°) соответствует одно из 9999 значений. По формуле Хартли получаем: I=Log2N=Log29999~13.29 бит.
Разработаны нередуцированные, частично и полностью реду-цированные прямые и обратные когнитивные функции, а также программный инструментарий для их расчета (сама система Эй-дос-Х++) и визуализации [40]. Однако в данной работе не целе-сообразно их рассматривать, т.к. этому посвящены работы [24, 27-30] и ряд других.
11. Модификация метода наименьших квадратов при ап-проксимации когнитивных функций
Предлагается модификация метода наименьших квадратов для аппроксимации когнитивных функций, в котором точки имеют вес, равный количеству информации в значении аргумен-та о значении функции. Для упрощения можно рассматривать точки когнитивных функций как «мультиточки», состоящие из определенного количества «элементарных точек», соответст-вующего их весу. Другой вариант состоит в том, что перед при-менением стандартного МНК для каждого значения аргумента рассчитывается средневзвешенное значение функции из всех с их весами. В модуле визуализации когнитивных функций [40] этот метод реализован программно для отображения частично и пол-ностью редуцированных когнитивных функций. Математическо-му описанию этого метода планируются посвятить одну из буду-щих статей авторов.
12. Развитие идеи системного обобщения математики в области теории информации. Системная (эмерджентная) тео-рия информации (СТИ)
Простейшая комбинаторная количественная мера информа-ции по Хартли рассчитывается как логарифм от числа элементов множества N:
.
В 2002 году у автора [97] возникла простая мысль о том, что если рассматривать как элементы множества не только его эле-менты по одному, как у Хартли, но и подсистемы, состоящие из 2, 3, …, N элементов, то формулу Хартли легко обобщить, придав ей вид, учитывающий наличие подсистем:
.
Аналогично обобщаются и другие количественные меры информации, в частности Шеннона и Харкевича, и в результате получается вариант теории информации, органично приспособ-ленный для учета как обычной (классической), так и системной информации.
13. Информационные меры уровня системности – коэф-фициенты эмерджентности
В работе [97] и работе [170] предлагаются теоретически обоснованные количественные меры, следующие из системной теории информации (СТИ), которые позволяют количественно оценивать влияние факторов на системы различной природы не по силе и направлению изменения состояния системы, а по сте-пени возрастания или уменьшения ее эмерджентности (уровня системности) и степени детерминированности.
В работе [253] на простом численном примере рассматрива-ется применение автоматизированного системно-когнитивного анализа (АСК-анализ) и его программного инструментария – ин-теллектуальной системы «Эйдос» для выявления и исследования детерминации эмерджентных макросвойств систем их составом и иерархической структурой, т.е. подсистемами различной сложно-сти (уровней иерархии). Кратко обсуждаются некоторые методо-логические вопросы создания и применения формальных моде-лей в научном познании. Предложены системное обобщение принципа Уильяма Росса Эшби о необходимом разнообразии на основе системного обобщения теории множеств и системной тео-рии информации, обобщенная формулировка принципа относи-тельности Галилея-Эйнштейна, высказана гипотеза о его взаимо-связи с теоремой Эмми Нётер, а также предложена гипотеза «О зависимости силы и направления связей между базовыми элемен-тами системы и ее эмерджентными свойствами в целом от уровня иерархии в системе»
В [270] предложены коэффициенты эмерджентности, приме-нимые для систем, подчиняющихся классической или квантовой статистике. Дан алгоритм оценки уровня системности квантовых объектов. Рассмотрены квантовые системы, подчиняющиеся ста-тистике Ферми-Дирака и Бозе-Эйнштейна, а также классические системы, подчиняющиеся статистике Максвелла-Больцмана. Ус-тановлено, что коэффициенты эмерджентности квантовых и классических систем отличаются между собой, как и коэффици-енты квантовых систем ферми-частиц и бозе-частиц. Следова-тельно, коэффициент эмерджентности позволяет отличить клас-сическую систему от квантовой системы, а квантовую систему ферми-частиц от квантовой системы бозе-частиц. Установлено также, что предложенные ранее в ряде работ, начиная с [97], раз-личные варианты коэффициентов эмерджентности Хартли рас-пространяются только на системы, подчиняющиеся статистике Ферми-Дирака.
14. Прямые и обратные, непосредственные и опосредо-ванные правдоподобные логические рассуждения с расчетной степенью истинности
Одним из первых ученых, поднявших и широко обсуждав-шим в своих работах проблематику правдоподобных рассужде-ний, был известный венгерский, швейцарский и американский математик Дьердь Пойа , книги которого одному из авторов (то-му, который потом стал профессором Е.В.Луценко) подарил еще в школе его учитель математики Михаил Ильич Перевалов (см. также в книге: Д. Пойа «Формализация логики правдоподобных рассуждений», глава третья, параграф 7, с.158-163, исходящий из (репрезентативной) теории измерений).
В работе [97] предложена логическая форма представления правдоподобных логических рассуждений с расчетной степенью истинности, которая определяется в соответствии с системной теорией информацией непосредственно на основе эмпирических данных.
В качестве количественной меры влияния факторов, предло-жено использовать обобщенную формулу А.Харкевича, получен-ную на основе предложенной эмерджентной теории информации. При этом непосредственно из матрицы абсолютных частот рас-считывается база знаний (табл.1), которая и представляет собой основу содержательной информационной модели предметной об-ласти.
Весовые коэффициенты табл.1 непосредственно определяют, какое количество информации Iij система управления получает о наступлении события: "активный объект управления перейдет в j–е состояние", из сообщения: "на активный объект управления действует i–й фактор".
Принципиально важно, что эти весовые коэффициенты не определяются экспертами неформализуемым способом на основе интуиции и профессиональной компетенции (т.е., мягко говоря, «на глазок»), а рассчитываются непосредственно на основе эмпи-рических данных и удовлетворяют всем ранее обоснованным в работе [97] требованиям, т.е. являются сопоставимыми, содержа-тельно интерпретируемыми, отражают понятия "достижение це-ли управления" и "мощность множества будущих состояний объ-екта управления" и т.д.
В [97] обосновано, что предложенная информационная мера обеспечивает сопоставимость индивидуальных количеств ин-формации, содержащейся в факторах о классах, а также сопоста-вимость интегральных критериев, рассчитанных для одного объ-екта и разных классов, для разных объектов и разных классов.
Когда количество информации Iij>0 – i–й фактор способству-ет переходу объекта управления в j–е состояние, когда Iij<0 – препятствует этому переходу, когда же Iij=0 – никак не влияет на это. В векторе i–го фактора (строка матрицы информативностей) отображается, какое количество информации о переходе объекта управления в каждое из будущих состояний содержится в том факте, что данный фактор действует. В векторе j–го состояния класса (столбец матрицы информативностей) отображается, ка-кое количество информации о переходе объекта управления в со-ответствующее состояние содержится в каждом из факторов.
Таким образом, матрица информативностей матрица инфор-мативностей является обобщенной таблицей решений, в которой входы (факторы) и выходы (будущие состояния активного объек-та управления (АОУ) связаны друг с другом не с помощью клас-сических (Аристотелевских) импликаций, принимающих только значения: "Итина" и "Ложь", а различными значениями истин-ности, выраженными в битах и принимающими значения от положительного теоретически-максимально-возможного ("Мак-симальная степень истинности"), до теоретически неограничен-ного отрицательного ("Степень ложности").
Фактически предложенная модель позволяет осуществить синтез обобщенных таблиц решений для различных предметных областей непосредственно на основе эмпирических исходных данных и продуцировать на их основе прямые и обратные прав-доподобные (нечеткие) логические рассуждения по неклассиче-ским схемам с различными расчетными значениями истинности, являющимся обобщением классических импликаций.
Более сложные правдоподобные опосредованные высказыва-ния могут быть рассчитаны непосредственно на основе матрицы информативностей – обобщенной таблицы решений.
Если A, со степенью истинности (A,B), детерминирует B, и если С, со степенью истинности (C,D), детерминирует D, и A совпадает по смыслу с C со степенью истинности (A,C), то это вносит вклад в совпадение B с D, равный степени истинности (B,D).
При этом в прямых рассуждениях как предпосылки рассмат-риваются факторы, а как заключение – будущие состояния АОУ, а в обратных – наоборот: как предпосылки – будущие состояния АОУ, а как заключение – факторы. Степень истинности i-й пред-посылки – это просто количество информации Iij, содержащейся в ней о наступлении j-го будущего состояния АОУ. Если предпо-сылок несколько, то степень истинности наступления j-го состоя-ния АОУ равна суммарному количеству информации, содержа-щемуся в них об этом. Количество информации в i-м факторе о наступлении j-го состояния АОУ, рассчитывается в соответствии с выражениями системной теории информации (СТИ).
Прямые правдоподобные логические рассуждения позволяют прогнозировать степень достоверности наступления события по действующим факторам, а обратные – по заданному состоянию восстановить степень необходимости и степень нежелательности каждого фактора для наступления этого состояния, т.е. прини-мать решение по выбору управляющих воздействий на АОУ, оп-тимальных для перевода его в заданное целевое состояние.
Необходимо отметить, что предложенная модель, основы-вающаяся на теории информации, обеспечивает автоматизиро-ванное формирования системы нечетких правил по содержимому входных данных, как и комбинация нечеткой логики Заде-Коско с нейронными сетями Кохонена. Принципиально важно, что ка-чественное изменение модели путем добавления в нее новых классов не уменьшает достоверности распознавания уже сформи-рованных классов. Кроме того, при сравнении распознаваемого объекта с каждым классом учитываются не только признаки, имеющиеся у объекта, но и отсутствующие у него, поэтому пред-ложенной моделью правильно идентифицируются объекты, при-знаки которых образуют множества, одно из которых является подмножеством другого (как и в Неокогнитроне К.Фукушимы).
15. Интеллектуальная система Эйдос-Х++ как инструмен-тарий, реализующий идеи системного нечеткого интерваль-ного обобщения математики
Система «Эйдос» за многие годы применения хорошо пока-зала себя при проведении научных исследований в различных предметных областях и занятий по ряду научных дисциплин, свя-занных с искусственным интеллектом, представлениями знаний и управлению знаниями [224]. Однако в процессе эксплуатации системы были выявлены и некоторые недостатки, ограничиваю-щие возможности и перспективы применения системы. Поэтому создана качественно новая версия системы (система Эйдос-Х++), в которой преодолены ограничения и недостатки предыдущей версии и реализованы новые важные идеи по ее развитию и при-менению в качестве программного инструментария системно-когнитивного анализа (СК-анализ) [260].
Авторы считают, что система Эйдос-Х++ является программ-ным инструментарием, реализующим ряд идей системного не-четкого интервального обобщения математики.
Таким образом, в монографии кратко рассмотрены перспек-тивы и некоторые «точки роста» современной теоретической и вычислительной математики, в частности: числа и множества - основа современной математики; математические, прагматиче-ские и компьютерные числа; от обычных множеств - к нечетким; теория нечетких множеств и «нечеткое удвоение» математики; о сведении теории нечетких множеств к теории случайных мно-жеств; интервальные числа как частный случай нечетких мно-жеств; развитие интервальной математики (интервальное удвое-ние математики); система как обобщение множества; системное обобщение математики и задачи, возникающие при этом; систем-ное обобщение операций над множествами (на примере операции объединения булеанов); системное обобщение понятия функции и функциональной зависимости; когнитивные функции; матрицы знаний как нечеткое с расчетной степенью истинности отображе-ние системы аргументов на систему значений функции; модифи-кация метода наименьших квадратов при аппроксимации когни-тивных функций; развитие идеи системного обобщения матема-тики в области теории информации - системная (эмерджентная) теория информации; информационные меры уровня системности - коэффициенты эмерджентности; прямые и обратные, непосред-ственные и опосредованные правдоподобные логические рассуж-дения с расчетной степенью истинности; интеллектуальная сис-тема Эйдос-Х++ как инструментарий, реализующий идеи сис-темного нечеткого интервального обобщения математики.
Отметим, что нумерация формул, рисунков и таблиц везде по тексту, где это специально не оговорено, ведется внутри разде-лов. При необходимости ссылки на формулу, рисунок или табли-цу в другом разделе в тексте будет об этом прямо упомянуто, на-пример: «используя выражение (3) из раздела 4.2» и т.д.
Кроме того необходимо отметить, что данная монография представляет собой обобщающую работу, подводящую своеоб-разный итог по двум научным направлениям [92]:
- «Статистика объектов нечисловой природы» (предложено и разработано проф. А.А. Орловым)
- «Автоматизированный системно-когнитивный анализ (АСК-анализ)» (предложено и разработано проф. Е.В.Луценко).
Развитием этих научных направлений авторы занимаются и в настоящее время. Поэтому просим читателей правильно понять большое количество ссылок авторов на собственные работы.
Некоторые мысли, излагаемые в монографии, носят спорный и дискуссионный характер и высказаны в порядке научного обсуждения.
http://www.bmstu.ru/ps/~orlov/fileman/l ... 0%B8%D1%8F