Здавалка
Главная | Обратная связь

Фреймовая модель представления данных.



В основе- теория Минского, в которой он постарался изложить психологическую модель памяти человека. Он элемент такой модели- структура данных, представленная в виде абстрактного концептуального объекта, ограниченная определенными рамками (фреймом).Информация относимая к фреймам, содержится в его состоящих, называемых слотами. Концептуальные объекты, представляются в виде фреймов, объединяющихся в единую фреймовую систему, имеющую вид сети, в которой представлены как декларативные, так и процедурные знания.

Декларативные знания представляют собой систему описания характеристик объекта ПО.

Процедурные знания описывают способы обработки информации, необходимой для получения значений характеристик, упомянутых в декларативных знаниях.

Рассмотрим концептуальный объект “Аудитория”. Это понятие можно описать характеристиками, которые относятся к абстрактной аудитории . Конкретной аудитории можно дать более подробное описание, ссылаясь на характеристики абстрактной аудитории, так как любая конкретная будет обладать такими характеристиками.

Каждое описание таких элементов можно выполнить с помощью детализации абстрактных понятий, представляющих собой описание стены, например “передняя стена” аудитории Б –318 наследует свойство понятия стены вообще. Имеет характеристики. Детализируя каждый из элементов, можно получить полное представление об объекте.

 
 

Суть теории:

Когда человек попадает в новую ситуацию, он извлекает из своей памяти абстрактную модель, не имеющую конкретных значений. Эта модель (фрейм) является формой представления знаний, запомненных в прошлом. Детали этой модели при необходимости могут быть конкретизированы и изменены согласно текущей ситуации. Фрейм может быть дополнен различной информацией, которая касается способов применения данного фрейма, действий, которые необходимо выполнить для получения новой информации. Информацию о действии, которую необходимо выполнить если предполагаемый прогноз о характеристиках данного фрейма не оправдался. Особенность этой теории- в возможности прогнозирования подстановки конкретных элементов в абстрактной форме, и несколько слотов фрейма изначально определяется значениями по умолчанию. Поэтому, даже если не задана подробная информация касательно ситуации использования модели, фрейм все равно будет нести определенную информацию. Этот метод используется для представления информации общего характера, анализа множества сходных задач, и служит средством для распределения фреймовых систем на описание различных ПО. Значение по умолчанию жестко не связано с соответствующим слотом, и его можно заменить на новую информацию для более точного описания ситуации. Значение ???? по умолчанию может быть использовано для логического вывода, основанного на фактах, описывающих наиболее распространенные общие случаи. Одно из преимуществ фреймовой модели- возможность многовариантного описания одних объектов (явлений).

Например: Объект арка состоит из трех деталей: А, которая опирается на деталь В и С . Фрейм “Арка” может быть представлен семантической сетью, которая описывает отношение между объектом “Арка” и его деталями в виде отношения “has_past”. Этими частями являются перечисленные детали, которые имеют связи, - деталь А опирается на В и С, а между В и С связи нет.

 


Для более конкретного описания деталей могут быть ссылки на соответствующие фреймы. Такое описание может быть дополнено конкретными описаниями, полученными для различных углов зрения. Арка “вид спереди” дает представление с трех углов зрения с детализацией этих элементов путем ссылки на соответствующие элементы “вид сбоку”, “вид сверху”. Если пользователю представлен один из типов описания объекта “Арка”, например второй , на котором его структура задана лишь двумя элементами, то вызвав из памяти через принадлежность к абстрактному объекту описание вида 1, можно дополнить структуру объекта А элементом С и подтвердить необходимость существования этого элемента, используя третий вид. В противном случае, если использование одного из представлений нарушает общую структуру объекта, необходимо вызвать другой фрейм общей структуры и попытаться применить начальное представление к этому файлу. Возможно, существует описание детали, имеющее такую структуру, для которой вид два так же будет подходить. И будет соответствовать описываемому объекту.

Процесс конкретизации представления объектов и явлений может быть описан в виде схемы.

БФ (базовый фрейм) имеет описание абстрактного объекта и задает лишь структуру наиболее общих характеристик этого объекта.

Фрейм “Шаблон” указывает значения наиболее общих характеристик по умолчанию.

Эти значения совпадают с наиболее общими представлениями об объекте. Фрейм “экземпляр” содержит уточненные значения характеристик объектов или явлений. Каждый фрейм содержит слот, с помощью которого указываются перечень элементов, составляющих структуру основного объекта. Эти слоты, могут быть в свою очередь, конкретизированы описанием пути ссылки на соответствующий абстрактный фрейм данного элемента.

Процесс, в ходе которого определяется правило конкретизирующего фрейма, называется сопоставлением фрейма. Сопоставление осуществляется в соответствии , с целью, и ограничениями , наложенными на значения слотов. Цель используется для определения, какое из наложенных усилий приводит к релевантности ???? сопоставления. Таким образом, указывая цель сопоставления, можно управлять механизмом логического вывода во фреймовской модели.

Фреймовская модель соответствует понятию “иерархической структуры”. Особенностью такой структуры является то, что информация об атрибутах, которые содержит фрейм верхнего уровня, можно распространить на все связанные с этим фреймом низлежащие уровни.

 
 

Такой принцип наследования свойств широко используется во фреймовской модели, если в результате сопоставления удается определить возможность описания слотов фрейма вышележащего уровня значениями слотов низлежащего уровня.

Если сопоставление выполнить не удается, возникает необходимость поиска фреймоподобного, но имеющего некоторое существенные отличия. Такой поиск можно осуществить путем указателей различий. Фреймы, имеющие существенные различия, объединяются в межфреймовую сеть.


Когда человек рассматривает некоторый объект и мысленно представляет, что он означает, то данный процесс можно описать в виде распространения конкретных значений между слотами фрейма.

Первоначальные пределы изменения значений могут быть достаточно велики: при восприятии суждения “ребенок взял мяч”, в памяти человека воссоздается образ резинового мячика с полосками, а “вратарь взял мяч ” воссоздается другой способ мяча. Принцип наследования реализуется в отношениях is_a “абстрактное- конкретное”, которое явно указывается во фреймовой модели. В то же время, описание “целое- часть” (part_of) дает возможность подстановки в описании элемента структуры конкретных значений, описанных в слотах фрейма этого элемента. Это отношение показывает, что объект нижнего уровня является частью объекта верхнего уровня.

Рассмотренные структуры моделей представления знаний фрейма основаны на теории, которая достаточна близка ОО представлению структур (объектно- ориентированных). Эти свойства фреймовой теории достаточно удачно используются в ООП и соответствующих языках программирования, где соответствующие свойства и методы являются описанием определенных объектов и служат способом их выделения в среде подобных.

Для описания знаний, представленных фреймовыми моделями созданы специальные инструментальные средства (FMS- система моделирования знаний с помощью фреймов, и языки- Smalltalk,в которой используется принцип ООП и возможности описания знаний в виде фреймов). Рассмотрим структуру описания фреймовой модели с использованием FMS. Фрейм может быть представлен таблицей, в которой указано:

1) Имя, являющееся уникальным идентификатором. Возможно использование системы кодирования, в которой идентификатор низлежащего уровня повторяет имя с расширением, включающим описание нижнего уровня (животные. птицы). Указывают на значение фрейма.

2) Назначение :<текст- коментарии> Перечень слотов, которые характеризуются именами, указателями наследования, типом атрибута данного слота, значением слота, указанием имени присоединяющей процедуры, если используются процедуры представления знаний.

Имя Назначение Тип Значение Процедура
Is_a U FRAM Имя ф. IF_NEED
  S INT Целое IF_ADD
  R REAL Вещественный IF_REMOVE
    TEXT Текст.  

Часть слотов предопределена, другая часть- задается пользователем. Предопределением является слот с помощью которого, устанавливается наследование свойств. В качестве значения слота используется имя фрейма верхнего уровня, свойства которого наследуются данным фреймом. В качестве указателей наследования используются: указатель уникальность(U) показывает, что значение этого фрейма не наследуется от фрейма выше стоящего уровня, а присваивается данному фрейму “Same”- значение слота должно соответствовать значению слота “фрейма родителя”

“R”- показывает пределы, в которых должны находится значения. Тип атрибута может быть в виде указателя на фрейм, который конкретизирует значения соответствующего слота, используя свойства наследования. Значениями могут быть имя фрейма . При описании процедур возможно автоматическое выполнение процедур по умолчанию: отсутствие значения соответствующего слота (IF_NEED); (если при обращении фрейма в поле слота отсутствует запись, запускается процедура, позволяющая отыскать требуемое значение слота, например, процедура поиска табличного фрейма, в котором значение данного слота будет найдено по соответствующему значению другого – заполненного слота).

IF_ADD- изменение значения соответствующего слота.

IF_REMOVE- выполняет определенные действия, если знания слота уничтожаются.

 

Лекция 12

Пример Фреймовой сети”Планирование конференции”.

“Абстрактное - конкретное” . . . . . . .

Базовый фрейм описывает ситуацию и задает обязательный перечень признаков в виде набора слов, таких как

Организатор

Дата проведения конференции

Тема

Для слота “Организатор” указывается значение. Значения других слотов будут конкретизированы в связанных с базовыми фреймах.

 

 

Конференция
Организатор ИГЭУ
Дата  
Тема  

 

Шаблон 1

 

Энергосбережен-е
Is- a Конф.
Организатор  
Тема Учет энергосноб- я.

 

Шаблон 2.

 

Тотальное упр- е качеством
Is- a Конференция
Организатор  
Тема Самост. Работа в учебном процессе

Эти конференции наследуют свойства баз. Фрейма. Системный слот Is-a имеет вид указателя на баз. Фрейм “Конференция”.

Тема является уникальной в каждом шаблоне. Дата задана во фрейме экземпляре. В качестве фрейма экземпляра может выступать конференция по энергосбережению , наследование свойств происходит по ссылке на шаблон 1. Наследуются организатор и тема. Дата – уникальна. Выступающие заданы в виде списка. Место проведения может быть указано путем выполнения присоединенных процедур. Процедуры выполняются по трем условиям:

1.если значение слота отсутствует, выполняется процедура поиск. Она обеспечивает поиск подходящего места для проведения конференции. Аргументами являются: (тема, дата, место). Надо опр- ть возможность резервирования в качестве места проведения конференции одной из предназначенных аудиторий в заданный момент времени. Если поиск не дал подходящего результата, нада известить организаторов об отсутствии мест. Аналогичным образом можно сделать ссылку на процедуру, которая автоматически запускается при принудительном внесении значения в слот “Место”. Если значение соответствующего слота будет уничтожено, необходимо выполнить процедуру освобождения и включение ее в список свободных.

Нейронные сети.

Теория НС была сформулирована в роботах, посвященных исследованию принципа действия человеческого мозга. Основоположники: Калльк, Питтс- 1943, которые предложили простую модель, с помощью которой можно описать взаимодействия отдыхающих парал- но работающих узлов обработки информации.

В последующем, Розенблатт ??? в 1958 – теория с помощью которой легко моделировать любую … (лог.) функцию. Свою модель Розенблатт назвал Перцентрон. Развитие этой теории долгое время сдерживалось из- за недостатков технических средств. В середине 80- х теории нейросети стали уделять внимание , и сейчас ее рассматривают в одном из перспективным направлении для построения интеллект. анализа данных. Под таким анализом понимают технологию обработки информации, которая способна автономна генерировать правила и сигналы обработки в условия функционирования в конкретной системе. Такая технология охватывает адаптивные системы, способные к обучению , и поэтому ее можно рассматривать как перспективную альтернативу программируемым вычислительным системам.

Этот подход не требует описания правил обработки, т. е. система сама должна обучиться вырабатывать такие правила и модифицировать их.

Обратная заача: анализируя обученную систему, можно определить разработанный ею алгоритм и на его основе создать соответствующие программируемые процедуры.

В основу построения модели нейросети положено свойство нейрона – одной из клеток человеческого мозга , которая способна генерировать электр. импульс , когда суммарный потенциал вх. сигналов больше крит. величины. Соединяясь др. с др. , нейроны образуют сеть, по которой передаются электр. импульсы.

Контакты между нейронами - . . . - могут изменять эффективность передачи сигнала от одного нейрона к другому. Это свойство может быть задано в виде весового коэффициента связи. В основу теории нейрона положена гипотеза о том, что изменяя коэффициенты связей, можно изменить алгоритмы обработки информации. Обучение сети заключается в изменении весовых коэффициентов связи. Модель нейронной сети представляет собой систему однотипных элементов, участвующих в параллельной обработке информации. Каждый элемент выполняет локальные операции обработки вх. сигналов и обладает локальной памятью. Элементы связаны др. с др. однонаправленными каналами передачи информации. Каждый обр- щий элемент имеет единственный выход , который распознается по нескольким каналам связи, но по каждому из них передается один и тот же вых. сигнал.

Т. е. физич. модель обрабатывающего элемента нейро сети можно представить в виде адаптивного сумматора, который воспринимает входные сигналы и суммирует их с заданными весовыми коэффициентами. Выходной сигнал сумматора???? представляет собой взвешенную сумму векторов вх. сигналов.

 
 

1, z> α

y= 0, z>= α

 

Полученный суммарный сигнал при помощи . . . сравнивается с предельным сигналом α

Выч. сигнал у получает значение 1, если сумм. Сигнал z> заданного порога α , и 0- если z<= α. Полученный вых. Сигнал распределяется на множество каналов связи , которые продолжают обработку полученного сигнала на следующем уровне.

Простая модель нейросети – преобразование вектора размерности входных сигналов – в вектор размерности вых. сигналов.

Ym= f(xn)

В задаче классификации вектор х представляет собой классифицируемый объект , заданный n значениями признаков, а вектор у является идентификатором классов, и состоит из одной единицы и m-1 нулей. То есть, значение вектора у показывает к какому классу может быть отнесен объект, описанный вектором х. функция f ставит в соответствие каждому объекту один из m выделенных классов. Задачей настройки сети является определение функции f через весовые коэффициенты, связывающие n значений вектора х с т. значениями вектора у .

Каждый элемент связан. Связи имеют соответствующие веса.

Предположим имеется выборка векторов хi , для которой известны значения Yi=f(xi)

Такую выборку называют обучающей . пример обучающей выборке можно представить продукционной моделью.

Е- крылья, перья, то птица.

Е- крылья мотор, то самолет.

 

Рассмотрим многослойный перцептрон .

Перцептрон имеет в составе входной , вых. и множество скрытых слоев. Каждый элемент входного слоя получает соответствующий компонент вектора х с весом =1. Каждый элемент скрытого слоя получает сигналы от всех элементов входного, тем самым элемент скрытого слоя имеет количество входов , = размерности входного вектора , т. е. n.связи от элементов вх. слоя с элементами скрытого слоя характеризуются матрицей весов связей а1. Компоненты ее определяют эффективность каждой связи. Каждый элемент выходного слоя получает сигнал от всех элементов . . . Подавая на вход сети вектор , получаем вектор активности скрытого слоя – Qr . . .

Подбор значений весовых матриц а1,а2,. . . – обучение (в зависимости от числа . . . . слоев).

Подбор . . . . осуществляется так, чтобы суммарная ср.- кв. ошибка обуч. Выборки была минимальной. После этого производится тестирование, позволяющее оценить работу нейросети. Для этого на вход системы подаются те же входные сигналы, которые присутствовали в обуч. выборке , % правильных ответов- показатель эффективности. Затем осуществляют ввод такого набора признаков, который отсутствовал в обуч. выборке. Система должна давать наиболее близкие к обуч. выборке прогнозные результаты.

Если зададим один из трех признаков, это будет свидетельствовать в равной мере и в пользу первого и в пользу второго объекта. Чтобы система могла распознать такой объект, необходимо дополнить систему количеством признаков, либо рассматривать вариант классового объекта.

Для многих практических задач удается достичь высокого качества распознавания. Порядка 95% предсказанных сетью результатов оказываются правильными.

Использование многослойного перцептрона возможно для такого рода обработки, как сжатие информации. Размерность выбора Q среднего слоя, может во много раз быть < в- ра входных сигналов. Исходя из этого, можно построить следующую схему сжатия данных.

Зададим размерность в- ров на входе и на выходе сети. Обучим сеть воспроизводить на выходе в- р вх сигналов. После обучения, можно разделить операции преобразования выбора вх. сигналов в выбор скрытого слоя , а затем передать значения скрытого слоя по каналу связи.

 

Восстановление сигналов на выходе можно осуществить

Декомпресия исходного выбора позволяет полностью восстановить выбор входных сигналов , уменьшить объем перед. Информации.

Еще одним свойством нейросети является возможность удаления . . .

Предположим , выбор исходных данных представляет собой аддитивную модель , которая состоит из двух слагаемых – информационной части и случ. компонента . . .

Описываются соотв. функций с определенной пр- ю распределения вероятности. В результате преобразования, нейроссеть приводит . . . компонент к ср. значению и восстанавливает вых. сигнал в виде информативного выбора + среднее значение . . . . Если функция пл- ти распределения . . .состоящей имеет среднее значение близкое к 0, то вых. сигнал воспроизводит только информационную состоящую.

Y=I+M[G]

X=I+G

Приобретение . . .сигнала к заданной функции вероятности возможно путем определения его тренда . Описанный сигнал позволяет использовать нейросеть для чистки информативных параметров.

 

 


Оглавление

Искусственный интеллект........................................................................................................................................................ 1

Лекция №1..................................................................................................................................................................................................... 1

Литература.................................................................................................................................................................................................. 1

Введение....................................................................................................................................................................................................... 1

Психологические аспекты ИИ............................................................................................................................................................ 2

Лекция №2..................................................................................................................................................................................................... 3

Область применения искусственного интеллекта................................................................................................................... 3

Лекция №3..................................................................................................................................................................................................... 4

Решение логических задач. Использование заранее определённых правил, изменяющих ситуацию.......... 4

Экспертные системы (ЭС).................................................................................................................................................................... 6

Лекция №4..................................................................................................................................................................................................... 6

Основные области применения экспертных систем............................................................................................................... 7

Представление знаний........................................................................................................................................................................... 8

Лекция №5.................................................................................................................................................................................................. 10

Использование вероятностных оценок заключений в продукционных правилах................................................ 14

Лекция №6.................................................................................................................................................................................................. 16

Логическая модель представления знаний.(ПЗ)...................................................................................................................... 17

Система высказываний....................................................................................................................................................................... 18

Лекция №7.................................................................................................................................................................................................. 19

Логика предикатов................................................................................................................................................................................ 19

Лекция №8.................................................................................................................................................................................................. 21

Лекция №9.................................................................................................................................................................................................. 24

Исчисление предикатов...................................................................................................................................................................... 24

Семантическое доказательство..................................................................................................................................................... 28

Лекция №10................................................................................................................................................................................................ 29

Сетевые модели...................................................................................................................................................................................... 29

Лекция №11................................................................................................................................................................................................ 33

Процедурные семантические сети................................................................................................................................................ 33

Фреймовая модель представления данных.............................................................................................................................. 33

Лекция 12.................................................................................................................................................................................................... 37

Пример Фреймовой сети”Планирование конференции”...................................................................................................... 37

 







©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.