Лекція 12 на тему Оптимізація рівнів селекції координат двійкових еталонних векторів, Основи проектування інтелектуальних систем
« НазадЛекція 12 на тему Оптимізація рівнів селекції координат двійкових еталонних векторівУ загальному випадку адаптація за ІЕІ-технологією вхідного математичного опису з метою побудови безпомилкових за навчальною матрицею вирішальних правил полягає в реалізації багатоциклічної ітераційної процедури оптимізації за інформаційним КФЕ просторово-часових параметрів функціонування, які впливають на функціональну ефективність ІС, що навчається. Серед таких параметрів важливу роль відіграє рівень селекції (квантування за рівнем) координат двійкових еталонних векторів-реалізацій образів, які визначають геометричні центри контейнерів класів розпізнавання. Визначення 12.1. Рівнем селекції координат еталонного двійкового вектора класу розпізнавання називається рівень квантування дискрет полігона емпіричних частот потрапляння значень ознак розпізнавання у свої поля контрольних допусків. Полігон будується для кожного класу так: по осі абсцис відкладаються ранги ознак розпізнавання, які відповідають номерам ознак у векторі-кортежі , а по осі ординат – відносні частоти wm,i =ni /n, де ni – кількість випробувань, при яких значення і-ї ознаки знаходиться в своєму полі контрольних допусків. За замовчуванням на практиці приймається рівень селекції rm= 0,5. Параметр пов’язаний з інформативністю ознак розпізнавання. Якщо у процесі навчання знайдено оптимальне значення <0,5, то це свідчить про виявлення принаймні однієї інформативної ознаки, латентність якої полягала саме в її малій частоті появи. Якщо значення дорівнює >0,5, то це свідчить про негативний вплив на прийняття рішень принаймні однієї “заважаючої” ознаки. Оптимізація рівнів селекції у рамках ІЕІ-технології дозволяє розв’язувати такі важливі для підвищення потенційної достовірності класифікатора задачі:
Оптимізацію рівнів селекції координат еталонних векторів доцільно здійснювати за паралельно-послідовним алгоритмом, що дозволяє за алгоритмом паралельної оптимізації визначити стартову квазіоптимальну систему рівнів селекції, а за послідовним – оптимальні рівні селекції для всіх координат еталонних векторів-реалізацій образу. При цьому за умови обґрунтування у загальному випадку нечіткої гіпотези компактності реалізацій образу оптимізацію рівнів селекції будемо здійснювати на базі інформаційно-екстремального алгоритму навчання. Спочатку розглянемо алгоритм оптимізації рівнів селекції координат двійкової реалізації найбільш бажаного для особи, що приймає рішення, першого класу , оскільки для інших класів система контрольних допусків на ознаки розпізнавання залишається незмінною. Нехай дано алфавіт класів розпізнавання , навчальна матриця типу “об’єкт-властивість” , де N, n – кількість ознак розпізнавання та реалізацій образу відповідно. Задано структурований вектор параметрів функціонування системи, що навчається розпізнавати реалізації класу : який складається з еталонної реалізації класу , геометричного параметра – кодової відстані гіперповерхні контейнера класу від вершини еталонної реалізації . Задано допустимі області значень відповідних параметрів: , де – бінарний простір ознак потужності N; , де – еталонна реалізація сусіднього (найближчого до ) класу , параметра контрольного поля допусків , де – нормоване поле допусків на ознаки розпізнавання і рівень селекції координат двійкової еталонної реалізації , . Необхідно на етапі навчання за апріорно класифікованими реалізаціями нечітких образів побудувати оптимальне в інформаційному розумінні чітке розбиття дискретного простору ознак на М класів розпізнавання шляхом ітераційної оптимізації координат вектора параметрів функціонування (12.1) за умови, що значення усередненого за алфавітом інформаційного КФЕ навчання ІС набуває глобального максимуму в робочій (допустимій) області визначення його функції. Категорійна модель у вигляді діаграми відображень множин, що застосовуються при оптимізації рівнів селекції координат двійкових еталонних векторів у процесі навчання ІС, показана на рис.12.1. Рисунок 12.1 – Категорійна модель навчання ІС з оптимізацією рівнів селекції координат двійкових еталонних векторів Оператори контура діаграми (рис. 12.1), що оптимізують рівні селекції координат двійкових еталонних векторів-реалізацій класів розпізнавання показано на рис. 12.2. Рисунок 12.2 – Контур оптимізації рівнів селекції координат двійкових еталонних векторів Оптимальний рівень селекції координат еталонного вектора базового класу розпізнавання визначається у результаті реалізації багатоциклічної ітераційної процедури де – усереднене значення КФЕ, обчислене на -му кроці навчання; – область допустимих значень параметра ; – область допустимих значень параметра поля допусків ; – область допустимих значень параметра –радіусів гіперсферичних контейнерів класів розпізнавання. Оптимальні рівні селекції координат еталонних векторів інших класів визначаються за процедурою максимізації інформаційного КФЕ навчання ІС розпізнавати реалізації класу : Таким чином, процедура (12.3) на відміну від процедури (12.2) не реалізує алгоритм оптимізації контрольних допусків на ознаки розпізнавання, оскільки вони визначаються тільки для пріоритетного для особи, що приймає рішення базовогшо класу . При цьому внутрішні цикли алгоритмів (12.2) і (12.3) реалізуються послідовно операторами, які утворюють базовий контур (рис. 10.1). Для алгоритму (11.2) наступний цикл реалізується послідовністю операторів контуру оптимізації системи контрольних допусків на ознаки розпізнавання (рис.11.2). Зовнішній контур (рис. 12.2) оптимізує безпосередньо ріівні селекції координат двійкових реалізацій класів розпізнавання. Розглянемо схему алгоритму послідовної оптимізації рівнів селекції: 1. Обнуляється лічильник ознак розпізнавання: і:=0. 2. і:=і+1. 3. Встановлюємо значення для верхнього ρv та нижнього ρn рівнів селекції відповідно. 4. Встановлюємо крок зміни рівня селекції ρс. 5. Обнуляється лічильник кроків оптимізації рівня селекції: z:=0. 7. Встановлюємо значення поточного рівня селекції: ρz:= ρn + ρc. 8. Визначається, наприклад, за ентропійною мірою Шеннона (9.10) або критерієм Кульбака (9.12) глобальний максимум КФЕ . Якщо маємо декілька однакових значень , то вибираємо значення з найменшим усередненим коефіцієнтом нечіткої компактності реалізацій образу: де – найближчий еталонний вектор до класу . Параметри функціонування, які відповідають глобальному максимуму критерію при мінімальному , вважаються оптимальними. 9. Якщо ρz < ρv, то виконується крок 6, інакше – крок 10. 10. Якщо , де N – кількості ознак розпізнавання, то виконується крок 2, інакше – «Зупин». ₤Як приклад застосування вищенаведеного алгоритму розглянемо оптимізацію рівнів селекції двійкових реалізацій у задачі компараторного розпізнавання образів, яка полягає у визначенні належності образу, що розпізнається, до деякого базового (еталонного) класу . У цьому випадку для побудови в процесі навчання системи оптимального контейнера базового класу необхідно використовувати реалізації як класу , так і іншого класу Як такі класи розглянемо два зображення, одержані у процесі автофокусування растрового електронного мікроскопа за зображенням зразка, що досліджувався. На рис. 12.3а наведено початкове розфокусоване зображення об’єкта "Ґратка", яке прийнято за базове, а на рис. 12.3б – зображення того самого об’єкта на наступному кроці самонастроювання мікроскопа після збільшення значення струму фокусуючої лінзи на 10 mA. Рисунок 12.3 – Зображення об’єкта "Ґратка": а) початкове розфокусоване зображення (клас ) ; б) зображення, одержане на наступному кроці настроювання мікроскопа (клас) Для формування навчальної матриці було вибрано рецепторне поле розміром 310х100 пікселів, тобто , а . За реалізацію зображення використовувалася крива розподілу яскравості при скануванні j-го рядка рецепторного поля. Оптимізація рівнів селекції координат еталонного вектора здійснювалася одночасно для всіх ознак розпізнавання за структурованим ітераційним алгоритмом (12.2). Як КФЕ навчання системи використовувався ентропійний критерій (9.10). У табл. 12.1 наведено одержані при оптимізації контейнера класу значення нормованого ентропійного критерію , першої достовірності , помилки другого роду b, параметрів навчання r1, і міжцентрової кодової відстані . Аналіз табл. 12.1 показує, що оптимальний рівень селекції координат еталонного вектора класу дорівнює при максимальному значенні нормованого ентропійного критерію . Зрозуміло, що для класу цей рівень селекції так само є оптимальним. Таблиця 12.1– Результати оптимізації контейнера класу
Як видно з табл. 12.1 КФЕ має два максимальні значення (при і ). При цьому за оптимальний рівень селекції згідно з максимально-дистанційним принципом прийнято , оскільки при цьому рівні міжкласова відсань є більшою при однаковому радіусі контейнеру класу , який дорівнює , а відповідно відносний коефіцієнт нечіткої компактності (12.4) є меншим. Крім того, варто зазначити, що у даному прикладі значення рівня селекції , яке на практиці використовується за замовчуванням в процесі бінеаризації даних, не є оптимальним в інформаційному розумінні. Таким чином, алгоритм оптимізації рівнів селекції координат двійкових еталонних векторів-реалізацій образу, як і інших параметрів навчання інтелектуальної ІС, у рамках ІЕІ-технології полягає у наближенні глобального максимуму інформаційного критерію оптимізації, обчисленого в робочій області визначення його функції, до найбільшого граничного значення.
Контрольні запитання 1. Що називається рівнем селекції координат еталонного двійкового вектора класу розпізнавання? 2. Як будується полігон емпіричних частот? 3. Яка область значень рівня селекції координат еталонного двійкового вектора класу розпізнавання? 4. Яке значення рівня селекції координат еталонного двійкового вектора класу розпізнавання приймається за замовченням? 5. Який висновок щодо інформативності ознак розпізнавання можна зробити у випадку, якщо оптимальне значення рівня селекції координат еталонного двійкового вектора класу розпізнавання дорівнює <0,5? 6. Який висновок щодо інформативності ознак розпізнавання можна зробити у випадку, якщо оптимальне значення рівня селекції координат еталонного двійкового вектора класу розпізнавання дорівнює ? 7. Чому оптимізація рівнів селекції координат еталонних двійкових векторів класів розпізнавання підвищує достовірність розпізнавання образів? 8 Чому оптимізацію рівнів селекції координат еталонних двійкових векторів класів розпізнавання доцільно здійснювати за паралельно-послідовним алгоритмом? 9. Яку структуру має вектор параметрів навчання системи при оптимізації рівнів селекції координат еталонного двійкового вектора базового класу розпізнавання? 10. Яку структуру має вектор параметрів навчання системи при оптимізації рівнів селекції координат еталонних двійкових векторів небазових класів розпізнавання? 11. Які оператори містить контур оптимізації рівнів селекції координат двійкових еталонних векторів-реалізаційкласів розпізнавання? 12. Як обчислюється усереднений коефіцієнт нечіткої компактності реалізацій образу? 13. Як вибрати оптимальне значення рівня селекції координат еталонного двійкового вектора класу розпізнавання, якщо декілька рівнів селекції мають однакові максимальні значення інформаційного КФЕ навчання системи? З повагою ІЦ "KURSOVIKS"! |