LOGO 1 Прогнозування за допомогою нейронних мереж ст. гр. СНм-51 Малюта Ю.

Презентация:



Advertisements
Похожие презентации
База даних (БД) це структурована сукупність взаємопов'язаних даних певної предметної області (реальних об'єктів, процесів, явищ тощо). це структурована.
Advertisements

СЗШ І-ІІІ ступенів с.Старичі Діаграми в Excel Графічний аналіз даних.
ПРОГНОЗУВАННЯ ЧИСЕЛЬНОСТІ ОКРЕМИХ БІОЛОГІЧНИХ ПОПУЛЯЦІЙ.
Кожен оточуючий нас обєкт має свої властивості. Обєкт – цілісна частина навколишнього світу. Наприклад, стіл має такі властивості, як розміри, форму,
Машина Больцмана - вид стохастичної рекурентної нейронної мережі. Машина Больцмана може розглядатись як стохастичний генеративний варіант мережі Хопфілда.
Мета уроку : повторити вивчений матеріал по темі «Функція»; вивчити поняття області визначення та області значень функції;навчитися шукати область визначення.
РОЗДІЛ 2 ОБ'ЄКТИ ТА ІНФОРМАЦІЙНІ СИСТЕМИ Інформатика 9 клас.
Моделі та їх типи. Моделювання.. Експрес-повторення 1. З якими темами ми ознайомилися в 10 класі? 2. Які існують традиційні форми подання інформації?
Бази даних Поняття про моделі даних. Види моделей даних Бази даних.
Тема уроку : ФУНКЦІЯ Автор: Вчитель математики Карлівської ЗОШ І-ІІІ ступенів 3 Ігнатова Ю.І.
Перевірка знань за темою Алгоритми Що таке алгоритми ? Наведіть приклади. Що ви знаєте про історію виникнення алгоритмів ? Що таке система команд виконавця.
Урок 10 5 клас. Комп'ютернні мережі. Локальна мережа. Використаннямережевих папок
L/O/G/O Основним інструментом для обробки даних в Microsoft Excel є формули. Використовуючи формули можна порівнювати дані в комірках, додавати і множити.
Урок екології ПРЕДМЕТ, ОБ'ЄКТ, ЗАВДАННЯ і МЕТОДИ НАУКИ ПРО ДОВКІЛЛЯ. СТРУКТУРА СУЧАСНОЇ ЕКОЛОГІЇ ТА ЇЇ МІСЦЕ В СИСТЕМІ НАУК.
Запити Ассess ПЛАН Перехресний запит Доповнення таблиці Вилучення записів Створення нової таблиці.
Тригонометричні рівняння.. I. Точки на одиничному колі є д ійсними числа ми. Кожному дійсному числу a відповідає одна точка одиничного кола., якщо а –
Тема: Функція. 1. Поняття функції. 2. Способи задання функцій. 3. Класифікація елементарних функцій. 4. Монотонні функції. 5. Парні та непарні функції.
Дипломний проект Виконав: студент гр. П Ярошенко Я.І. Керівник дипломного проекту Сібрін Ю.І. Розробка програми Продаж друкованої продукції.
Запити в Access Запити в базі даних Запити використовуються для перегляду, зміни й аналізу даних різними способами. Основні операції з використанням.
Тема : О сновні е лементи комбінаторики Підготували: Щур Х., Фощанко А., Король Л., Мацупа Н.
Транксрипт:

LOGO 1 Прогнозування за допомогою нейронних мереж ст. гр. СНм-51 Малюта Ю.

LOGO 2 Означення нейронної мережі Штучні нейронні мережі (ШНМ) – це математичні моделі, а також їх програмні або апаратні реалізації, побудовані за принципом організації й функціонування біологічних нейронних мереж – мереж нервових кліток живого організму. Нейронні мережі не програмуються у звичному змісті цього слова, вони навчаються. Можливість навчання – одне з головних переваг нейронних мереж перед традиційними алгоритмами.

LOGO 3 Біологічний нейрон Нейрон (нервова клітка) складається з тіла клітини –соми (soma, cell body), і двох типів зовнішніх деревоподібних відгалужень: аксона (axon) і дендритів (dendrites). Тіло клітини вміщує ядро (nucleus), що містить інформацію про властивості нейрона, і плазму, яка продукує необхідні для нейрона матеріали. Нейрон отримує сигнали (імпульси) від інших нейронів через дендрити (приймачі) і передає сигнали, згенеровані тілом клітки, вздовж аксона (передавач), що наприкінці розгалужується на волокна (strands). На закінченнях волокон знаходяться синапси (synapses). Схема біологічного нейрона

LOGO 4 Структура штучного нейрона sy W1W1 … WiWi … WnWn f b x1x1 xnxn xixi Структура штучного нейрона Нейрон є складовою частиною нейронної мережі. Він складається з елементів трьох типів: помножувачів (синапсів), суматора і нелінійного перетворювача. Синапси здійснюють звязок між нейронами, множать вхідний сигнал на число, що характеризує силу звязку, (вагу синапса). Суматор виконує додавання сигналів, що надходять по синаптичним звязках від інших нейронів і зовнішніх вхідних сигналів. Нелінійний перетворювач реалізує нелінійну функцію одного аргументу – виходу суматора. Ця функція називається функцією активації чи передатною функцією нейрона. Математична модель штучного нейрона:

LOGO 5 Архітектура нейронної мережі Діаграма простої нейронної мережі Існуючі на даний час, нейромережі є групуванням штучних нейронів. Це групування обумовлено створенням з'єднаних між собою прошарків. Більшість нейронних мереж містять як мінімум три нормальних типи прошарків – вхідний, прихований та вихідний. Прошарок вхідних нейронів отримує дані або з вхідних файлів, або безпосередньо з електронних давачів. Вихідний прошарок пересилає інформацію безпосередньо до зовнішнього середовища, до вторинного комп'ютерного процесу, або до інших пристроїв. Між цими двома прошарками може бути багато прихованих прошарків, які містять багато нейронів у різноманітних зв'язаних структурах. Входи та виходи кожного з прихованих нейронів просто йдуть до інших нейронів.

LOGO 6 Навчання штучної нейронної мережі Існують три загальні парадигми навчання: "з вчителем - нейромережа має у своєму розпорядженні правильні відповіді (виходи мережі) на кожен вхідний приклад. Ваги налаштовуються так, щоб мережа виробляла відповіді як можна більш близькі до відомих правильних відповідей. "без вчителя" (самонавчання) - не вимагає знання правильних відповідей на кожен приклад навчальної вибірки. У цьому випадку розкривається внутрішня структура даних та кореляція між зразками в навчальній множині, що дозволяє розподілити зразки по категоріях. змішана - частина ваг визначається за допомогою навчання зі вчителем, у той час як інша визначається за допомогою самонавчання.

LOGO 7 Навчання штучної нейронної мережі Правила навчання нейромережі: Правило Хеба. Правило Хеба. Wij(k)=r xj (k) yi (k), r - коефіцієнт швидкості навчання. Правило Хопфілда Правило Хопфілда. Якщо одночасно вихідний та вхідний сигнал нейрона є активними або неактивними, збільшуємо вагу з'єднання оцінкою навчання, інакше зменшуємо вагу оцінкою навчання. Правило "дельта". Правило "дельта". Wij= xj (di - yi). Правило градієнтного спуску. Правило градієнтного спуску. До кінцевого коефіцієнта зміни, що діє на вагу, додається пропорційна константа, яка пов'язана з оцінкою навчання. Навчання методом змагання. Wij (k+1)= Wij(k)+r [xj - Wij(k)]. Навчання методом змагання. Wij (k+1)= Wij(k)+r [xj - Wij(k)].

LOGO 8 Задачі прогнозування За характером основних ознак об'єкту: прогнозування явищ, реалізації яких представлені у вигляді детермінованих часових послідовностей. прогнозування явищ, реалізації яких представлені у вигляді ймовірнісних (індетермінованих) часових послідовностей. а) стаціонарної випадкової послідовності, яка характеризується однорідністю в часі, без суттєвих змін характеру коливань та їх середньої амплітуди; б) нестаціонарної випадкової послідовності, яка характеризується певною тенденцією розвитку в часі; За числом ознак об'єкту досліджень: одновимірна задача - явище представлене лише однією ознакою, зміни якої відбуваються в часі; багатовимірна задача - об'єкт або явище представлені кількома ознаками; За часом випередження розрізняють види прогнозів: згладжування, R= 0; короткотерміновий прогноз, R= 1… 2; середньотерміновий прогноз, R= 3 … 7; довготерміновий прогноз, R= 10 … 15. R - кількість кроків обчислення прогнозування.

LOGO 9 Прогнозування за допомогою нейронних мереж 1. Однопараметрична задача прогнозування. Нехай послідовність x(t) задано відліками процесу x(t1), x(t2),..., x(tі) в дискретні моменти часу t. Задамо ширину (кількість дискретних відліків) вхідного часового вікна m, ширину вихідного вікна р. Вхідне та вихідне вікна накладаються на дані ряду, починаючи з першого елемента. Вхідне вікно формує дані для входів нейронної мережі, а вихідне, відповідно, для виходів. Подібна пара вхідного та вихідного векторів приймається за одну реалізацію часового ряду. При зсуві часових вікон за часовим рядом з кроком s, отримуємо другу і наступні реалізації.

LOGO 10 Прогнозування за допомогою нейронних мереж Нехай вхідне вікно має ширину m, вихідне вікно р=1, крок зміщення s=1. Тоді сформована множина значень для однопараметричної задачі матиме вигляд:

LOGO 11 Прогнозування за допомогою нейронних мереж 2. Багатопараметрична задача прогнозування. Нехай потрібно спрогнозувати взаємозалежні величини x(t), y(t),..., z(t). Задамо ширину вхідного часового вікна m, ширину вихідного вікна р, та крок зміщення s. Функціонування нейромережі здійснюється у відповідності з показаним методом часових вікон, зберігаючи значення ширини вікон та кроку зсуву.

LOGO 12 Прогнозування за допомогою нейронних мереж Нехай потрібно спрогнозувати взаємозалежні величини x(t), y(t),..., z(t). Якщо прийняти ширину вхідного вікна m, вихідного р=1, кроку зміщення s=1, можна сформувати множину даних наступним чином:

LOGO 13 Прогнозування за допомогою нейронних мереж Однокрокове прогнозування - задача однокрокового прогнозування зводиться до задачі, коли один вхідний вектор відображається у вихідний. Багатокрокове прогнозування - застосовують лише для явищ, ознаки яких представлені у вигляді випадкових послідовностей з дискретним часом. Багатокрокове прогнозування з перенавчанням нейромережі на кожному кроці прогнозу - може бути застосований при довготермінових прогнозах із збереженням задовільної точності прогнозування.

LOGO 14 Нейромережеві моделі бізнес-прогнозування При використанні нейронних мереж легко досліджувати залежність прогнозованої величини від незалежних змінних. Наприклад, є припущення, що продажі на наступному тижні якимось чином залежать від наступних параметрів: продажів в останній тиждень; продажів у передостанній тиждень; часу прокручування рекламних роликів; кількості робочих днів; температури. Крім того, продажі носять сезонний характер, мають тренд і залежать від активності конкурентів. Якщо потрібно побудувати систему, яка б усе це враховувала і будувала б короткострокові прогнози, то застосування більшості частини класичних методів прогнозування тут буде неможливою. Використовуючи ж навіть найпростішу нейромережеву архітектуру (перцептрон з одним схованим шаром) і базу даних (із продажами й усіма параметрами) легко одержати працюючу систему прогнозування. Причому враховувати, чи не враховувати зовнішні параметри системою буде визначатися включенням, або виключенням відповідного входу в нейронну мережу.

LOGO 15 Використання багатошарових перцептронів Застосування штучних нейронних мереж у завданнях бізнес- прогнозування – використання звичайного перцептрона з одним, двома, або трьома прихованими шарами. При цьому на входи нейронної мережі звичайно подається набір параметрів, на основі якого можна успішно прогнозувати. Виходом є прогноз мережі на майбутній момент часу. Графік, відображає історію продажів деякого продукту по тижнях. У даних помітно виражена сезонність. Для прогнозування на майбутній тиждень треба подавати дані про продажі за останні тижні, а також дані про продажі протягом декількох тижнів підряд рік тому, щоб мережа бачила динаміку продажів один сезон назад, коли ця динаміка була схожа на теперішню за рахунок сезонності. Якщо вхідних параметрів багато, рекомендується не скидати їх відразу в нейронну мережу, а провести перед обробку даних.

LOGO 16 Література Уоссермен Ф. Нейрокомпьютерна техніка. - М.: Світ, Круглов В. В., Борисов В. В. Искусственные нейронные сети. Теорія и практика. – М.: Телеком, – 382 с. 5. Мак-Каллок У. С., Питтс В. Логическое исчисление идей, относящихся к нервной активности - М.: Изд-во иностр. лит., Нейронные сети. Саймон Хайкин. – М.: Вильямс, – 1103 с.

LOGO 17