Нейронные сети.. Represents a neuron in the brain X1X1 X2X2 XPXP... O=b i0 + b i1 X 1 + … + b ip X p s(O) S is a function on the interval (0,1) representing.

Презентация:



Advertisements
Похожие презентации
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
Advertisements

Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Использование нейронных сетей для прогнозирования изменений на фондовом рынке Михаил Бондаренко 14 August
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
Институт энергосбережения и энергоменеджмента Кафедра автоматизации управления электротехническими комплексами Научный руководитель: доц. Тышевич Б.Л.
Система управления РТК Основная задача системы управления роботом – автоматизация деятельности человека-оператора. Составные части: Система технического.
Возможность получения высокой статистики в образовании резонансных состояний из четырех лептонах есть !?
Проектирование интеллектуальных информационных технологий методом генетического программирования Липинский Л. Красноярск, СибГАУ.
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Анисимова Эллина 911 МП. Нейронные сети Нечёткая логика Нейро- нечёткие системы.
Липецкий государственный технический университет Кафедра прикладной математики Кузьмин Алексей Сергеевич Распознавание образов сверточными искусственными.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
ФАКУЛЬТЕТ ПРИКЛАДНОЙ МАТЕМАТИКИ и ИНФОРМАТИКИ Тарасюк Александр Евгеньевич СИСТЕМА РАСПОЗНАВАНИЯ ЛИЦ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ.
Использование нейросимулятора при определении внешнего вида ребенка по параметрам родителей.
1 Лектор: Кононов Александр Вениаминович НГУ, ауд. 313 четверг 16:00 Приближенные алгоритмы.
Графический метод решения задач математического программирования 1. Общий вид задачи математического программирования Z = F(X) >min Z = F(X) >min g i (x.
Транксрипт:

Нейронные сети.

Represents a neuron in the brain X1X1 X2X2 XPXP... O=b i0 + b i1 X 1 + … + b ip X p s(O) S is a function on the interval (0,1) representing the strength of the output 0 1 s O Activation Function Модель нейрона

... X1X1 X2X2 XPXP Y P predictors (inputs) 1 Hidden Layer with M Neurons 1 output 12 M Cтруктура сети.

Принципиальная особенность сетей – необходимость их обучения для решения каждой конкретной задачи. Обучение. Задаётся обучающее множество пар векторов { x s, d s }, s=1…m – число обучающих пар. d s –известный ответ. Задача обучения сводится к минимизации отклонения вычисленных сетью значений y s от точных d s на обучающем множестве. Для оценки качества приближения чаще всего используется суммарная квадратичная ошибка E=Σ s E ѕ =(1/2)Σ s Σ ј (d s j – y s j ) 2, где d s j, y s j – компоненты j обучающей пары ѕ. E s – ошибка, вносимая парой ѕ. Схема обучения: 1) присвоить весам и параметрам функции активации малые ненулевые значения; 2) подать на вход одну пару и рассчитать выход; 3) сосчитать ошибку Е s ; 4) скорректировать параметры сети (веса, величины смещений, коэффициенты функций активации) так, чтобы ошибка уменьшилась; 5) повторить шаги 1–4 до тех пор, пока ошибка не станет заданной величины малости. Коррекция производится разными методами, являющимися до сих пор предметом изобретательства.

Диссертация посвящена разработке инструментария и техники для диагностики нейтронов и анализа данных, полученных при изучении термоядерных реакций на Совместном Европейском Торе (JET).

Схема накопления «обучающих» данных для сети n/γ– разделения.

Верхний рисунок – пример n (сплошная линия) и γ (штрихованная линия) форм импульсов. Нижний рисунок – распределение, собранного в данном временном интервале заряда.

Плотность событий, использованных для отбора обучающих пар событий, в координатах t TOF –t IRT γ n

Плотности распределений n и γ событий в координатах Q1–Q2, показывающие возможность выбора линейной и квадратичной границ между ними.

Плотности n и γ событий в координатах Q–t IRT и положения линейной и квадратичной границ между ними.

Р – доля неправильно идентифицированных различными методами нейтронов и γ –квантов. («keV ee» означает выделенную энергию в электронном эквиваленте). NN Q 1 –Q 2 lin/quad Q–IRT lin/quad

Архитектура нейронной сети, использованной для классификации n/γ–событий была «feed-forward» распространения с 71 входными нейронами (~ 200 нс длительности импульса), двумя скрытыми слоями из 20 и 5 нейронами и одним сигмоидальным выходом. Использование NN – сети более эффективно при «малых энергиях» по сравнению с традиционными методами, основанными на сравнении зарядов: Р NN ~5% при 20 кЭв против Р~20 – 25 %, достижимими традиционным образом. В области энергий порядка 200 кЭв разница меньше 1 и 2 %. This method can be implemented into the most modern programmable ADC cards und used for real time application in most cases. This is due to fast application time of NN which is usually in the range of a few µs.

ExperimentE γ,π (GeV)Traditional method NN archicture STAR Transvers profile ~1.3 ALEPH Bulos technique ~1.4 CMS Energy fraction method ~1.1 γ/π 0 разделение, feed-forward NN with backpropagation algorithm e(γ)/hadron separation ExperimentEe(γ),h (GeV) TraditionalmethodNN inputs ZEUS4 – 12ε em, r shower 55~ 1.1 Heavy ion1 - 10Therhold of cluster signal 211.2

γ/π sep

Эффективность выделения электронов различными методами в функции их «чистоты» для ZEUSa и экспериментов со столкновениями тяжелых ионов (LHC). Отношение эффективностей также представлено (правая шкала).

Идентификация адронов в DELPHI основана на информации от RICH спектрометра и dE/dx информации от Time Projection Chamber (TPC). Для сравнения с традиционными методами идентификации, был создан пакет MAGRIB, в котором преимущества RICH и dE/dx информации сочетаются с возможностями NN сети. NN сеть имела четыре слоя, 16 входных нейронов, один узел смещения, 19 нейронов в скрытом слое и один выходной нейрон. На входы сети подавались RICH и TPC переменные, использующиеся и в традиционных методах анализа.

Реконструкция Φ-мезона с помощью сети (NN) и традиционным методом – зелёный цвет (RIBEAN). При том же уровне фона NN-сигнал содержит на 56% больше Φ мезонов, сопровождаясь увеличением «purity» на 16%. При одинаковой «purity» эффективность удваивается. NN RIBMEAN

NN HADSIN При том же уровне фона эффективность выделения Λ практически удвоена. При той же «purity» отношение эффективностей около 4-х.

Распределение параметра f, характеризующего качество реконструкции энергии одного нейтрального адрона в DELPHI калориметре. Левый рис. распределение f, полученное стандартным методом, справа – с помощью NN сети: feed-forward многослойная сеть с архитектурой (33, 53,1) и с линейной передаточной функцией между слоями. Обучение сети производилось с помощью RPROP алгоритма. NN-реконструкция имеет в ~ 1.5 раза лучшее разрешение. =-0.71 σ/E=1.1/E 1/2 = σ/E=.75/E 1/2 f=(E rec -E)/E^0.5

TevatronLHC Luminocity, cm -2 s Time between collisions, ns40025 Average number of events/collisions420 Frequency of collisions, MHz2.540 Rejection factor, Trigger rate, Hz20100 DELPHICMS Electromagnetic calorimeter (barrel), Hadronic calorimeter (barrel), Central tracking, Event size, Mbyte.151. Tevatron/LHC parameters DELPHI/ CMS parameters

Заключение: Бόльшие энергии следующего поколения ускорителей (LHC), скорости счета событий, множественности будут иметь следствием, что следующая генерация HEP экспериментов будет иметь дело с огромным объёмом информации on–line и off–line. Это потребует резкого убыстрения обработки, что сделает параллелизм неизбежным. NN сети являются естественным орудием, отвечающим этим требованиям. Т.о внедрение NN сетей в HEP неизбежно (в триггерную систему, реконструкция треков, исследование столкновений тяжелых ионов, обработку).

Application of Neural Networks Optimized by Genetic Algorithms to Higgs Boson Search František Hakl, Marek Hlaváček, and Roman Kalous (Prague, Czech Republic) An application of a neural network approach to Higgs search in the assosiated production t t̃ H with H->b b̃. This decay channel is considered as a discovery channel for Higgs scenarios for Higgs boson masses in the range 80 – 130 GeV. Our results show that NN approach is applicable to the problem of Higgs boson detection.

Reinhard Schwienhorst MICHGAN STATE UNIVERSITY CPPM D0 Seminnar, June Advanced event analysis methods

Пуанкаре: «Невозможно лучше оценить прогресс, достигнутый господином Гильбертом, чем сравнить количество страниц, потраченных Гордоном на своё доказательство, с теми строчками, в которые уложилось доказательство господина Гильберта». Проблема Пауля Гордана – доказательство существования конечной системы инвариантов (базиса), через которые выражается любой другой из бесконечного числа инвариантных форм заданной степени от данного числа переменных. Выдающимся достижением Гордана явилось доказательство существования конечного базиса для бинарных форм (простейших из всех алгебраических форм), оно было основано на вычислениях (прямое построение базиса). Гильберт послал короткую заметку, в которой дал совершенно неожиданное и оригинальное доказательство теоремы Гордана, годное для форм любого числа переменных. Гильберт не использовал явное построение базиса, он доказал, что конечный базис, по логической необходимости, обязан существовать. «Линдеман нашел методы Гильберта «unheimlich» - неудобными, чудовищными, сверхъестественными. Ф. Клейн оценил силу его работы как «абсолютно простой и потому логически безупречной». После долгого математического молчания раздался громкий голос Гордана: «Das ist nicht Mathematik/ Das ist Theologie».