ИГОРЬ КУРАЛЁНОК К.Ф.-М.Н., ЯНДЕКС/СПБГУ Машинное обучение: начало.

Презентация:



Advertisements
Похожие презентации
ИГОРЬ КУРАЛЁНОК К.Ф.-М.Н., ЯНДЕКС/СПБГУ Машинное обучение: качество.
Advertisements

Прогнозирование финансовых рынков с использованием нейронных сетей Выполнила: Кокшарова А.А. ПНИПУ, ФПММ гр. ММЭм-12 Руководитель: к. ф.-м.н. Шумкова Д.Б.
Компьютерная лингвистика как наука. 1. Определения компьютерной лингвистики 2. Компьютерная лингвистика и искусственный интеллект 3. Разделы компьютерной.
Нейро-автоматное управление в машинном обучении Выполнил: Губин Ю.А. ст. гр Руководитель: Шалыто А.А. д.т.н, проф., зав. каф. ТП, СПбГУ ИТМО.
Введение в когнитивный анализ данных Лекция 2.1 д.т.н. Загоруйко Николай Григорьевич.
Aritmeetika ja arvuteooria P2NC Игорь Костюкевич.
Научно-практический семинар Искусственный интеллект (от методологии до инноваций) Научно-образовательный инновационный центр интеллектуальных систем компьютерного.
Интеллектуальные информационные системы. Организационные вопросы по теоретической части Для получения зачета по теоретической части необходимо: 1. Конспект.
Алгоритмизация и требования к алгоритму Алгоритм и алгоритмизация Алгоритм и алгоритмизация.
Генерация вероятностных автоматов методами Reinforcement Learning Выполнил: Иринёв А. В. Руководитель: Шалыто А. А.
Тема: «Архитектура и основные составные части интеллектуальных Систем»
Применение генетического программирования для генерации автомата в задаче об «Умном муравье» Царев Ф.Н., Шалыто А.А. IV Международная научно-практическая.
ИГОРЬ КУРАЛЁНОК К.Ф.-М.Н., ЯНДЕКС/СПБГУ Машинное обучение: целевые функции.
Анисимова Эллина 911 МП. Нейронные сети Нечёткая логика Нейро- нечёткие системы.
Программа школьного курса. Элементы логики, статистики, комбинаторики и теории вероятностей 45 часов.
Моделирование и исследование мехатронных систем Курс лекций.
Коррекционные классы VIII вида Учитель Капранова Лидия Васильевна уч.год.
«Этот незнакомый модуль» (элективный курс по алгебре)
Афанасьева С.В.. Data Mining (Интеллектуальный анализ данных) - это технология выявления скрытых взаимосвязей внутри больших баз данных. Является службой.
Перейти на первую страницу Концепция создания многомерного электронного учебника Волжский политехнический институт (филиал) ВолгГТУ.
Транксрипт:

ИГОРЬ КУРАЛЁНОК К.Ф.-М.Н., ЯНДЕКС/СПБГУ Машинное обучение: начало

Знакомство: Куралёнок Игорь 30-каКомпиляторы ПМ-ПУ СПбГУОценка текстового поиска Sun MicrosystemsПолнотекстовый поиск JetBrainsМашинное обучение ЯндексОбработка сигналов Руководитель группы модернизации поиска. Яндекс. +7(921)

Что почитать? Википедия (лучше en) T. Hastie, R. Tibshirani, J. Friedman The elements of Statistical Learning T. Mitchell Machine Learning Труды конференций: ICML, KDD, NIPS, CIKM,… Журналы: JMLR, JML, JIS, NC Видео курс:

Какие у нас цели? Уметь сформулировать задачу в терминах ML Найти подходящий класс решающих алгоритмов по формулировке Ориентироваться в области и знать «где посмотреть» существующие решения Понимать границы применимости

Что нужно, чтобы понять? ТВ и МС Линейная алгебра Язык программирования

Как отчитываться? К концу обучения сделать 15 минутную презентацию по применению ML в вашей любимой задаче. Задачки на Octave Ошибки к лекциях и в слайдам :)

Машинное обучение: определения Tom M. Mitchell: A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E. Webster: machine learning - The ability of a machine to improve its performance based on previous results. Ru.Wikipedia: Машинное обучение обширный подраздел искусственного интеллекта, изучающий методы построения алгоритмов, способных обучаться.

Немного истории базы знаний, полнотекстовый поиск, распознавание образов, нейронные сети 70-е символьный вывод, Quinlan ID3 деревья, разумные практические результаты, VC-оценки 80-е первые конференции, много практического применения, активное применение кластеризации в анализе 90-е повторное семплирование в ML, SVM, применение в IR, ML != DM, LASSO, bagging, boosting, CF валидация 00-е Compressed sensing, развитие ансамблей,…

Основные понятия Область работы Опыт = Data Set = DS Целевая функция = Target Решающая функция

Какое бывает обучение Делить можно по: способу генерации DS; виду целевой функции; классу решающих функций;

Деление по способу формирования DS/U Transductive Обычное Активное Стохастическая оптимизация Бюджетное Бандиты Необычное Online learning Reinforcement learning

Transductive learning 1. Фиксируем множество примеров 2. Фиксируем рабочее множество 3. Обучаемся на всех/доступных примерах

Обычное обучение 1. Фиксируем множество примеров 2. Определяем генеральную совокупность 3. Обучаемся на доступных примерах

Активное обучение 1. Фиксируем множество примеров 2. Определяем генеральную совокупность 3. Обучаемся на доступных примерах 4. Пополняем множество примеров по просьбе алгоритма и переходим к п. 3

Активное обучение 1. Стохастическая оптимизация: 2. Бюджетное 3. Бандиты

Деление по целевой функции С учителем Классификация Аппроксимация (экстраполяция) Metric learning Последовательности Без учителя Кластеризация Уменьшение размерности Representation Learning Смешанные Кластеризация с условиями Все те же, что и с учителем Transfer learning

Обучение с учителем Классификация Аппроксимация (экстраполяция) Metric learning = Классификация Последовательности

Другое обучение Без учителя Кластеризация Уменьшение размерности Representation Learning Смешанные Кластеризация с условиями Все те же, что и с учителем Transfer learning

Деление по решающей функции Линейные решения Графы Нейронные сети (ANN) Параметрические семейства функций Instance based learning Предикаты Ансамбли

Деление по решающей функции (1) Линейные решения Линейная регрессия, логистическая регрессия Скрытый дискриминантный анализ (LDA/QDA*) LASSO SVM LSI*

Деление по решающей функции (2) Графы Деревья решений Байесовы сети Conditional Random Fields Нейронные сети (ANN) Персептронные сети Сети Хопфилда Машины Больцмана Сети Кохоннена

Деление по решающей функции (3) Параметрические семейства функций Сэмплирование Генетические алгоритмы PLSI/LDA/прочие модели с распределениями (им нет числа) Instance based learning kNN

Деление по решающей функции (4) Предикаты Логические выражения Регулярки/NFA/DFA Ансамбли Просто ансамбли Bagging Boosting BagBoo/BooBag

ОТСЕБЯТЕНА Машинное Обучение: Начало

Дедуктивные/индуктивные методы ИндуктивныеДедуктивные Полагаются на статистикуПолагаются на prior knowledge Используют классы элементарных функций Решающая функция следует из предполагаемой структуры Работают в любой областиПривязаны к данным Знание области отражается на составление target Понимание области меняет решающую функцию Логистическая регрессияLDA Для вхождения в область, при больших размерностях Небольшие размерности, «давно тут сидим»

Data Mining vs. Machine Learning Data MiningMachine Learning Выявление «скрытых данных»Оптимизация целевой функции Больше про данныеБольше про методы «Мы применили такой метод и получили клевые результаты на таких стандартных данных» «Предложили новый метод, который работает круче чем другие на нескольких датасетах (возможно даже синтетика)» SIGIR, WSDM, WWWC, …ICML, CIKM, …

Artificial Intelligence vs. Machine Learning Artificial IntelligenceMachine Learning Устройство умных машинОптимизация целевой функции Больше про мат. моделированиеБольше про методы «Мы придумали как формализовать задачу игры в шахматы, применили такие методы и обыграли человека» «Предложили новый метод, который работает круче чем другие на нескольких датасетах (возможно даже синтетика)» AAAI, IJCAI, …ICML, CIKM, …

Применение ML Практически везде (дайте задачку, я попробую придумать применение) Есть два больших класса работ АкадемическиеПрактические ЦелиСуществуют ситуации, когда работает хорошо Обеспечивает измеряемое качество на множестве примеров ИскатьКрасивые идеи, хорошую математику Работающие вещи, много грязных приемов СмотретьКонференцииСоревнования