Курсы представлены компанией Mail.ru Group
Канал на yotube.com: Технопарк Mail.ru Group
 
Авторы: Николай Анохин, Владимир Гулин, Павел Нестеров | Технопарк Mail.ru Group
Форма обучения:
дистанционная
Стоимость самостоятельного обучения:
бесплатно
Стоимость обучения с персональным тьютором:
500 руб. [?]
Доступ:
свободный
Документ об окончании:
 
Уровень:
Для всех
Длительность:
24:17:00
Студентов:
793
В курсе изучаются подходы к решению задач Data Mining, основанных на алгоритмах машинного обучения.
Объемы данных, ежедневно генерируемые сервисами крупной интернет компании, поистине огромны. Цель динамично развивающейся в последние годы дисциплины Data Mining состоит в разработке подходов, позволяющих эффективно обрабатывать такие данные для извлечения полезной для бизнеса информации. Эта информация может быть использована при создании рекомендательных и поисковых систем, оптимизации рекламных сервисов или при принятии ключевых бизнес-решений.
 

План занятий

Занятие
Заголовок <<
Дата изучения
Лекция 1
1 час 29 минут
Задачи Data Mining
Обзор задач Data Mining. Стандартизация подхода к решению задач Data Mining. Процесс CRISP-DM. Виды данных. Кластеризация, классификация, регрессия. Понятие модели и алгоритма обучения.
-
Лекция 2
2 часа 6 минут
Задача кластеризации и ЕМ-алгоритм
Постановка задачи кластеризации. Функции расстояния. Критерии качества кластеризации. EM-алгоритм. K-means и модификации.
-
Лекция 3
1 час 40 минут
Различные алгоритмы кластеризации
Иерархическая кластеризация. Agglomerative и Divisive алгоритмы. Различные виды расстояний между кластерами. Stepwise-optimal алгоритм. Случай неэвклидовых пространств. Критерии выбора количества кластеров: rand, silhouette. DBSCAN.
-
Лекция 4
2 часа 51 минута
Задача классификации
Постановка задач классификации и регрессии. Теория принятия решений. Виды моделей. Примеры функций потерь. Переобучение. Метрики качества классификации. MDL. Решающие деревья. Алгоритм CART.
-
Лекция 5
2 часа 5 минут
Обработка текстов, Naive Bayes
Условная вероятность и теорема Байеса. Нормальное распределение. Naive Bayes: multinomial, binomial, gaussian. Сглаживание. Генеративная модель NB и байесовский вывод. Графические модели.
-
Лекция 6
1 час 39 минут
Линейные модели для классификации и регрессии
Обобщенные линейные модели. Постановка задачи оптимизации. Примеры критериев. Градиентный спуск. Регуляризация. Метод Maximum Likelihood. Логистическая регрессия.
-
Лекция 7
1 час 19 минут
Машина опорных векторов
Разделяющая поверхность с максимальным зазором. Формулировка задачи оптимизации для случаев линейно-разделимых и линейно-неразделимых классов. Сопряженная задача. Опорные векторы. KKT-условия. SVM для задач классификации и регрессии. Kernel trick. Теорема Мерсера. Примеры функций ядра.
-
Лекция 8
1 час 46 минут
Методы снижения размерности пространства
Проблема проклятия размерности. Отбор и выделение признаков. Методы выделения признаков (feature extraction). Метод главных компонент (PCA). Метод независимых компонент (ICA). Методы основанные на автоэнкодерах. Методы отбора признаков (feature selection). Методы основанные на взаимной корреляции признаков. Метод максимальной релевантность и минимальной избыточности (mRMR). Методы основанные на деревьях решений.
-
Лекция 9
1 час 37 минут
Алгоритмические композиции
Комбинации классификаторов. Модельные деревья решений. Смесь экспертов. Stacking. Стохастические методы построения ансамблей классификаторов. Bagging. RSM. Алгоритм RandomForest.
-
Лекция 10
1 час 45 минут
Алгоритмические композиции
Ключевые идеи бустинга. Отличия бустинга и бэггинга. Алгорим AdaBoost. Градиентный бустинг. Мета-алгоритмы над алгоритмическими композициями. Алгоритм BagBoo.
-
Лекция 11
2 часа 9 минут
Основы нейронных сетей
Биологический нейрон и нейронные сети. Искусственный нейрон Маккалока-Питтса и искусственная нейронная сеть. Персептрон Розенблатта и Румельхарта. Алгоритм обратного распространения ошибки. Момент обучения, регуляризация в нейросети, локальная скорость обучения, softmax слой. Различные режимы обучения.
-
Лекция 12
2 часа 11 минут
Ограниченная машина Больцмана
Нейросетейвой автоэнкодер. Стохастические и рекурентные нейронные сети. Машина Больцмана и ограниченная машина Больцмана. Распределение Гиббса. Алгоритм contrastive divergence для обучения РБМ. Сэмплирование данных из РБМ. Бинарная РБМ и гауссово-бинарная РБМ. Влияние регуляризации, нелинейное сжатие размерности, извлечение признаков. Semantic hashing.
-
Лекция 13
1 час 37 минут
Глубокие нейронные сети
Трудности обучения многослойного персептрона. Предобучение используя РБМ. Глубокий автоэнкодер, глубокая многослойная нейросеть. Deep belief network и deep Boltzmann machine. Устройство человеческого глаза и зрительной коры головного мозга. Сверточные сети.
-
Ярослав Бабкин
Ярослав Бабкин

29 июля 2016г. я отправил составленные мной задания к курсу "Алгоритмы интеллектуальной обработки больших объемов данных". Видимо, они никому не нужны...

Игорь Дзех
Игорь Дзех
Россия, г. Москва