MachineLearning 2013
Материал из SEWiki
Версия от 14:37, 6 марта 2013; Mstepanov (обсуждение | вклад)
Лектор - Степанов Михаил, Практика - Тяпочкин Константин
Содержание
Лекции
Слайды к лекции от 20.02, 27.02 Медиа:lecture_stepanov_1_2.pdf. Материал, изложенный в лекции так же доступен [1]
Практические задания
Лекции:
Лекция 1 Для тех, кто хочет вспомнить/улучшить знания по теории вероятностей и статистике, предлагается книга <ref>Бородин, Элементарный курс теории вероятностей и математической статистики</ref>.
Лекция 2 Дополнительный материал можно найти в книге
Домашние задания:
1)Задание 1,house_cost.txt - последний срок сдачи 23:59 27.03.2013.
Программа курса
- Методы визуализации и анализа
- Линейные модели
- Линейная регрессия
- Логистическая регрессия
- Обощенные линейные модели
- Регуляризация
- Классификация
- Наивный байес
- Деревья принятия решений, случайный лес
- Нейронные сети и алгоритм обратного распространени¤ ошибок
- Метод опорных векторов (SVM)
- AdaBoost
- Рекомендации по использованию алгоритмов машинного обучения
- Выбор модели
- Компромисc смещения-дисперсии (bias-variance trade-off)
- Кривая обучения
- Кластеризация
- Метод к-средних(k-means)
- EM-алгоритм
- Иерархические методы
- Рекомендации по использованию методов кластеризации
- Методы понижения размерности данных
- Метод главных компонент (PCA)
- Многомерное шкалирование
- Методы поиска аномалий в данных
- Рекомендательные системы
- Методы работы с большими объемами данных с использованием MapReduce
Список литературы
- Christopher M. Bishop, Pattern Recognition and Machine Learning
- Andrew Ng, Lecture notes, Machine Learning[2]
- Воронцов К.В., Машинное обучение (курс лекций)[3]
- Бородин, Элементарный курс теории вероятностей и математической статистики
- Julian J. Faraway, Linear models with R