MachineLearning 2013 — различия между версиями
Mstepanov (обсуждение | вклад) |
Mstepanov (обсуждение | вклад) |
||
(не показаны 34 промежуточные версии этого же участника) | |||
Строка 3: | Строка 3: | ||
== Лекции == | == Лекции == | ||
− | Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf] | + | Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. |
+ | Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf] | ||
+ | |||
+ | Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]]. | ||
+ | |||
+ | Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]]. | ||
+ | |||
+ | Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]]. | ||
+ | |||
+ | Слайды к лекции от 03.04 [[Медиа: Tyspochkin_lecture_6.pdf| Лекция 6]]. | ||
+ | |||
+ | [[Медиа: kr_1.pdf|Самостоятельная работа 1]] | ||
== Практические задания == | == Практические задания == | ||
Лекции: | Лекции: | ||
− | [[ | + | [[Медиа:ml_practice1.pdf|Лекция 1]] |
− | [[ | + | [[Медиа:ml_practice2.pdf|Лекция 2]] |
− | + | [[Медиа:ml_practice3.pdf|Лекция 3]] | |
− | [[ | + | == Домашние задания: == |
+ | |||
+ | Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку "spbau homework". | ||
+ | |||
+ | Результаты можно смотреть здесь [https://docs.google.com/spreadsheet/ccc?key=0AtL8IIKsBdYBdFQtdnJzU2xfUjJ5QjhLb3hkdVJtdFE] | ||
+ | |||
+ | 1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013. | ||
+ | |||
+ | Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции. | ||
+ | Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять. | ||
== Программа курса == | == Программа курса == | ||
Строка 49: | Строка 69: | ||
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html] | *Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html] | ||
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)] | *Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)] | ||
− | + | *Бородин, Элементарный курс теории вероятностей и математической статистики | |
+ | *Julian J. Faraway, Linear models with R | ||
== Ссылки == | == Ссылки == |
Текущая версия на 08:54, 10 апреля 2013
Лектор - Степанов Михаил, Практика - Тяпочкин Константин
Содержание
Лекции
Слайды к лекции от 20.02, 27.02 Лекции 1,2. Материал, изложенный в лекции, так же доступен [1]
Слайды к лекции от 06.03 Лекция 3.
Слайды к лекции от 13.03 Лекция 4.
Слайды к лекции от 20.03 Лекция 5.
Слайды к лекции от 03.04 Лекция 6.
Практические задания
Лекции:
Домашние задания:
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку "spbau homework".
Результаты можно смотреть здесь [2]
1)Задание 1,house_cost.txt - последний срок сдачи 23:59 27.03.2013.
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции. Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять.
Программа курса
- Методы визуализации и анализа
- Линейные модели
- Линейная регрессия
- Логистическая регрессия
- Обощенные линейные модели
- Регуляризация
- Классификация
- Наивный байес
- Деревья принятия решений, случайный лес
- Нейронные сети и алгоритм обратного распространени¤ ошибок
- Метод опорных векторов (SVM)
- AdaBoost
- Рекомендации по использованию алгоритмов машинного обучения
- Выбор модели
- Компромисc смещения-дисперсии (bias-variance trade-off)
- Кривая обучения
- Кластеризация
- Метод к-средних(k-means)
- EM-алгоритм
- Иерархические методы
- Рекомендации по использованию методов кластеризации
- Методы понижения размерности данных
- Метод главных компонент (PCA)
- Многомерное шкалирование
- Методы поиска аномалий в данных
- Рекомендательные системы
- Методы работы с большими объемами данных с использованием MapReduce
Список литературы
- Christopher M. Bishop, Pattern Recognition and Machine Learning
- Andrew Ng, Lecture notes, Machine Learning[3]
- Воронцов К.В., Машинное обучение (курс лекций)[4]
- Бородин, Элементарный курс теории вероятностей и математической статистики
- Julian J. Faraway, Linear models with R