MachineLearning 2013 — различия между версиями

Материал из SEWiki
Перейти к: навигация, поиск
 
(не показано 26 промежуточных версий этого же участника)
Строка 3: Строка 3:
  
 
== Лекции ==
 
== Лекции ==
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]
+
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]].  
 +
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]
 +
 
 +
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].
 +
 
 +
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].
 +
 
 +
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].
 +
 
 +
Слайды к лекции от 03.04 [[Медиа: Tyspochkin_lecture_6.pdf| Лекция 6]].
 +
 
 +
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]
  
 
== Практические задания ==
 
== Практические задания ==
Строка 12: Строка 23:
 
[[Медиа:ml_practice2.pdf|Лекция 2]]
 
[[Медиа:ml_practice2.pdf|Лекция 2]]
  
Домашние задания:
+
[[Медиа:ml_practice3.pdf|Лекция 3]]
  
[[Медиа:ml_practice_lab1.zip|Задание 1]] - последний срок сдачи 23:59 27.03.2013.
+
== Домашние задания: ==
 +
 
 +
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку "spbau homework".
 +
 
 +
Результаты можно смотреть здесь [https://docs.google.com/spreadsheet/ccc?key=0AtL8IIKsBdYBdFQtdnJzU2xfUjJ5QjhLb3hkdVJtdFE]
 +
 
 +
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.
 +
 
 +
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции.
 +
Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять.
  
 
== Программа курса ==
 
== Программа курса ==
Строка 49: Строка 69:
 
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]
 
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]
 
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]
 
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]
 
+
*Бородин, Элементарный курс теории вероятностей и математической статистики
 +
*Julian J. Faraway, Linear models with R
  
 
== Ссылки ==
 
== Ссылки ==

Текущая версия на 08:54, 10 апреля 2013

Лектор - Степанов Михаил, Практика - Тяпочкин Константин

Лекции

Слайды к лекции от 20.02, 27.02 Лекции 1,2. Материал, изложенный в лекции, так же доступен [1]

Слайды к лекции от 06.03 Лекция 3.

Слайды к лекции от 13.03 Лекция 4.

Слайды к лекции от 20.03 Лекция 5.

Слайды к лекции от 03.04 Лекция 6.

Самостоятельная работа 1

Практические задания

Лекции:

Лекция 1

Лекция 2

Лекция 3

Домашние задания:

Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку "spbau homework".

Результаты можно смотреть здесь [2]

1)Задание 1,house_cost.txt - последний срок сдачи 23:59 27.03.2013.

Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции. Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять.

Программа курса

  • Методы визуализации и анализа
  • Линейные модели
    • Линейная регрессия
    • Логистическая регрессия
    • Обощенные линейные модели
    • Регуляризация
  • Классификация
    • Наивный байес
    • Деревья принятия решений, случайный лес
    • Нейронные сети и алгоритм обратного распространени¤ ошибок
    • Метод опорных векторов (SVM)
    • AdaBoost
  • Рекомендации по использованию алгоритмов машинного обучения
    • Выбор модели
    • Компромисc смещения-дисперсии (bias-variance trade-off)
    • Кривая обучения
  • Кластеризация
    • Метод к-средних(k-means)
    • EM-алгоритм
    • Иерархические методы
    • Рекомендации по использованию методов кластеризации
  • Методы понижения размерности данных
    • Метод главных компонент (PCA)
    • Многомерное шкалирование
  • Методы поиска аномалий в данных
  • Рекомендательные системы
  • Методы работы с большими объемами данных с использованием MapReduce

Список литературы

  • Christopher M. Bishop, Pattern Recognition and Machine Learning
  • Andrew Ng, Lecture notes, Machine Learning[3]
  • Воронцов К.В., Машинное обучение (курс лекций)[4]
  • Бородин, Элементарный курс теории вероятностей и математической статистики
  • Julian J. Faraway, Linear models with R

Ссылки