Машинное обучение 2015 — различия между версиями

Материал из SEWiki
Перейти к: навигация, поиск
м (Дополнительные источники по машинному обучению)
м (Дополнительные источники по Python)
Строка 110: Строка 110:
 
* [http://sebastianraschka.com/Articles/2014_matlab_vs_numpy.html?utm_source=Python+Weekly+Newsletter&utm_campaign=7c6b01a661-Python_Weekly_Issue_124_January_30_2014&utm_medium=email&utm_term=0_9e26887fc5-7c6b01a661-312663861 "Матрицы Numpy для пользователей Matlab/Octave"]
 
* [http://sebastianraschka.com/Articles/2014_matlab_vs_numpy.html?utm_source=Python+Weekly+Newsletter&utm_campaign=7c6b01a661-Python_Weekly_Issue_124_January_30_2014&utm_medium=email&utm_term=0_9e26887fc5-7c6b01a661-312663861 "Матрицы Numpy для пользователей Matlab/Octave"]
 
* [http://nbviewer.ipython.org/github/jrjohansson/scientific-python-lectures/blob/master/Lecture-4-Matplotlib.ipynb "Визуализация в Python"]
 
* [http://nbviewer.ipython.org/github/jrjohansson/scientific-python-lectures/blob/master/Lecture-4-Matplotlib.ipynb "Визуализация в Python"]
 +
* [http://mit.spbau.ru/sewiki/images/c/cf/Scikit-cheat-sheet.png "Scikit-learn algorithm cheat-sheet"]
  
 
[[Category:5 курс. Весна 2015]]
 
[[Category:5 курс. Весна 2015]]

Версия 14:03, 3 июня 2015

Лекции — Екатерина Алексеевна Тузова (kt@jetbrains.com)

Лекции

1. 11 февраля, "Введение"
2. 18 февраля, "Метрические методы классификации"
3. 27 февраля, "Иерархическая кластеризация"
4. 6 марта, "Кластеризация. Графовые и статистические алгоритмы"
5. 13 марта, "Линейные классификаторы"
6. 20 марта, "Метод опорных векторов"
7. 27 марта, "Python и Numpy"
8. 3 апреля, "Деревья принятия решений"
9. 10 апреля, "Байесовские методы классификации"
10. 17 апреля, "EM-алгоритм"
11. 24 апреля, "Линейная регрессия"
12. 8 мая, "Нейронные сети"
13. 15 мая, "Разбор результатов контеста"

Домашние задания.

Адрес, на который надо присылать решения -- machine.teaching@gmail.com.
В теме письма должно быть написано "Домашняя работа N Иванов", где вместо Иванов надо поставить свою фамилию, а вместо N -- номер домашней работы.

1. Метод наименьших квадратов
Дедлайн (20 баллов): 18.02.15 23:59
Дедлайн (10 баллов): 25.02.15 23:59

Условие в файле readme по ссылке — Домашнее задание 1

2. Соседи и вино
Дедлайн (20 баллов): 25.02.15 23:59
Дедлайн (10 баллов): 03.03.15 23:59

Условие — Домашнее задание 2

3. Рибосома и иерархическая кластеризация
Дедлайн (20 баллов): 05.03.15 23:59
Дедлайн (10 баллов): 12.03.15 23:59

Условие — Домашнее задание 3

4. Comic-Con и k-means
Дедлайн (20 баллов): 13.03.15 23:59
Дедлайн (10 баллов): 20.03.15 23:59

Условие — Домашнее задание 4

5. Индейцы пима, диабет и линейный классификатор
Дедлайн (20 баллов): 26.03.15 23:59
Дедлайн (10 баллов): 02.04.15 23:59

Условие — Домашнее задание 5

6. Ядра SVM
Дедлайн (20 баллов): 02.04.15 23:59
Дедлайн (10 баллов): 09.04.15 23:59

Условие — Домашнее задание 6

7. Лос-Анджелес Доджерс и EM-алгоритм
Дедлайн (20 баллов): 23.04.15 23:59
Дедлайн (10 баллов): 30.04.15 23:59

Условие -- Домашнее задание 7

8. Недвижимость и регрессия
Дедлайн (20 баллов): 07.05.15 23:59
Дедлайн (10 баллов): 14.05.15 23:59

Условие -- Домашнее задание 8

9. Каракули и нейросети
Дедлайн (20 баллов): 14.05.15 23:59
Дедлайн (10 баллов): 21.05.15 23:59

Условие -- Домашнее задание 9

Летучки в начале лекции.

18 февраля
27 февраля
6 марта
13 марта
20 марта
27 марта
3 апреля
10 апреля
17 апреля
24 апреля
8 мая
15 мая

Результаты

Результаты

Дополнительные источники по машинному обучению

Дополнительные заметки

  • Mining of Massive Datasets (Ullman, Leskovec, Rajaraman) (в частности, разделы 3.4—3.8 про Locality-Sensitive Hashing, еще в книге много других интересных подходов для больших объемов данных, в т.ч. MapReduce, PageRank)

Дополнительные источники по Python