Машинное обучение 2015 — различия между версиями
Ekaterina (обсуждение | вклад) м (→Дополнительные источники по машинному обучению) |
Ekaterina (обсуждение | вклад) м (→Дополнительные источники по Python) |
||
Строка 110: | Строка 110: | ||
* [http://sebastianraschka.com/Articles/2014_matlab_vs_numpy.html?utm_source=Python+Weekly+Newsletter&utm_campaign=7c6b01a661-Python_Weekly_Issue_124_January_30_2014&utm_medium=email&utm_term=0_9e26887fc5-7c6b01a661-312663861 "Матрицы Numpy для пользователей Matlab/Octave"] | * [http://sebastianraschka.com/Articles/2014_matlab_vs_numpy.html?utm_source=Python+Weekly+Newsletter&utm_campaign=7c6b01a661-Python_Weekly_Issue_124_January_30_2014&utm_medium=email&utm_term=0_9e26887fc5-7c6b01a661-312663861 "Матрицы Numpy для пользователей Matlab/Octave"] | ||
* [http://nbviewer.ipython.org/github/jrjohansson/scientific-python-lectures/blob/master/Lecture-4-Matplotlib.ipynb "Визуализация в Python"] | * [http://nbviewer.ipython.org/github/jrjohansson/scientific-python-lectures/blob/master/Lecture-4-Matplotlib.ipynb "Визуализация в Python"] | ||
+ | * [http://mit.spbau.ru/sewiki/images/c/cf/Scikit-cheat-sheet.png "Scikit-learn algorithm cheat-sheet"] | ||
[[Category:5 курс. Весна 2015]] | [[Category:5 курс. Весна 2015]] |
Версия 14:03, 3 июня 2015
Лекции — Екатерина Алексеевна Тузова (kt@jetbrains.com)
Содержание
Лекции
1. 11 февраля, "Введение"
2. 18 февраля, "Метрические методы классификации"
3. 27 февраля, "Иерархическая кластеризация"
4. 6 марта, "Кластеризация. Графовые и статистические алгоритмы"
5. 13 марта, "Линейные классификаторы"
6. 20 марта, "Метод опорных векторов"
7. 27 марта, "Python и Numpy"
8. 3 апреля, "Деревья принятия решений"
9. 10 апреля, "Байесовские методы классификации"
10. 17 апреля, "EM-алгоритм"
11. 24 апреля, "Линейная регрессия"
12. 8 мая, "Нейронные сети"
13. 15 мая, "Разбор результатов контеста"
Домашние задания.
Адрес, на который надо присылать решения -- machine.teaching@gmail.com.
В теме письма должно быть написано "Домашняя работа N Иванов", где вместо Иванов надо поставить свою фамилию, а вместо N -- номер домашней работы.
1. Метод наименьших квадратов
Дедлайн (20 баллов): 18.02.15 23:59
Дедлайн (10 баллов): 25.02.15 23:59
Условие в файле readme по ссылке — Домашнее задание 1
2. Соседи и вино
Дедлайн (20 баллов): 25.02.15 23:59
Дедлайн (10 баллов): 03.03.15 23:59
Условие — Домашнее задание 2
3. Рибосома и иерархическая кластеризация
Дедлайн (20 баллов): 05.03.15 23:59
Дедлайн (10 баллов): 12.03.15 23:59
Условие — Домашнее задание 3
4. Comic-Con и k-means
Дедлайн (20 баллов): 13.03.15 23:59
Дедлайн (10 баллов): 20.03.15 23:59
Условие — Домашнее задание 4
5. Индейцы пима, диабет и линейный классификатор
Дедлайн (20 баллов): 26.03.15 23:59
Дедлайн (10 баллов): 02.04.15 23:59
Условие — Домашнее задание 5
6. Ядра SVM
Дедлайн (20 баллов): 02.04.15 23:59
Дедлайн (10 баллов): 09.04.15 23:59
Условие — Домашнее задание 6
7. Лос-Анджелес Доджерс и EM-алгоритм
Дедлайн (20 баллов): 23.04.15 23:59
Дедлайн (10 баллов): 30.04.15 23:59
Условие -- Домашнее задание 7
8. Недвижимость и регрессия
Дедлайн (20 баллов): 07.05.15 23:59
Дедлайн (10 баллов): 14.05.15 23:59
Условие -- Домашнее задание 8
9. Каракули и нейросети
Дедлайн (20 баллов): 14.05.15 23:59
Дедлайн (10 баллов): 21.05.15 23:59
Условие -- Домашнее задание 9
Летучки в начале лекции.
18 февраля
27 февраля
6 марта
13 марта
20 марта
27 марта
3 апреля
10 апреля
17 апреля
24 апреля
8 мая
15 мая
Результаты
Дополнительные источники по машинному обучению
- G. James, D. Witten, T. Hastie, R. Tibshirani: "An Introduction to Statistical Learning"
- Christopher M. Bishop "Pattern Recognition and Machine Learning"
- Kevin P. Murphy "Machine Learning: A Probabilistic Perspective"
- К.В. Воронцов: видеолекции 2014, материалы (в т.ч. пособие)
- Andrew Ng http://ml-class.org/
- Примеры реализации алгоритмов на Python: Программируем коллективный разум
Дополнительные заметки
- Mining of Massive Datasets (Ullman, Leskovec, Rajaraman) (в частности, разделы 3.4—3.8 про Locality-Sensitive Hashing, еще в книге много других интересных подходов для больших объемов данных, в т.ч. MapReduce, PageRank)