Машинное обучение 2015 — различия между версиями
Ekaterina (обсуждение | вклад) м (→Лекции) |
Ekaterina (обсуждение | вклад) м (→Лекции) |
||
Строка 2: | Строка 2: | ||
== Лекции == | == Лекции == | ||
− | 1. | + | 1. [http://mit.spbau.ru/sewiki/images/5/5a/Lecture1.pdf 11 февраля, "Введение"]<br/> |
− | 2. | + | 2. [http://mit.spbau.ru/sewiki/images/8/83/Lecture2.pdf 18 февраля, "Метрические методы классификации"]<br/> |
− | 3. | + | 3. [http://mit.spbau.ru/sewiki/images/a/ae/ML-lecture3.pdf 27 февраля, "Иерархическая кластеризация"]<br/> |
− | 4. | + | 4. [http://mit.spbau.ru/sewiki/images/3/31/ML-lecture4.pdf 6 марта, "Кластеризация. Графовые и статистические алгоритмы"]<br/> |
− | 5. | + | 5. [http://mit.spbau.ru/sewiki/images/a/a9/ML-lecture5.pdf 13 марта, "Линейные классификаторы"]<br/> |
− | 6. | + | 6. [http://mit.spbau.ru/sewiki/images/e/ee/ML-lecture6.pdf 20 марта, "Метод опорных векторов"]<br/> |
− | 7. | + | 7. [http://mit.spbau.ru/sewiki/images/1/17/ML-lecture7.pdf 27 марта, "Python и Numpy"]<br/> |
− | 8. | + | 8. [http://mit.spbau.ru/sewiki/images/3/32/ML-lecture8.pdf 3 апреля, "Деревья принятия решений"]<br/> |
− | 9. | + | 9. [http://mit.spbau.ru/sewiki/images/9/90/ML-lecture9.pdf 10 апреля, "Байесовские методы классификации"]<br/> |
10. [http://mit.spbau.ru/sewiki/images/9/90/ML-lecture10.pdf 17 апреля, "EM-алгоритм"]<br/> | 10. [http://mit.spbau.ru/sewiki/images/9/90/ML-lecture10.pdf 17 апреля, "EM-алгоритм"]<br/> | ||
<br/> | <br/> |
Версия 19:25, 16 апреля 2015
Лекции — Екатерина Алексеевна Тузова (kt@jetbrains.com)
Содержание
Лекции
1. 11 февраля, "Введение"
2. 18 февраля, "Метрические методы классификации"
3. 27 февраля, "Иерархическая кластеризация"
4. 6 марта, "Кластеризация. Графовые и статистические алгоритмы"
5. 13 марта, "Линейные классификаторы"
6. 20 марта, "Метод опорных векторов"
7. 27 марта, "Python и Numpy"
8. 3 апреля, "Деревья принятия решений"
9. 10 апреля, "Байесовские методы классификации"
10. 17 апреля, "EM-алгоритм"
Домашние задания.
Адрес, на который надо присылать решения -- machine.teaching@gmail.com.
В теме письма должно быть написано "Домашняя работа N Иванов", где вместо Иванов надо поставить свою фамилию, а вместо N -- номер домашней работы.
1. Метод наименьших квадратов.
Дедлайн (20 баллов): 18.02.15 23:59
Дедлайн (10 баллов): 25.02.15 23:59
Условие в файле readme по ссылке — Домашнее задание 1
2. Соседи и вино.
Дедлайн (20 баллов): 25.02.15 23:59
Дедлайн (10 баллов): 03.03.15 23:59
Условие — Домашнее задание 2
3. Рибосома и иерархическая кластеризация
Дедлайн (20 баллов): 05.03.15 23:59
Дедлайн (10 баллов): 12.03.15 23:59
Условие — Домашнее задание 3
4. Comic-Con и k-means
Дедлайн (20 баллов): 13.03.15 23:59
Дедлайн (10 баллов): 20.03.15 23:59
Условие — Домашнее задание 4
5. Индейцы пима, диабет и линейный классификатор
Дедлайн (20 баллов): 26.03.15 23:59
Дедлайн (10 баллов): 02.04.15 23:59
Условие — Домашнее задание 5
6. Ядра SVM
Дедлайн (20 баллов): 02.04.15 23:59
Дедлайн (10 баллов): 09.04.15 23:59
Условие — Домашнее задание 6
Летучки в начале лекции.
18 февраля
27 февраля
6 марта
13 марта
20 марта
27 марта
3 апреля
10 апреля
Результаты
Дополнительные источники по машинному обучению
- G. James, D. Witten, T. Hastie, R. Tibshirani: "An Introduction to Statistical Learning"
- Christopher M. Bishop "Pattern Recognition and Machine Learning"
- Kevin P. Murphy "Machine Learning: A Probabilistic Perspective"
- К.В. Воронцов: видеолекции 2014, материалы (в т.ч. пособие)
- Andrew Ng http://ml-class.org/
Дополнительные заметки
- Mining of Massive Datasets (Ullman, Leskovec, Rajaraman) (в частности, разделы 3.4—3.8 про Locality-Sensitive Hashing, еще в книге много других интересных подходов для больших объемов данных, в т.ч. MapReduce, PageRank)