Машинное обучение 2015 — различия между версиями

Материал из SEWiki
Перейти к: навигация, поиск
м (Дополнительные источники по Python)
м
 
(не показано 36 промежуточных версий 2 участников)
Строка 2: Строка 2:
  
 
== Лекции ==
 
== Лекции ==
[http://mit.spbau.ru/sewiki/images/5/5a/Lecture1.pdf 11 февраля, "Введение"]<br/>
+
1.  [http://mit.spbau.ru/sewiki/images/5/5a/Lecture1.pdf 11 февраля, "Введение"]<br/>
[http://mit.spbau.ru/sewiki/images/8/83/Lecture2.pdf 18 февраля, "Метрические методы классификации"]<br/>
+
2.  [http://mit.spbau.ru/sewiki/images/8/83/Lecture2.pdf 18 февраля, "Метрические методы классификации"]<br/>
[http://mit.spbau.ru/sewiki/images/a/ae/ML-lecture3.pdf 27 февраля, "Иерархическая кластеризация"]<br/>
+
3.  [http://mit.spbau.ru/sewiki/images/a/ae/ML-lecture3.pdf 27 февраля, "Иерархическая кластеризация"]<br/>
[http://mit.spbau.ru/sewiki/images/3/31/ML-lecture4.pdf 6 марта, "Кластеризация. Графовые и статистические алгоритмы"]<br/>
+
4.  [http://mit.spbau.ru/sewiki/images/3/31/ML-lecture4.pdf 6 марта, "Кластеризация. Графовые и статистические алгоритмы"]<br/>
[http://mit.spbau.ru/sewiki/images/a/a9/ML-lecture5.pdf 13 марта, "Линейные классификаторы"]<br/>
+
5.  [http://mit.spbau.ru/sewiki/images/a/a9/ML-lecture5.pdf 13 марта, "Линейные классификаторы"]<br/>
[http://mit.spbau.ru/sewiki/images/e/ee/ML-lecture6.pdf 20 марта, "Метод опорных векторов"]<br/>
+
6.  [http://mit.spbau.ru/sewiki/images/e/ee/ML-lecture6.pdf 20 марта, "Метод опорных векторов"]<br/>
 +
7.  [http://mit.spbau.ru/sewiki/images/1/17/ML-lecture7.pdf 27 марта, "Python и Numpy"]<br/>
 +
8.  [http://mit.spbau.ru/sewiki/images/3/32/ML-lecture8.pdf  3 апреля, "Деревья принятия решений"]<br/>
 +
9.  [http://mit.spbau.ru/sewiki/images/9/90/ML-lecture9.pdf 10 апреля, "Байесовские методы классификации"]<br/>
 +
10. [http://mit.spbau.ru/sewiki/images/9/90/ML-lecture10.pdf 17 апреля, "EM-алгоритм"]<br/>
 +
11. [http://mit.spbau.ru/sewiki/images/2/2c/ML-lecture11.pdf 24 апреля, "Линейная регрессия"]<br/>
 +
12. [http://mit.spbau.ru/sewiki/images/4/4a/ML-lecture12.pdf 8 мая, "Нейронные сети"]<br/>
 +
13. [https://inclass.kaggle.com/c/placeholder26 15 мая, "Разбор результатов контеста"]<br/>
 
<br/>
 
<br/>
  
 +
<!--
 
== Домашние задания. ==
 
== Домашние задания. ==
 
Адрес, на который надо присылать решения -- '''machine.teaching@gmail.com'''. <br/>
 
Адрес, на который надо присылать решения -- '''machine.teaching@gmail.com'''. <br/>
 
В теме письма должно быть написано "Домашняя работа N Иванов", где вместо Иванов надо поставить свою фамилию, а вместо N -- номер домашней работы.
 
В теме письма должно быть написано "Домашняя работа N Иванов", где вместо Иванов надо поставить свою фамилию, а вместо N -- номер домашней работы.
  
1. Метод наименьших квадратов.<br/>
+
1. Метод наименьших квадратов<br/>
 
'''Дедлайн''' (20 баллов): 18.02.15 23:59<br/>
 
'''Дедлайн''' (20 баллов): 18.02.15 23:59<br/>
 
'''Дедлайн''' (10 баллов): 25.02.15 23:59<br/>
 
'''Дедлайн''' (10 баллов): 25.02.15 23:59<br/>
Строка 20: Строка 28:
 
Условие в файле readme по ссылке — [http://mit.spbau.ru/sewiki/images/9/98/Hw1.zip Домашнее задание 1]<br/>
 
Условие в файле readme по ссылке — [http://mit.spbau.ru/sewiki/images/9/98/Hw1.zip Домашнее задание 1]<br/>
  
2. Соседи и вино.<br/>
+
2. Соседи и вино<br/>
 
'''Дедлайн''' (20 баллов): 25.02.15 23:59<br/>
 
'''Дедлайн''' (20 баллов): 25.02.15 23:59<br/>
 
'''Дедлайн''' (10 баллов): 03.03.15 23:59<br/>
 
'''Дедлайн''' (10 баллов): 03.03.15 23:59<br/>
Строка 44: Строка 52:
 
Условие — [http://mit.spbau.ru/sewiki/images/3/31/ML-homework5.pdf Домашнее задание 5]<br/>
 
Условие — [http://mit.spbau.ru/sewiki/images/3/31/ML-homework5.pdf Домашнее задание 5]<br/>
  
== Летучки в начале лекции. ==
+
6. Ядра SVM <br/>
 +
'''Дедлайн''' (20 баллов): 02.04.15 23:59<br/>
 +
'''Дедлайн''' (10 баллов): 09.04.15 23:59<br/>
 +
 
 +
Условие — [http://mit.spbau.ru/sewiki/images/7/75/ML-homework6.pdf Домашнее задание 6]<br/>
 +
 
 +
7. Лос-Анджелес Доджерс и EM-алгоритм<br/>
 +
'''Дедлайн''' (20 баллов): 23.04.15 23:59<br/>
 +
'''Дедлайн''' (10 баллов): 30.04.15 23:59<br/>
 +
 
 +
Условие -- [http://mit.spbau.ru/sewiki/images/6/6b/ML-homework7.pdf  Домашнее задание 7]<br/>
 +
 
 +
8. Недвижимость и регрессия <br/>
 +
'''Дедлайн''' (20 баллов): 07.05.15 23:59<br/>
 +
'''Дедлайн''' (10 баллов): 14.05.15 23:59<br/>
 +
 
 +
Условие -- [http://mit.spbau.ru/sewiki/images/f/f6/ML-homework8.pdf  Домашнее задание 8]<br/>
 +
 
 +
9. Каракули и нейросети <br/>
 +
'''Дедлайн''' (20 баллов): 14.05.15 23:59<br/>
 +
'''Дедлайн''' (10 баллов): 21.05.15 23:59<br/>
 +
 
 +
Условие -- [http://mit.spbau.ru/sewiki/images/f/fc/ML-homework9.pdf  Домашнее задание 9]<br/>
 +
 
 +
 
 +
== Летучки в начале лекции. ==  
 
[http://mit.spbau.ru/sewiki/images/5/51/Quiz2.pdf 18 февраля]<br/>
 
[http://mit.spbau.ru/sewiki/images/5/51/Quiz2.pdf 18 февраля]<br/>
 
[http://mit.spbau.ru/sewiki/index.php/%D0%A4%D0%B0%D0%B9%D0%BB:ML-quiz3.pdf 27 февраля]<br/>
 
[http://mit.spbau.ru/sewiki/index.php/%D0%A4%D0%B0%D0%B9%D0%BB:ML-quiz3.pdf 27 февраля]<br/>
Строка 50: Строка 83:
 
[http://mit.spbau.ru/sewiki/images/3/39/ML-test4.pdf 13 марта]<br/>
 
[http://mit.spbau.ru/sewiki/images/3/39/ML-test4.pdf 13 марта]<br/>
 
[http://mit.spbau.ru/sewiki/images/e/e6/ML-test5.pdf 20 марта]<br/>
 
[http://mit.spbau.ru/sewiki/images/e/e6/ML-test5.pdf 20 марта]<br/>
 +
[http://mit.spbau.ru/sewiki/images/8/82/ML-test6.pdf 27 марта]<br/>
 +
[http://mit.spbau.ru/sewiki/images/b/bf/ML-test7.pdf 3 апреля]<br/>
 +
[http://mit.spbau.ru/sewiki/images/3/38/ML-test9.pdf 10 апреля]<br/>
 +
[http://mit.spbau.ru/sewiki/images/d/db/ML-test10.pdf 17 апреля]<br/>
 +
[http://mit.spbau.ru/sewiki/images/7/73/ML-test11.pdf 24 апреля]<br/>
 +
[http://mit.spbau.ru/sewiki/images/1/1c/ML-test12.pdf 8 мая]<br/>
 +
[http://mit.spbau.ru/sewiki/images/0/05/ML-test13.pdf 15 мая]<br/>
 +
  
 
== Результаты ==
 
== Результаты ==
 
[https://docs.google.com/spreadsheets/d/1N3eCOgLWg05sgOBFa4MXVhT1yAJaCjbf9ElL_QWyV7o/edit?usp=sharing Результаты]<br/>
 
[https://docs.google.com/spreadsheets/d/1N3eCOgLWg05sgOBFa4MXVhT1yAJaCjbf9ElL_QWyV7o/edit?usp=sharing Результаты]<br/>
 +
<br/>
 +
Форма отчетности -- зачет с оценкой. <br/>
 +
<br/>
 +
Оценку можно получить за решение домашних заданий. Тест 60 баллов за простые вопросы и 2 вопроса по 15 баллов. <br/>
 +
<br/>
 +
< 40 баллов = 3<br/>
 +
40-60 баллов = 4<br/>
 +
> 60 баллов = 5
 +
-->
  
 
== Дополнительные источники по машинному обучению ==
 
== Дополнительные источники по машинному обучению ==
 
* G. James, D. Witten, T. Hastie, R. Tibshirani: [http://www-bcf.usc.edu/~gareth/ISL/ISLR%20First%20Printing.pdf "An Introduction to Statistical Learning"]
 
* G. James, D. Witten, T. Hastie, R. Tibshirani: [http://www-bcf.usc.edu/~gareth/ISL/ISLR%20First%20Printing.pdf "An Introduction to Statistical Learning"]
 
* Christopher M. Bishop [http://www.rmki.kfki.hu/~banmi/elte/Bishop%20-%20Pattern%20Recognition%20and%20Machine%20Learning.pdf "Pattern Recognition and Machine Learning"]
 
* Christopher M. Bishop [http://www.rmki.kfki.hu/~banmi/elte/Bishop%20-%20Pattern%20Recognition%20and%20Machine%20Learning.pdf "Pattern Recognition and Machine Learning"]
* Kevin P. Murphy [http://www.cs.ubc.ca/~murphyk/MLbook/pml-intro-22may12.pdf "Machine Learning: A Probabilistic Perspective"]
+
* Kevin P. Murphy [http://www.huang-jianhua.com/download/Machine_Learning-_A_Probabilistic_Perspective.pdf "Machine Learning: A Probabilistic Perspective"]
 
* К.В. Воронцов: [http://shad.yandex.ru/lectures/machine_learning.xml видеолекции 2014], [http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%28%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2%29 материалы] (в т.ч. [http://www.machinelearning.ru/wiki/images/6/6d/Voron-ML-1.pdf пособие])
 
* К.В. Воронцов: [http://shad.yandex.ru/lectures/machine_learning.xml видеолекции 2014], [http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%28%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2%29 материалы] (в т.ч. [http://www.machinelearning.ru/wiki/images/6/6d/Voron-ML-1.pdf пособие])
 
* Andrew Ng http://ml-class.org/
 
* Andrew Ng http://ml-class.org/
 +
* Примеры реализации алгоритмов на Python: [http://book.uz/wp-content/uploads/2010/10/kol_razum.pdf Программируем коллективный разум]
 +
 +
=== Дополнительные заметки ===
 +
* [http://infolab.stanford.edu/~ullman/mmds/book.pdf Mining of Massive Datasets (Ullman, Leskovec, Rajaraman)] (в частности, разделы 3.4—3.8 про Locality-Sensitive Hashing, еще в книге много других интересных подходов для больших объемов данных, в т.ч. MapReduce, PageRank)
  
 
== Дополнительные источники по Python ==
 
== Дополнительные источники по Python ==
Строка 68: Строка 122:
 
* [http://sebastianraschka.com/Articles/2014_matlab_vs_numpy.html?utm_source=Python+Weekly+Newsletter&utm_campaign=7c6b01a661-Python_Weekly_Issue_124_January_30_2014&utm_medium=email&utm_term=0_9e26887fc5-7c6b01a661-312663861 "Матрицы Numpy для пользователей Matlab/Octave"]
 
* [http://sebastianraschka.com/Articles/2014_matlab_vs_numpy.html?utm_source=Python+Weekly+Newsletter&utm_campaign=7c6b01a661-Python_Weekly_Issue_124_January_30_2014&utm_medium=email&utm_term=0_9e26887fc5-7c6b01a661-312663861 "Матрицы Numpy для пользователей Matlab/Octave"]
 
* [http://nbviewer.ipython.org/github/jrjohansson/scientific-python-lectures/blob/master/Lecture-4-Matplotlib.ipynb "Визуализация в Python"]
 
* [http://nbviewer.ipython.org/github/jrjohansson/scientific-python-lectures/blob/master/Lecture-4-Matplotlib.ipynb "Визуализация в Python"]
 +
* [http://mit.spbau.ru/sewiki/images/c/cf/Scikit-cheat-sheet.png "Scikit-learn algorithm cheat-sheet"]
  
 
[[Category:5 курс. Весна 2015]]
 
[[Category:5 курс. Весна 2015]]

Текущая версия на 17:00, 12 апреля 2017

Лекции — Екатерина Алексеевна Тузова (kt@jetbrains.com)

Лекции

1. 11 февраля, "Введение"
2. 18 февраля, "Метрические методы классификации"
3. 27 февраля, "Иерархическая кластеризация"
4. 6 марта, "Кластеризация. Графовые и статистические алгоритмы"
5. 13 марта, "Линейные классификаторы"
6. 20 марта, "Метод опорных векторов"
7. 27 марта, "Python и Numpy"
8. 3 апреля, "Деревья принятия решений"
9. 10 апреля, "Байесовские методы классификации"
10. 17 апреля, "EM-алгоритм"
11. 24 апреля, "Линейная регрессия"
12. 8 мая, "Нейронные сети"
13. 15 мая, "Разбор результатов контеста"


Дополнительные источники по машинному обучению

Дополнительные заметки

  • Mining of Massive Datasets (Ullman, Leskovec, Rajaraman) (в частности, разделы 3.4—3.8 про Locality-Sensitive Hashing, еще в книге много других интересных подходов для больших объемов данных, в т.ч. MapReduce, PageRank)

Дополнительные источники по Python