Машинное обучение 2017 — различия между версиями
Ekaterina (обсуждение | вклад) (→Конспекты лекций) |
Ekaterina (обсуждение | вклад) (→Лекции) |
||
Строка 14: | Строка 14: | ||
11. [http://mit.spbau.ru/sewiki/images/2/2e/ML17-Lecture11.pdf 3 мая, "Анализ смещения и разброса"] <br/> | 11. [http://mit.spbau.ru/sewiki/images/2/2e/ML17-Lecture11.pdf 3 мая, "Анализ смещения и разброса"] <br/> | ||
12. [http://mit.spbau.ru/sewiki/images/b/b9/ML17-Lecture12.pdf 10 мая, "Методы восстановления регрессии"] <br/> | 12. [http://mit.spbau.ru/sewiki/images/b/b9/ML17-Lecture12.pdf 10 мая, "Методы восстановления регрессии"] <br/> | ||
− | 13. 17 мая, "Ансамбли" <br/> | + | 13. [http://mit.spbau.ru/sewiki/images/e/e6/ML17-Lecture13.pdf 17 мая, "Ансамбли"] <br/> |
<!-- | <!-- | ||
== Комментарии к лекциям == | == Комментарии к лекциям == | ||
Строка 22: | Строка 22: | ||
Размер матрицы V (l x n). Для неквадратных матриц условие ортогональности раздельное по строкам и столбцам. Таким образом из условия V^T V = I не следует что V V^T = I (см [https://en.wikipedia.org/wiki/Orthogonal_matrix#Rectangular_matrices здесь]) | Размер матрицы V (l x n). Для неквадратных матриц условие ортогональности раздельное по строкам и столбцам. Таким образом из условия V^T V = I не следует что V V^T = I (см [https://en.wikipedia.org/wiki/Orthogonal_matrix#Rectangular_matrices здесь]) | ||
--> | --> | ||
+ | |||
== Конспекты лекций == | == Конспекты лекций == | ||
Версия 16:58, 14 мая 2017
Лекции — Екатерина Тузова (kt@jetbrains.com)
Содержание
Лекции
1. 15 февраля, "Введение"
2. 22 февраля, "Метрические классификаторы"
3. 1 марта, "Кластеризация"
4. 15 марта, "Деревья принятия решений"
5. 22 марта, "Байесовские методы классификации"
6. 29 марта, "Перцептрон"
7. 5 апреля, "Способность к обобщению"
8. 12 апреля, "Нейронные сети"
9. 19 апреля, "Метод опорных векторов"
10. 26 апреля, "Линейная регрессия"
11. 3 мая, "Анализ смещения и разброса"
12. 10 мая, "Методы восстановления регрессии"
13. 17 мая, "Ансамбли"
Конспекты лекций
5. "Байесовские методы классификации"
6. "Линейные методы классификации"
8. "Нейронные сети"
9. "Метод опорных векторов"
Конспект ведут Надежда Бугакова, Анастасия Гайдашенко, Александра Малышева и Ольга Черникова.
Комментарии и правки приветствуются.
Домашние задания.
Адрес, на который надо присылать решения -- machine.teaching@gmail.com.
В теме письма должно быть написано "Домашняя работа N Иванов", где вместо Иванов надо поставить свою фамилию, а вместо N -- номер домашней работы.
1. Соседи и вино
Дедлайн (20 баллов): 03.03.17 23:59
Дедлайн (10 баллов): 10.03.17 23:59
Условие — Домашнее задание 1
2. Comic-Con и k-means
Дедлайн (20 баллов): 10.03.17 23:59
Дедлайн (10 баллов): 17.03.17 23:59
Условие — Домашнее задание 2
3. Одеревенеть от страха
Дедлайн (20 баллов): 23.03.17 23:59
Дедлайн (10 баллов): 30.03.17 23:59
Условие — Домашнее задание 3
4. Байес на страже SMS
Дедлайн (20 баллов): 30.03.17 23:59
Дедлайн (10 баллов): 06.04.17 23:59
Условие — Домашнее задание 4
5. Индейцы пима и линейный классификатор
Дедлайн (20 баллов): 13.04.17 23:59
Дедлайн (10 баллов): 20.04.17 23:59
Условие — Домашнее задание 5
6. Каракули и нейросети
Дедлайн (20 баллов): 20.04.17 23:59
Дедлайн (10 баллов): 27.04.17 23:59
Условие — Домашнее задание 6
7. Ядра SVM
Дедлайн (20 баллов): 27.04.17 23:59
Дедлайн (10 баллов): 04.05.17 23:59
Условие — Домашнее задание 7
8. Недвижимость и регрессия
Дедлайн (20 баллов): 11.05.17 23:59
Дедлайн (10 баллов): 18.05.17 23:59
Условие — Домашнее задание 8
Летучки в начале лекции.
22 февраля
1 марта
15 марта
22 марта
29 марта
5 апреля
12 апреля
19 апреля
26 апреля
3 мая
Результаты
12 опросов по 5 баллов в начале лекции.
8 домашних заданий по 20 баллов при сдаче в первую неделю, 10 баллов при сдаче во вторую неделю.
Экзамен 180 баллов
Оценки за курс: 300 баллов -- отлично, 250 баллов -- хорошо, 200 баллов -- удовлетворительно
Дополнительные источники по машинному обучению
- Christopher M. Bishop "Pattern Recognition and Machine Learning"
- G. James, D. Witten, T. Hastie, R. Tibshirani: "An Introduction to Statistical Learning"
- Kevin P. Murphy "Machine Learning: A Probabilistic Perspective"
- Professor Yaser Abu-Mostafa MOOC
- К.В. Воронцов: MOOC, материалы (в т.ч. пособие)
- Andrew Ng http://ml-class.org/
- Примеры реализации алгоритмов на Python: Программируем коллективный разум
- Ullman, Leskovec, Rajaraman "Mining of Massive Datasets"