Машинное обучение 2017 — различия между версиями
Ekaterina (обсуждение | вклад) |
Ekaterina (обсуждение | вклад) |
||
(не показано 11 промежуточных версий 2 участников) | |||
Строка 15: | Строка 15: | ||
12. [http://mit.spbau.ru/sewiki/images/b/b9/ML17-Lecture12.pdf 10 мая, "Методы восстановления регрессии"] <br/> | 12. [http://mit.spbau.ru/sewiki/images/b/b9/ML17-Lecture12.pdf 10 мая, "Методы восстановления регрессии"] <br/> | ||
13. [http://mit.spbau.ru/sewiki/images/e/e6/ML17-Lecture13.pdf 17 мая, "Ансамбли"] <br/> | 13. [http://mit.spbau.ru/sewiki/images/e/e6/ML17-Lecture13.pdf 17 мая, "Ансамбли"] <br/> | ||
+ | |||
+ | == Вопросы к экзамену. == | ||
+ | |||
+ | [http://mit.spbau.ru/sewiki/images/4/47/ML17-ExamQuestions.pdf Вопросы] | ||
+ | |||
<!-- | <!-- | ||
== Комментарии к лекциям == | == Комментарии к лекциям == | ||
Строка 21: | Строка 26: | ||
В лекции использовано [https://en.wikipedia.org/wiki/Singular_value_decomposition#Reduced_SVDs "экономное"(усечённое) сингулярное разложение] <br/> | В лекции использовано [https://en.wikipedia.org/wiki/Singular_value_decomposition#Reduced_SVDs "экономное"(усечённое) сингулярное разложение] <br/> | ||
Размер матрицы V (l x n). Для неквадратных матриц условие ортогональности раздельное по строкам и столбцам. Таким образом из условия V^T V = I не следует что V V^T = I (см [https://en.wikipedia.org/wiki/Orthogonal_matrix#Rectangular_matrices здесь]) | Размер матрицы V (l x n). Для неквадратных матриц условие ортогональности раздельное по строкам и столбцам. Таким образом из условия V^T V = I не следует что V V^T = I (см [https://en.wikipedia.org/wiki/Orthogonal_matrix#Rectangular_matrices здесь]) | ||
− | |||
== Конспекты лекций == | == Конспекты лекций == | ||
+ | 1. [https://docs.google.com/document/d/126_M60TvnTRgHW3S1qLnpjIUcnUaXhGQ4TGQ_iFJVzc/edit?usp=sharing "Введение"]<br/> | ||
2. [https://docs.google.com/document/d/1GmnQmxNrbx-BHGCMTW7b17XktLZdcQa1p3e0nIfoVVE/edit?usp=sharing "Метрические методы классификации"] <br/> | 2. [https://docs.google.com/document/d/1GmnQmxNrbx-BHGCMTW7b17XktLZdcQa1p3e0nIfoVVE/edit?usp=sharing "Метрические методы классификации"] <br/> | ||
− | 3. "Кластеризация"<br/> | + | 3. [https://docs.google.com/document/d/1q4FK7iDpWr-vGsJQV68ugMTzqLRhAzK0JERu99ySWSM/edit?usp=sharing "Кластеризация"] <br/> |
4. [https://docs.google.com/document/d/1eoJGEsMZ1Oooo-4nLMh7JtwvHKJW_eZEmZGb7b3ToLY/edit?usp=sharing "Деревья принятия решений"] <br/> | 4. [https://docs.google.com/document/d/1eoJGEsMZ1Oooo-4nLMh7JtwvHKJW_eZEmZGb7b3ToLY/edit?usp=sharing "Деревья принятия решений"] <br/> | ||
5. [https://docs.google.com/document/d/1gwH3qHSr-W5ObXP9it0ggK-794sF21sHBMI7tx_edpU/edit?usp=sharing "Байесовские методы классификации"] <br/> | 5. [https://docs.google.com/document/d/1gwH3qHSr-W5ObXP9it0ggK-794sF21sHBMI7tx_edpU/edit?usp=sharing "Байесовские методы классификации"] <br/> | ||
− | 6. [https://docs.google.com/document/d/ | + | 6. [https://docs.google.com/document/d/1alG1KUyUId7QzMQVi-r8-Qnb5ziqTt50Nltevr5rcM0/edit?usp=sharing "Линейные методы классификации"]<br/> |
− | 7. [https://docs.google.com/document/d/1KDGwcARgqjRO73c8xpZIZlisKTxnkdm29EU4voHm25k/edit?usp=sharing "Способность к обобщению"] | + | 7. [https://docs.google.com/document/d/1KDGwcARgqjRO73c8xpZIZlisKTxnkdm29EU4voHm25k/edit?usp=sharing "Способность к обобщению"]<br/> |
8. [https://docs.google.com/document/d/1ALiZc87qNfQ1IFS2_DbXxQi2SHmDe-tetQh_9ViGrvY/edit?usp=sharing "Нейронные сети"]<br/> | 8. [https://docs.google.com/document/d/1ALiZc87qNfQ1IFS2_DbXxQi2SHmDe-tetQh_9ViGrvY/edit?usp=sharing "Нейронные сети"]<br/> | ||
9. [https://docs.google.com/document/d/15ZknT85Stzrq4JbCgPtlk3aCP_3PeAV2y_VJg9fea3Q/edit?usp=sharing "Метод опорных векторов"]<br/> | 9. [https://docs.google.com/document/d/15ZknT85Stzrq4JbCgPtlk3aCP_3PeAV2y_VJg9fea3Q/edit?usp=sharing "Метод опорных векторов"]<br/> | ||
− | 10. "Линейная регрессия" <br/> | + | 10. [https://docs.google.com/document/d/1_alGuG7SJSugYj44eOJj-CZZnzxcaHutjIPj_5UsrFo/edit?usp=sharing "Линейная регрессия"] <br/> |
11. [https://docs.google.com/document/d/1T3qOWULlVxz9NdHPN4OiD25ojoR2NC8t2j7c2f7Bq4o/edit?usp=sharing "Анализ смещения и разброса"]<br/> | 11. [https://docs.google.com/document/d/1T3qOWULlVxz9NdHPN4OiD25ojoR2NC8t2j7c2f7Bq4o/edit?usp=sharing "Анализ смещения и разброса"]<br/> | ||
− | 12. [https://docs.google.com/document/d/1fBT35KzkO6tEgNyHkpvK_dN3RWS5XCIlpR4n_TcuzbE/edit?usp=sharing "Восстановление регрессии"] | + | 12. [https://docs.google.com/document/d/1fBT35KzkO6tEgNyHkpvK_dN3RWS5XCIlpR4n_TcuzbE/edit?usp=sharing "Восстановление регрессии"]<br/> |
− | 13. "Ансамбли" | + | 13. [https://docs.google.com/document/d/1DgHZh5stZAuSGxZDbFpDAqfHPrtx8GL1THeewEVQzqE/edit?usp=sharing "Ансамбли"] <br/> |
− | <br/> | + | |
<br/> | <br/> | ||
Конспект ведут Надежда Бугакова, Анастасия Гайдашенко, Александра Малышева и Ольга Черникова. <br/> | Конспект ведут Надежда Бугакова, Анастасия Гайдашенко, Александра Малышева и Ольга Черникова. <br/> | ||
Комментарии и правки приветствуются.<br/> | Комментарии и правки приветствуются.<br/> | ||
+ | --> | ||
+ | <!-- | ||
== Домашние задания. == | == Домашние задания. == | ||
Адрес, на который надо присылать решения -- '''machine.teaching@gmail.com'''. <br/> | Адрес, на который надо присылать решения -- '''machine.teaching@gmail.com'''. <br/> | ||
Строка 94: | Строка 100: | ||
Условие — [http://mit.spbau.ru/sewiki/images/c/c0/ML17-Homework8.pdf Домашнее задание 8]<br/> | Условие — [http://mit.spbau.ru/sewiki/images/c/c0/ML17-Homework8.pdf Домашнее задание 8]<br/> | ||
<br/> | <br/> | ||
− | + | <!-- | |
[https://github.com/ktisha/ML2017/tree/master/additional/gold Примеры решений] | [https://github.com/ktisha/ML2017/tree/master/additional/gold Примеры решений] | ||
+ | |||
== Летучки в начале лекции. == | == Летучки в начале лекции. == | ||
Строка 115: | Строка 122: | ||
[https://docs.google.com/spreadsheets/d/1VaKxuDH1Otwuwcjc2JtFTfrwrmJ5man8e7ccCJA4jKU/edit?usp=sharing Результаты] | [https://docs.google.com/spreadsheets/d/1VaKxuDH1Otwuwcjc2JtFTfrwrmJ5man8e7ccCJA4jKU/edit?usp=sharing Результаты] | ||
<br/> | <br/> | ||
+ | |||
+ | --> | ||
12 опросов по 5 баллов в начале лекции. <br/> | 12 опросов по 5 баллов в начале лекции. <br/> |
Текущая версия на 13:33, 10 февраля 2018
Лекции — Екатерина Тузова (kt@jetbrains.com)
Содержание
Лекции
1. 15 февраля, "Введение"
2. 22 февраля, "Метрические классификаторы"
3. 1 марта, "Кластеризация"
4. 15 марта, "Деревья принятия решений"
5. 22 марта, "Байесовские методы классификации"
6. 29 марта, "Перцептрон"
7. 5 апреля, "Способность к обобщению"
8. 12 апреля, "Нейронные сети"
9. 19 апреля, "Метод опорных векторов"
10. 26 апреля, "Линейная регрессия"
11. 3 мая, "Анализ смещения и разброса"
12. 10 мая, "Методы восстановления регрессии"
13. 17 мая, "Ансамбли"
Вопросы к экзамену.
12 опросов по 5 баллов в начале лекции.
8 домашних заданий по 20 баллов при сдаче в первую неделю, 10 баллов при сдаче во вторую неделю.
Экзамен 180 баллов
Оценки за курс: 300 баллов -- отлично, 250 баллов -- хорошо, 200 баллов -- удовлетворительно
Дополнительные источники по машинному обучению
- Christopher M. Bishop "Pattern Recognition and Machine Learning"
- G. James, D. Witten, T. Hastie, R. Tibshirani: "An Introduction to Statistical Learning"
- Kevin P. Murphy "Machine Learning: A Probabilistic Perspective"
- Professor Yaser Abu-Mostafa MOOC
- К.В. Воронцов: MOOC, материалы (в т.ч. пособие)
- Andrew Ng http://ml-class.org/
- Примеры реализации алгоритмов на Python: Программируем коллективный разум
- Ullman, Leskovec, Rajaraman "Mining of Massive Datasets"