Машинное обучение 2017 — различия между версиями

Материал из SEWiki
Перейти к: навигация, поиск
 
(не показано 8 промежуточных версий 2 участников)
Строка 15: Строка 15:
 
12. [http://mit.spbau.ru/sewiki/images/b/b9/ML17-Lecture12.pdf 10 мая, "Методы восстановления регрессии"] <br/>
 
12. [http://mit.spbau.ru/sewiki/images/b/b9/ML17-Lecture12.pdf 10 мая, "Методы восстановления регрессии"] <br/>
 
13. [http://mit.spbau.ru/sewiki/images/e/e6/ML17-Lecture13.pdf 17 мая, "Ансамбли"] <br/>
 
13. [http://mit.spbau.ru/sewiki/images/e/e6/ML17-Lecture13.pdf 17 мая, "Ансамбли"] <br/>
 +
 +
== Вопросы к экзамену. ==
 +
 +
[http://mit.spbau.ru/sewiki/images/4/47/ML17-ExamQuestions.pdf Вопросы]
 +
 
<!--  
 
<!--  
 
== Комментарии к лекциям ==
 
== Комментарии к лекциям ==
Строка 21: Строка 26:
 
В лекции использовано [https://en.wikipedia.org/wiki/Singular_value_decomposition#Reduced_SVDs "экономное"(усечённое) сингулярное разложение] <br/>
 
В лекции использовано [https://en.wikipedia.org/wiki/Singular_value_decomposition#Reduced_SVDs "экономное"(усечённое) сингулярное разложение] <br/>
 
Размер матрицы V (l x n). Для неквадратных матриц условие ортогональности раздельное по строкам и столбцам. Таким образом из условия V^T V = I не следует что V V^T = I (см [https://en.wikipedia.org/wiki/Orthogonal_matrix#Rectangular_matrices здесь])
 
Размер матрицы V (l x n). Для неквадратных матриц условие ортогональности раздельное по строкам и столбцам. Таким образом из условия V^T V = I не следует что V V^T = I (см [https://en.wikipedia.org/wiki/Orthogonal_matrix#Rectangular_matrices здесь])
-->
 
  
 
== Конспекты лекций ==
 
== Конспекты лекций ==
  
 +
1. [https://docs.google.com/document/d/126_M60TvnTRgHW3S1qLnpjIUcnUaXhGQ4TGQ_iFJVzc/edit?usp=sharing "Введение"]<br/>
 
2. [https://docs.google.com/document/d/1GmnQmxNrbx-BHGCMTW7b17XktLZdcQa1p3e0nIfoVVE/edit?usp=sharing "Метрические методы классификации"] <br/>
 
2. [https://docs.google.com/document/d/1GmnQmxNrbx-BHGCMTW7b17XktLZdcQa1p3e0nIfoVVE/edit?usp=sharing "Метрические методы классификации"] <br/>
 
3. [https://docs.google.com/document/d/1q4FK7iDpWr-vGsJQV68ugMTzqLRhAzK0JERu99ySWSM/edit?usp=sharing "Кластеризация"] <br/>
 
3. [https://docs.google.com/document/d/1q4FK7iDpWr-vGsJQV68ugMTzqLRhAzK0JERu99ySWSM/edit?usp=sharing "Кластеризация"] <br/>
 
4. [https://docs.google.com/document/d/1eoJGEsMZ1Oooo-4nLMh7JtwvHKJW_eZEmZGb7b3ToLY/edit?usp=sharing "Деревья принятия решений"] <br/>
 
4. [https://docs.google.com/document/d/1eoJGEsMZ1Oooo-4nLMh7JtwvHKJW_eZEmZGb7b3ToLY/edit?usp=sharing "Деревья принятия решений"] <br/>
 
5. [https://docs.google.com/document/d/1gwH3qHSr-W5ObXP9it0ggK-794sF21sHBMI7tx_edpU/edit?usp=sharing "Байесовские методы классификации"] <br/>
 
5. [https://docs.google.com/document/d/1gwH3qHSr-W5ObXP9it0ggK-794sF21sHBMI7tx_edpU/edit?usp=sharing "Байесовские методы классификации"] <br/>
6. [https://docs.google.com/document/d/1gwH3qHSr-W5ObXP9it0ggK-794sF21sHBMI7tx_edpU/edit?usp=sharing "Линейные методы классификации"]<br/>
+
6. [https://docs.google.com/document/d/1alG1KUyUId7QzMQVi-r8-Qnb5ziqTt50Nltevr5rcM0/edit?usp=sharing "Линейные методы классификации"]<br/>
 
7. [https://docs.google.com/document/d/1KDGwcARgqjRO73c8xpZIZlisKTxnkdm29EU4voHm25k/edit?usp=sharing "Способность к обобщению"]<br/>
 
7. [https://docs.google.com/document/d/1KDGwcARgqjRO73c8xpZIZlisKTxnkdm29EU4voHm25k/edit?usp=sharing "Способность к обобщению"]<br/>
 
8. [https://docs.google.com/document/d/1ALiZc87qNfQ1IFS2_DbXxQi2SHmDe-tetQh_9ViGrvY/edit?usp=sharing "Нейронные сети"]<br/>
 
8. [https://docs.google.com/document/d/1ALiZc87qNfQ1IFS2_DbXxQi2SHmDe-tetQh_9ViGrvY/edit?usp=sharing "Нейронные сети"]<br/>
 
9. [https://docs.google.com/document/d/15ZknT85Stzrq4JbCgPtlk3aCP_3PeAV2y_VJg9fea3Q/edit?usp=sharing "Метод опорных векторов"]<br/>
 
9. [https://docs.google.com/document/d/15ZknT85Stzrq4JbCgPtlk3aCP_3PeAV2y_VJg9fea3Q/edit?usp=sharing "Метод опорных векторов"]<br/>
10. "Линейная регрессия" <br/>
+
10. [https://docs.google.com/document/d/1_alGuG7SJSugYj44eOJj-CZZnzxcaHutjIPj_5UsrFo/edit?usp=sharing "Линейная регрессия"] <br/>
 
11. [https://docs.google.com/document/d/1T3qOWULlVxz9NdHPN4OiD25ojoR2NC8t2j7c2f7Bq4o/edit?usp=sharing "Анализ смещения и разброса"]<br/>
 
11. [https://docs.google.com/document/d/1T3qOWULlVxz9NdHPN4OiD25ojoR2NC8t2j7c2f7Bq4o/edit?usp=sharing "Анализ смещения и разброса"]<br/>
 
12. [https://docs.google.com/document/d/1fBT35KzkO6tEgNyHkpvK_dN3RWS5XCIlpR4n_TcuzbE/edit?usp=sharing "Восстановление регрессии"]<br/>
 
12. [https://docs.google.com/document/d/1fBT35KzkO6tEgNyHkpvK_dN3RWS5XCIlpR4n_TcuzbE/edit?usp=sharing "Восстановление регрессии"]<br/>
13. "Ансамбли" <br/>
+
13. [https://docs.google.com/document/d/1DgHZh5stZAuSGxZDbFpDAqfHPrtx8GL1THeewEVQzqE/edit?usp=sharing "Ансамбли"] <br/>
 
<br/>
 
<br/>
 
Конспект ведут Надежда Бугакова, Анастасия Гайдашенко, Александра Малышева и Ольга Черникова. <br/>
 
Конспект ведут Надежда Бугакова, Анастасия Гайдашенко, Александра Малышева и Ольга Черникова. <br/>
 
Комментарии и правки приветствуются.<br/>
 
Комментарии и правки приветствуются.<br/>
 +
-->
  
 +
<!--
 
== Домашние задания. ==
 
== Домашние задания. ==
 
Адрес, на который надо присылать решения -- '''machine.teaching@gmail.com'''. <br/>
 
Адрес, на который надо присылать решения -- '''machine.teaching@gmail.com'''. <br/>
Строка 93: Строка 100:
 
Условие — [http://mit.spbau.ru/sewiki/images/c/c0/ML17-Homework8.pdf Домашнее задание 8]<br/>
 
Условие — [http://mit.spbau.ru/sewiki/images/c/c0/ML17-Homework8.pdf Домашнее задание 8]<br/>
 
<br/>
 
<br/>
 
+
<!--
 
[https://github.com/ktisha/ML2017/tree/master/additional/gold Примеры решений]
 
[https://github.com/ktisha/ML2017/tree/master/additional/gold Примеры решений]
 +
  
 
== Летучки в начале лекции. ==
 
== Летучки в начале лекции. ==
Строка 114: Строка 122:
 
[https://docs.google.com/spreadsheets/d/1VaKxuDH1Otwuwcjc2JtFTfrwrmJ5man8e7ccCJA4jKU/edit?usp=sharing Результаты]
 
[https://docs.google.com/spreadsheets/d/1VaKxuDH1Otwuwcjc2JtFTfrwrmJ5man8e7ccCJA4jKU/edit?usp=sharing Результаты]
 
<br/>
 
<br/>
 +
 +
-->
  
 
12 опросов по 5 баллов в начале лекции. <br/>
 
12 опросов по 5 баллов в начале лекции. <br/>

Текущая версия на 13:33, 10 февраля 2018

Лекции — Екатерина Тузова (kt@jetbrains.com)

Лекции

1. 15 февраля, "Введение"
2. 22 февраля, "Метрические классификаторы"
3. 1 марта, "Кластеризация"
4. 15 марта, "Деревья принятия решений"
5. 22 марта, "Байесовские методы классификации"
6. 29 марта, "Перцептрон"
7. 5 апреля, "Способность к обобщению"
8. 12 апреля, "Нейронные сети"
9. 19 апреля, "Метод опорных векторов"
10. 26 апреля, "Линейная регрессия"
11. 3 мая, "Анализ смещения и разброса"
12. 10 мая, "Методы восстановления регрессии"
13. 17 мая, "Ансамбли"

Вопросы к экзамену.

Вопросы


12 опросов по 5 баллов в начале лекции.
8 домашних заданий по 20 баллов при сдаче в первую неделю, 10 баллов при сдаче во вторую неделю.
Экзамен 180 баллов

Оценки за курс: 300 баллов -- отлично, 250 баллов -- хорошо, 200 баллов -- удовлетворительно

Дополнительные источники по машинному обучению

Дополнительные источники по Python