<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://mit.spbau.ru/sewiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mstepanov</id>
		<title>SEWiki - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://mit.spbau.ru/sewiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mstepanov"/>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php/%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/Mstepanov"/>
		<updated>2026-05-11T19:14:24Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.26.2</generator>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Tyspochkin_lecture_6.pdf&amp;diff=2311</id>
		<title>Файл:Tyspochkin lecture 6.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Tyspochkin_lecture_6.pdf&amp;diff=2311"/>
				<updated>2013-04-10T05:55:18Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2310</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2310"/>
				<updated>2013-04-10T05:54:54Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 03.04 [[Медиа: Tyspochkin_lecture_6.pdf| Лекция 6]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice3.pdf|Лекция 3]]&lt;br /&gt;
&lt;br /&gt;
== Домашние задания: ==&lt;br /&gt;
&lt;br /&gt;
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку &amp;quot;spbau homework&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Результаты можно смотреть здесь [https://docs.google.com/spreadsheet/ccc?key=0AtL8IIKsBdYBdFQtdnJzU2xfUjJ5QjhLb3hkdVJtdFE]&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013. &lt;br /&gt;
&lt;br /&gt;
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции.&lt;br /&gt;
Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2309</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2309"/>
				<updated>2013-04-10T05:54:43Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 03.04 [[Медиа: Tyspochkin_lecture_6.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice3.pdf|Лекция 3]]&lt;br /&gt;
&lt;br /&gt;
== Домашние задания: ==&lt;br /&gt;
&lt;br /&gt;
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку &amp;quot;spbau homework&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Результаты можно смотреть здесь [https://docs.google.com/spreadsheet/ccc?key=0AtL8IIKsBdYBdFQtdnJzU2xfUjJ5QjhLb3hkdVJtdFE]&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013. &lt;br /&gt;
&lt;br /&gt;
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции.&lt;br /&gt;
Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2293</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2293"/>
				<updated>2013-04-02T19:39:42Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice3.pdf|Лекция 3]]&lt;br /&gt;
&lt;br /&gt;
== Домашние задания: ==&lt;br /&gt;
&lt;br /&gt;
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку &amp;quot;spbau homework&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Результаты можно смотреть здесь [https://docs.google.com/spreadsheet/ccc?key=0AtL8IIKsBdYBdFQtdnJzU2xfUjJ5QjhLb3hkdVJtdFE]&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013. &lt;br /&gt;
&lt;br /&gt;
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции.&lt;br /&gt;
Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Ml_practice3.pdf&amp;diff=2292</id>
		<title>Файл:Ml practice3.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Ml_practice3.pdf&amp;diff=2292"/>
				<updated>2013-04-02T10:37:00Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2291</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2291"/>
				<updated>2013-04-02T10:36:39Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice3.pdf|Лекция 3]]&lt;br /&gt;
&lt;br /&gt;
== Домашние задания: ==&lt;br /&gt;
&lt;br /&gt;
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку &amp;quot;spbau homework&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013. &lt;br /&gt;
&lt;br /&gt;
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции.&lt;br /&gt;
Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2272</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2272"/>
				<updated>2013-03-24T20:00:50Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
== Домашние задания: ==&lt;br /&gt;
&lt;br /&gt;
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку &amp;quot;spbau homework&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013. &lt;br /&gt;
&lt;br /&gt;
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции.&lt;br /&gt;
Также, прошу обратить внимание на типы входных данных. Когда вместо необходимого data.frame в решении подразумевается матрица, гораздо сложнее проверять.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2269</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2269"/>
				<updated>2013-03-21T15:06:21Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: /* Домашние задания: */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
== Домашние задания: ==&lt;br /&gt;
&lt;br /&gt;
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку &amp;quot;spbau homework&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013. &lt;br /&gt;
&lt;br /&gt;
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически и реализовать это аналитическое решение в коде соответствующей функции.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2268</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2268"/>
				<updated>2013-03-21T15:01:39Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
== Домашние задания: ==&lt;br /&gt;
&lt;br /&gt;
Домашние задания можно присылать на Konstantin.Tyapochkin@emc.com В теме письма добавьте строку &amp;quot;spbau homework&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013. &lt;br /&gt;
&lt;br /&gt;
Уточнение: Для того, чтобы задание было полностью зачтено, необходимо в том числе и решить одномерную задачу оптимизации для наискорейшего градиентного спуска аналитически.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2267</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2267"/>
				<updated>2013-03-20T17:34:26Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: /* Лекции */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 5]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2266</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2266"/>
				<updated>2013-03-20T17:34:11Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: /* Лекции */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 20.03 [[Медиа: Stepanov_lecture_5.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Stepanov_lecture_5.pdf&amp;diff=2265</id>
		<title>Файл:Stepanov lecture 5.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Stepanov_lecture_5.pdf&amp;diff=2265"/>
				<updated>2013-03-20T17:26:27Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2246</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2246"/>
				<updated>2013-03-12T20:27:22Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: /* Лекции */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
&lt;br /&gt;
[[Медиа: kr_1.pdf|Самостоятельная работа 1]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Kr_1.pdf&amp;diff=2245</id>
		<title>Файл:Kr 1.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Kr_1.pdf&amp;diff=2245"/>
				<updated>2013-03-12T20:25:56Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2244</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2244"/>
				<updated>2013-03-12T20:25:29Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: /* Лекции */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекция 3]].&lt;br /&gt;
Слайды к лекции от 13.03 [[Медиа: Stepanov_lecture_4.pdf| Лекция 4]].&lt;br /&gt;
Самостоятельная работа 1 13.03 [[Медиа: | ]]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Stepanov_lecture_4.pdf&amp;diff=2243</id>
		<title>Файл:Stepanov lecture 4.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Stepanov_lecture_4.pdf&amp;diff=2243"/>
				<updated>2013-03-12T20:23:28Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2242</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2242"/>
				<updated>2013-03-12T17:18:00Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: /* Лекции */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_3.pdf| Лекции 3]].&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2241</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2241"/>
				<updated>2013-03-12T17:17:35Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_stepanov_3.pdf| Лекции 3]].&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2240</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2240"/>
				<updated>2013-03-12T17:17:01Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: /* Лекции */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_stepanov_3.pdf| Лекции 3]].&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2239</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2239"/>
				<updated>2013-03-12T17:16:36Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: /* Лекции */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
Слайды к лекции от 06.03 [[Медиа:lecture_stepanov_3.pdf| Лекции 3]].&lt;br /&gt;
&lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Lecture_3.pdf&amp;diff=2238</id>
		<title>Файл:Lecture 3.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Lecture_3.pdf&amp;diff=2238"/>
				<updated>2013-03-12T17:15:35Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: загружена новая версия «Файл:Lecture 3.pdf»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Lecture_3.pdf&amp;diff=2237</id>
		<title>Файл:Lecture 3.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Lecture_3.pdf&amp;diff=2237"/>
				<updated>2013-03-12T17:08:11Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2236</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2236"/>
				<updated>2013-03-12T17:07:16Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf| Лекции 1,2]]. &lt;br /&gt;
&lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2229</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2229"/>
				<updated>2013-03-06T12:05:46Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. &lt;br /&gt;
&lt;br /&gt;
Материал, изложенный в лекции, так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2228</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2228"/>
				<updated>2013-03-06T11:44:25Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2227</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2227"/>
				<updated>2013-03-06T11:39:42Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]] Для тех, кто хочет вспомнить/улучшить знания по теории вероятностей и статистике, предлагается книга &amp;lt;ref&amp;gt;Бородин, Элементарный курс теории вероятностей и математической статистики&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]] Дополнительный материал можно найти в книге &lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&amp;lt;ref name=&amp;quot;borodin&amp;quot;&amp;gt;Бородин, Элементарный курс теории вероятностей и математической статистики&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;faraway&amp;quot;&amp;gt;Julian J. Faraway, Linear models with R&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2226</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2226"/>
				<updated>2013-03-06T11:37:37Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]] Для тех, кто хочет вспомнить/улучшить знания по теории вероятностей и статистике, предлагается книга &amp;lt;ref&amp;gt;Бородин, Элементарный курс теории вероятностей и математической статистики&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]] Дополнительный материал можно найти в книге &lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;br /&gt;
&lt;br /&gt;
== Примечания ==&lt;br /&gt;
{{примечания}}&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2225</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2225"/>
				<updated>2013-03-06T11:36:45Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]] Для тех, кто хочет вспомнить/улучшить знания по теории вероятностей и статистике, предлагается книга &amp;lt;ref&amp;gt;Бородин, Элементарный курс теории вероятностей и математической статистики&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]] Дополнительный материал можно найти в книге &lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2224</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2224"/>
				<updated>2013-03-06T11:30:15Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
*Бородин, Элементарный курс теории вероятностей и математической статистики&lt;br /&gt;
*Julian J. Faraway, Linear models with R&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:House_cost.txt.bz2&amp;diff=2223</id>
		<title>Файл:House cost.txt.bz2</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:House_cost.txt.bz2&amp;diff=2223"/>
				<updated>2013-03-06T11:26:17Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2222</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2222"/>
				<updated>2013-03-06T11:26:07Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt.bz2|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2221</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2221"/>
				<updated>2013-03-06T11:24:47Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost|house_cost]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Ml_practice_lab1.pdf&amp;diff=2220</id>
		<title>Файл:Ml practice lab1.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Ml_practice_lab1.pdf&amp;diff=2220"/>
				<updated>2013-03-06T11:22:55Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2219</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2219"/>
				<updated>2013-03-06T11:22:42Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt|house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2218</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2218"/>
				<updated>2013-03-06T11:22:14Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
1)[[Медиа:ml_practice_lab1.pdf|Задание 1]],[[Медиа:house_cost.txt]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2217</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2217"/>
				<updated>2013-03-06T11:18:31Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice_lab1.tar|Задание 1]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2216</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2216"/>
				<updated>2013-03-06T11:16:27Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice_lab1.zip|Задание 1]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2215</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2215"/>
				<updated>2013-03-06T11:15:47Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice_lab1.7z|Задание 1]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2214</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2214"/>
				<updated>2013-03-06T11:13:40Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice_lab1.zip|Задание 1]] - последний срок сдачи 23:59 27.03.2013.&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Ml_practice2.pdf&amp;diff=2213</id>
		<title>Файл:Ml practice2.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Ml_practice2.pdf&amp;diff=2213"/>
				<updated>2013-03-06T11:09:09Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Ml_practice1.pdf&amp;diff=2212</id>
		<title>Файл:Ml practice1.pdf</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:Ml_practice1.pdf&amp;diff=2212"/>
				<updated>2013-03-06T11:06:30Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2211</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2211"/>
				<updated>2013-03-06T11:05:53Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf|Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice_lab1.zip|Задание 1]]&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2210</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2210"/>
				<updated>2013-03-06T11:05:08Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice1.pdf|Лекция1]]&lt;br /&gt;
&lt;br /&gt;
[[Медиа:ml_practice2.pdf]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice_lab1.zip]]&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2209</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2209"/>
				<updated>2013-03-06T11:04:14Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice1.pdf| Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice2.pdf| Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice_lab1.zip| Задание 1]]&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2208</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2208"/>
				<updated>2013-03-06T11:03:54Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice1.pdf Лекция 1]]&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice2.pdf Лекция 2]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice_lab1.zip Задание 1]]&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2207</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2207"/>
				<updated>2013-03-06T11:01:43Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice1.pdf]]&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice2.pdf]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Файл:ml_practice_lab1.zip]]&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2206</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2206"/>
				<updated>2013-03-06T10:58:58Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
&lt;br /&gt;
[[Файл:lecture1.pdf]]&lt;br /&gt;
&lt;br /&gt;
[[Файл:lecture2.pdf]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Файл:lab1.zip]]&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2205</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2205"/>
				<updated>2013-03-06T10:58:44Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
[[Файл:lecture1.pdf]]&lt;br /&gt;
&lt;br /&gt;
[[Файл:lecture2.pdf]]&lt;br /&gt;
&lt;br /&gt;
Домашние задания:&lt;br /&gt;
&lt;br /&gt;
[[Файл:lab1.zip]]&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2204</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2204"/>
				<updated>2013-03-06T10:58:14Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил, &lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
Лекции:&lt;br /&gt;
[[Файл:lecture1.pdf]]&lt;br /&gt;
[[Файл:lecture1.pdf]]&lt;br /&gt;
Домашние задания:&lt;br /&gt;
[[Файл:lab1.zip]]&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	<entry>
		<id>http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2189</id>
		<title>MachineLearning 2013</title>
		<link rel="alternate" type="text/html" href="http://mit.spbau.ru/sewiki/index.php?title=MachineLearning_2013&amp;diff=2189"/>
				<updated>2013-02-27T11:03:07Z</updated>
		
		<summary type="html">&lt;p&gt;Mstepanov: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Лектор - Степанов Михаил&lt;br /&gt;
Практика - Тяпочкин Константин&lt;br /&gt;
&lt;br /&gt;
== Лекции ==&lt;br /&gt;
Слайды к лекции от 20.02, 27.02 [[Медиа:lecture_stepanov_1_2.pdf]]. Материал, изложенный в лекции так же доступен [http://cs229.stanford.edu/notes/cs229-notes1.pdf]&lt;br /&gt;
&lt;br /&gt;
== Практические задания ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Программа курса ==&lt;br /&gt;
*Методы визуализации и анализа&lt;br /&gt;
*Линейные модели&lt;br /&gt;
**Линейная регрессия&lt;br /&gt;
**Логистическая регрессия&lt;br /&gt;
**Обощенные линейные модели&lt;br /&gt;
**Регуляризация&lt;br /&gt;
*Классификация&lt;br /&gt;
**Наивный байес&lt;br /&gt;
**Деревья принятия решений, случайный лес &lt;br /&gt;
**Нейронные сети и алгоритм обратного распространени¤ ошибок&lt;br /&gt;
**Метод опорных векторов (SVM)&lt;br /&gt;
**AdaBoost&lt;br /&gt;
*Рекомендации по использованию алгоритмов машинного обучения&lt;br /&gt;
**Выбор модели&lt;br /&gt;
**Компромисc смещения-дисперсии (bias-variance trade-off)&lt;br /&gt;
**Кривая обучения&lt;br /&gt;
*Кластеризация&lt;br /&gt;
**Метод к-средних(k-means)&lt;br /&gt;
**EM-алгоритм&lt;br /&gt;
**Иерархические методы&lt;br /&gt;
**Рекомендации по использованию методов кластеризации&lt;br /&gt;
*Методы понижения размерности данных&lt;br /&gt;
**Метод главных компонент (PCA)&lt;br /&gt;
**Многомерное шкалирование&lt;br /&gt;
*Методы поиска аномалий в данных&lt;br /&gt;
*Рекомендательные системы&lt;br /&gt;
*Методы работы с большими объемами данных с использованием MapReduce&lt;br /&gt;
&lt;br /&gt;
== Список литературы ==&lt;br /&gt;
*Christopher M. Bishop, Pattern Recognition and Machine Learning&lt;br /&gt;
*Andrew Ng, Lecture notes, Machine Learning[http://cs229.stanford.edu/materials.html]&lt;br /&gt;
*Воронцов К.В., Машинное обучение (курс лекций)[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(%D0%BA%D1%83%D1%80%D1%81_%D0%BB%D0%B5%D0%BA%D1%86%D0%B8%D0%B9%2C_%D0%9A.%D0%92.%D0%92%D0%BE%D1%80%D0%BE%D0%BD%D1%86%D0%BE%D0%B2)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Ссылки ==&lt;/div&gt;</summary>
		<author><name>Mstepanov</name></author>	</entry>

	</feed>