Методы оптимизации 3MIT осень 2017 — различия между версиями

Материал из SEWiki
Перейти к: навигация, поиск
(Практика)
(Лекции)
Строка 9: Строка 9:
 
*[[Медиа:07_gradient_descent.pdf|06. Градиентный спуск]]
 
*[[Медиа:07_gradient_descent.pdf|06. Градиентный спуск]]
 
*[[Медиа:09_matrix_decompositions.pdf|07.  Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов]]
 
*[[Медиа:09_matrix_decompositions.pdf|07.  Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов]]
 +
*[[Медиа:10_gradient_optimal.pdf|08. Оптимальные градиентные методы (метод Нестерова)]]
 +
*[[Медиа:08_newton_method.pdf|09. Метод Ньютона.]]
  
 
== Практика ==
 
== Практика ==

Версия 07:47, 23 ноября 2017

Преподаватель: Мальковский Н. В.

Лекции

Практика

malkovsky.nikolay@gmail.com


Результаты

Вопросы к экзамену с прошлого семестра

Рекомендованная литература

Поляк Б.Т. Введение в оптимизацию

Нестеров Ю.Е. Методы выпуклой оптимизации

Boyd S., Vandenberghe L. Convex optimization

Luenberger D., Ye Y. Linear and nonlinear programming

Шарый С.П. Курс вычислительных методов

Граничин О. Н., Поляк Б. Т. Рандомизированные алгоритмы оценивания и оптимизации при почти произвольных помехах