Методы оптимизации 3MIT осень 2017 — различия между версиями

Материал из SEWiki
Перейти к: навигация, поиск
(Практика)
(Практика)
 
(не показано 36 промежуточных версий этого же участника)
Строка 4: Строка 4:
 
*[[Медиа:02_linear_algebra.pdf|01. Линейная алгебра]]
 
*[[Медиа:02_linear_algebra.pdf|01. Линейная алгебра]]
 
*[[Медиа:03_intro_analysis.pdf|02. Элементы выпуклого анализа]]
 
*[[Медиа:03_intro_analysis.pdf|02. Элементы выпуклого анализа]]
 +
*[[Медиа:05_iterative_schemes.pdf|03. Рекуррентные схемы]]
 +
*[[Медиа:04_KKT_cond.pdf|04. Метод множителей Лагранжа и Условия Каруша-Куна-Такера]]
 +
*[[Медиа:06_simple_methods.pdf|05. Бисекция и трисекция]]
 +
*[[Медиа:07_gradient_descent.pdf|06. Градиентный спуск]]
 +
*[[Медиа:09_matrix_decompositions.pdf|07.  Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов]]
 +
*[[Медиа:10_gradient_optimal.pdf|08. Оптимальные градиентные методы (метод Нестерова)]]
 +
*[[Медиа:08_Newton_method.pdf|09. Метод Ньютона]]
 +
*[[Медиа:11_subgradient.pdf|10. Субградиент и субградиенный спуск]]
 +
*[[Медиа:12_constraint_methods.pdf|11. Базовые методы для задач с ограничениями]]
  
 
== Практика ==
 
== Практика ==
 +
malkovsky.nikolay@gmail.com
 
*[[Медиа:01_test.pdf| 01. Задачи]] [[Медиа:01_solution.pdf| Разбор]]
 
*[[Медиа:01_test.pdf| 01. Задачи]] [[Медиа:01_solution.pdf| Разбор]]
*[[Медиа:01_homework.pdf| 02. Домашнее задание]]
+
*[[Медиа:01_homework.pdf| 02. Домашнее задание #1]]
 +
*[[Медиа:02_homework.pdf| 03. Домашнее задание #2]]
 +
*[[Медиа:03_homework.pdf| 04. Домашнее задание #3]]
 +
*[[Медиа:04_homework.pdf| 05. Домашнее задание #4]]
 +
*[[Медиа:02_test.pdf| 06. Контрольная]] [[Медиа:02_solution.pdf| Разбор]]
 +
*[[Медиа:05_homework.pdf| 07. Домашнее задание #5]]
 +
*[[Медиа:06_homework.pdf| 08. Домашнее задание #6]]
 +
*[[Медиа:07_homework.pdf| 09. Домашнее задание #7]]
 +
*[[Медиа:07_problems.pdf| 10. Задачи (многочлен Чебышева)]]
 +
*[[Медиа:08_problems.pdf| 11. Задачи (ускоренные градиентные методы)]]
 +
*[[Медиа:08_homework.pdf| 12. Домашнее задание #8]]
 +
*[[Медиа:09_problems.pdf| 13. Задачи (Субградиентный спуск)]]
 +
 
 +
 
 +
----
 +
 
 +
[https://docs.google.com/spreadsheets/d/1mbVrVXTAXcyzTDdEam3buKGPTvGX8GfzWSLNXwcyliA/edit?usp=sharing Результаты]
 +
 
 +
[[Медиа:Exam.pdf| Вопросы к экзамену]]
 +
[[Медиа:proof_hints.pdf| Идеи доказательств и выводов]]
  
 
== Рекомендованная литература ==
 
== Рекомендованная литература ==

Текущая версия на 17:51, 6 января 2018

Преподаватель: Мальковский Н. В.

Лекции

Практика

malkovsky.nikolay@gmail.com



Результаты

Вопросы к экзамену Идеи доказательств и выводов

Рекомендованная литература

Поляк Б.Т. Введение в оптимизацию

Нестеров Ю.Е. Методы выпуклой оптимизации

Boyd S., Vandenberghe L. Convex optimization

Luenberger D., Ye Y. Linear and nonlinear programming

Шарый С.П. Курс вычислительных методов

Граничин О. Н., Поляк Б. Т. Рандомизированные алгоритмы оценивания и оптимизации при почти произвольных помехах