Методы оптимизации 3MIT осень 2017 — различия между версиями
Материал из SEWiki
(→Лекции) |
(→Практика) |
||
(не показано 15 промежуточных версий этого же участника) | |||
Строка 9: | Строка 9: | ||
*[[Медиа:07_gradient_descent.pdf|06. Градиентный спуск]] | *[[Медиа:07_gradient_descent.pdf|06. Градиентный спуск]] | ||
*[[Медиа:09_matrix_decompositions.pdf|07. Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов]] | *[[Медиа:09_matrix_decompositions.pdf|07. Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов]] | ||
+ | *[[Медиа:10_gradient_optimal.pdf|08. Оптимальные градиентные методы (метод Нестерова)]] | ||
+ | *[[Медиа:08_Newton_method.pdf|09. Метод Ньютона]] | ||
+ | *[[Медиа:11_subgradient.pdf|10. Субградиент и субградиенный спуск]] | ||
+ | *[[Медиа:12_constraint_methods.pdf|11. Базовые методы для задач с ограничениями]] | ||
== Практика == | == Практика == | ||
Строка 19: | Строка 23: | ||
*[[Медиа:02_test.pdf| 06. Контрольная]] [[Медиа:02_solution.pdf| Разбор]] | *[[Медиа:02_test.pdf| 06. Контрольная]] [[Медиа:02_solution.pdf| Разбор]] | ||
*[[Медиа:05_homework.pdf| 07. Домашнее задание #5]] | *[[Медиа:05_homework.pdf| 07. Домашнее задание #5]] | ||
+ | *[[Медиа:06_homework.pdf| 08. Домашнее задание #6]] | ||
+ | *[[Медиа:07_homework.pdf| 09. Домашнее задание #7]] | ||
+ | *[[Медиа:07_problems.pdf| 10. Задачи (многочлен Чебышева)]] | ||
+ | *[[Медиа:08_problems.pdf| 11. Задачи (ускоренные градиентные методы)]] | ||
+ | *[[Медиа:08_homework.pdf| 12. Домашнее задание #8]] | ||
+ | *[[Медиа:09_problems.pdf| 13. Задачи (Субградиентный спуск)]] | ||
+ | |||
+ | |||
---- | ---- | ||
[https://docs.google.com/spreadsheets/d/1mbVrVXTAXcyzTDdEam3buKGPTvGX8GfzWSLNXwcyliA/edit?usp=sharing Результаты] | [https://docs.google.com/spreadsheets/d/1mbVrVXTAXcyzTDdEam3buKGPTvGX8GfzWSLNXwcyliA/edit?usp=sharing Результаты] | ||
+ | |||
+ | [[Медиа:Exam.pdf| Вопросы к экзамену]] | ||
+ | [[Медиа:proof_hints.pdf| Идеи доказательств и выводов]] | ||
== Рекомендованная литература == | == Рекомендованная литература == |
Текущая версия на 17:51, 6 января 2018
Преподаватель: Мальковский Н. В.
Лекции
- 01. Линейная алгебра
- 02. Элементы выпуклого анализа
- 03. Рекуррентные схемы
- 04. Метод множителей Лагранжа и Условия Каруша-Куна-Такера
- 05. Бисекция и трисекция
- 06. Градиентный спуск
- 07. Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов
- 08. Оптимальные градиентные методы (метод Нестерова)
- 09. Метод Ньютона
- 10. Субградиент и субградиенный спуск
- 11. Базовые методы для задач с ограничениями
Практика
malkovsky.nikolay@gmail.com
- 01. Задачи Разбор
- 02. Домашнее задание #1
- 03. Домашнее задание #2
- 04. Домашнее задание #3
- 05. Домашнее задание #4
- 06. Контрольная Разбор
- 07. Домашнее задание #5
- 08. Домашнее задание #6
- 09. Домашнее задание #7
- 10. Задачи (многочлен Чебышева)
- 11. Задачи (ускоренные градиентные методы)
- 12. Домашнее задание #8
- 13. Задачи (Субградиентный спуск)
Вопросы к экзамену Идеи доказательств и выводов
Рекомендованная литература
Поляк Б.Т. Введение в оптимизацию
Нестеров Ю.Е. Методы выпуклой оптимизации
Boyd S., Vandenberghe L. Convex optimization
Luenberger D., Ye Y. Linear and nonlinear programming