Методы оптимизации 3MIT осень 2017 — различия между версиями
Материал из SEWiki
(→Практика) |
(→Практика) |
||
Строка 36: | Строка 36: | ||
[[Медиа:Exam.pdf| Вопросы к экзамену]] | [[Медиа:Exam.pdf| Вопросы к экзамену]] | ||
+ | [[Медиа:proof_hints.pdf| Идеи доказательств и выводов]] | ||
== Рекомендованная литература == | == Рекомендованная литература == |
Текущая версия на 17:51, 6 января 2018
Преподаватель: Мальковский Н. В.
Лекции
- 01. Линейная алгебра
- 02. Элементы выпуклого анализа
- 03. Рекуррентные схемы
- 04. Метод множителей Лагранжа и Условия Каруша-Куна-Такера
- 05. Бисекция и трисекция
- 06. Градиентный спуск
- 07. Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов
- 08. Оптимальные градиентные методы (метод Нестерова)
- 09. Метод Ньютона
- 10. Субградиент и субградиенный спуск
- 11. Базовые методы для задач с ограничениями
Практика
malkovsky.nikolay@gmail.com
- 01. Задачи Разбор
- 02. Домашнее задание #1
- 03. Домашнее задание #2
- 04. Домашнее задание #3
- 05. Домашнее задание #4
- 06. Контрольная Разбор
- 07. Домашнее задание #5
- 08. Домашнее задание #6
- 09. Домашнее задание #7
- 10. Задачи (многочлен Чебышева)
- 11. Задачи (ускоренные градиентные методы)
- 12. Домашнее задание #8
- 13. Задачи (Субградиентный спуск)
Вопросы к экзамену Идеи доказательств и выводов
Рекомендованная литература
Поляк Б.Т. Введение в оптимизацию
Нестеров Ю.Е. Методы выпуклой оптимизации
Boyd S., Vandenberghe L. Convex optimization
Luenberger D., Ye Y. Linear and nonlinear programming