Методы оптимизации, 3 курс, 6 семестр, 2016/17 — различия между версиями
Материал из SEWiki
(→Лекции) |
(→Лекции) |
||
Строка 14: | Строка 14: | ||
*[[Медиа:11_subgradient.pdf|Субдифференциальное исчисление и субградиентный спуск]] | *[[Медиа:11_subgradient.pdf|Субдифференциальное исчисление и субградиентный спуск]] | ||
*[[Медиа:12_constraint_methods.pdf|Методы оптимизации в задачах с ограничениями]] | *[[Медиа:12_constraint_methods.pdf|Методы оптимизации в задачах с ограничениями]] | ||
+ | *[[Медиа:13_stochastic_methods.pdf|Стохастичность в задачах оптимизации]] | ||
---- | ---- | ||
*[[Медиа:exam.pdf|Вопросы к экзамену]] | *[[Медиа:exam.pdf|Вопросы к экзамену]] |
Версия 10:07, 22 мая 2017
Преподаватель: Мальковский Николай Владимирович
Лекции
- Вводная лекция
- Линейная алгебра
- Математический анализ (базисные элементы выпуклой оптимизации)
- Множители Лагранжа, Условия ККТ и двойственность
- Рекуррентные процессы
- Тривиальные методы
- Градиентный спуск
- Метод Ньютона
- Методы решения систем линейных уравнений
- Оптимальные методы градиентного спуска
- Субдифференциальное исчисление и субградиентный спуск
- Методы оптимизации в задачах с ограничениями
- Стохастичность в задачах оптимизации
Практика
Результаты
Рекомендованная литература
Поляк Б.Т. Введение в оптимизацию
Нестеров Ю.Е. Методы выпуклой оптимизации
Boyd S., Vandenberghe L. Convex optimization