Методы оптимизации, 3 курс, 6 семестр, 2016/17 — различия между версиями
Материал из SEWiki
(→Лекции) |
(→Практика) |
||
(не показаны 3 промежуточные версии 2 участников) | |||
Строка 2: | Строка 2: | ||
== Лекции == | == Лекции == | ||
− | *[[Медиа:01_intro.pdf|Вводная лекция]] | + | *[[Медиа:01_intro.pdf|01. Вводная лекция]] |
− | *[[Медиа:02_linear_algebra.pdf|Линейная алгебра]] | + | *[[Медиа:02_linear_algebra.pdf|02. Линейная алгебра]] |
− | *[[Медиа:03_intro_analysis.pdf|Математический анализ (базисные элементы выпуклой оптимизации)]] | + | *[[Медиа:03_intro_analysis.pdf|03. Математический анализ (базисные элементы выпуклой оптимизации)]] |
− | *[[Медиа:04_KKT_cond.pdf|Множители Лагранжа, Условия ККТ и двойственность]] | + | *[[Медиа:04_KKT_cond.pdf|04. Множители Лагранжа, Условия ККТ и двойственность]] |
− | *[[Медиа:05_iterative_schemes.pdf|Рекуррентные процессы]] | + | *[[Медиа:05_iterative_schemes.pdf|05. Рекуррентные процессы]] |
− | *[[Медиа:06_simple_methods.pdf|Тривиальные методы]] | + | *[[Медиа:06_simple_methods.pdf|06. Тривиальные методы]] |
− | *[[Медиа:07_gradient_descent.pdf|Градиентный спуск]] | + | *[[Медиа:07_gradient_descent.pdf|07. Градиентный спуск]] |
− | *[[Медиа:08_Newton_method.pdf|Метод Ньютона]] | + | *[[Медиа:08_Newton_method.pdf|08. Метод Ньютона]] |
− | *[[Медиа:09_matrix_decompositions.pdf|Методы решения систем линейных уравнений]] | + | *[[Медиа:09_matrix_decompositions.pdf|09. Методы решения систем линейных уравнений]] |
− | *[[Медиа:10_gradient_optimal.pdf|Оптимальные методы градиентного спуска]] | + | *[[Медиа:10_gradient_optimal.pdf|10. Оптимальные методы градиентного спуска]] |
− | *[[Медиа:11_subgradient.pdf|Субдифференциальное исчисление и субградиентный спуск]] | + | *[[Медиа:11_subgradient.pdf|11. Субдифференциальное исчисление и субградиентный спуск]] |
− | *[[Медиа:12_constraint_methods.pdf|Методы оптимизации в задачах с ограничениями]] | + | *[[Медиа:12_constraint_methods.pdf|12. Методы оптимизации в задачах с ограничениями]] |
+ | *[[Медиа:13_stochastic_methods.pdf|13. Стохастичность в задачах оптимизации]] | ||
---- | ---- | ||
*[[Медиа:exam.pdf|Вопросы к экзамену]] | *[[Медиа:exam.pdf|Вопросы к экзамену]] | ||
Строка 22: | Строка 23: | ||
*[[Медиа:05_homework.pdf| Домашнее задание #5 17.04]] | *[[Медиа:05_homework.pdf| Домашнее задание #5 17.04]] | ||
*[[Медиа:06_homework.pdf| Домашнее задание #6 24.04]] | *[[Медиа:06_homework.pdf| Домашнее задание #6 24.04]] | ||
+ | *[[Медиа:07_homework.pdf| Домашнее задание #7 15.05]] | ||
+ | *[[Медиа:additional_tasks.pdf| Доп. задачи]] | ||
== Результаты == | == Результаты == | ||
Строка 36: | Строка 39: | ||
[http://www.ict.nsc.ru/matmod/files/textbooks/SharyNuMeth.pdf ''Шарый С.П.'' Курс вычислительных методов] | [http://www.ict.nsc.ru/matmod/files/textbooks/SharyNuMeth.pdf ''Шарый С.П.'' Курс вычислительных методов] | ||
+ | |||
+ | [http://www.math.spbu.ru/user/gran/BOOK_WIN.pdf ''Граничин О. Н., Поляк Б. Т.'' Рандомизированные алгоритмы оценивания и оптимизации при почти произвольных помехах] |
Текущая версия на 01:21, 26 мая 2017
Преподаватель: Мальковский Николай Владимирович
Лекции
- 01. Вводная лекция
- 02. Линейная алгебра
- 03. Математический анализ (базисные элементы выпуклой оптимизации)
- 04. Множители Лагранжа, Условия ККТ и двойственность
- 05. Рекуррентные процессы
- 06. Тривиальные методы
- 07. Градиентный спуск
- 08. Метод Ньютона
- 09. Методы решения систем линейных уравнений
- 10. Оптимальные методы градиентного спуска
- 11. Субдифференциальное исчисление и субградиентный спуск
- 12. Методы оптимизации в задачах с ограничениями
- 13. Стохастичность в задачах оптимизации
Практика
- Общий тест Разбор
- Домашнее задание #3 06.03
- Домашнее задание #5 17.04
- Домашнее задание #6 24.04
- Домашнее задание #7 15.05
- Доп. задачи
Результаты
Рекомендованная литература
Поляк Б.Т. Введение в оптимизацию
Нестеров Ю.Е. Методы выпуклой оптимизации
Boyd S., Vandenberghe L. Convex optimization
Luenberger D., Ye Y. Linear and nonlinear programming