Методы оптимизации 3MIT осень 2017 — различия между версиями
Материал из SEWiki
(→Лекции) |
(→Практика) |
||
(не показано 39 промежуточных версий этого же участника) | |||
Строка 4: | Строка 4: | ||
*[[Медиа:02_linear_algebra.pdf|01. Линейная алгебра]] | *[[Медиа:02_linear_algebra.pdf|01. Линейная алгебра]] | ||
*[[Медиа:03_intro_analysis.pdf|02. Элементы выпуклого анализа]] | *[[Медиа:03_intro_analysis.pdf|02. Элементы выпуклого анализа]] | ||
+ | *[[Медиа:05_iterative_schemes.pdf|03. Рекуррентные схемы]] | ||
+ | *[[Медиа:04_KKT_cond.pdf|04. Метод множителей Лагранжа и Условия Каруша-Куна-Такера]] | ||
+ | *[[Медиа:06_simple_methods.pdf|05. Бисекция и трисекция]] | ||
+ | *[[Медиа:07_gradient_descent.pdf|06. Градиентный спуск]] | ||
+ | *[[Медиа:09_matrix_decompositions.pdf|07. Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов]] | ||
+ | *[[Медиа:10_gradient_optimal.pdf|08. Оптимальные градиентные методы (метод Нестерова)]] | ||
+ | *[[Медиа:08_Newton_method.pdf|09. Метод Ньютона]] | ||
+ | *[[Медиа:11_subgradient.pdf|10. Субградиент и субградиенный спуск]] | ||
+ | *[[Медиа:12_constraint_methods.pdf|11. Базовые методы для задач с ограничениями]] | ||
== Практика == | == Практика == | ||
+ | malkovsky.nikolay@gmail.com | ||
+ | *[[Медиа:01_test.pdf| 01. Задачи]] [[Медиа:01_solution.pdf| Разбор]] | ||
+ | *[[Медиа:01_homework.pdf| 02. Домашнее задание #1]] | ||
+ | *[[Медиа:02_homework.pdf| 03. Домашнее задание #2]] | ||
+ | *[[Медиа:03_homework.pdf| 04. Домашнее задание #3]] | ||
+ | *[[Медиа:04_homework.pdf| 05. Домашнее задание #4]] | ||
+ | *[[Медиа:02_test.pdf| 06. Контрольная]] [[Медиа:02_solution.pdf| Разбор]] | ||
+ | *[[Медиа:05_homework.pdf| 07. Домашнее задание #5]] | ||
+ | *[[Медиа:06_homework.pdf| 08. Домашнее задание #6]] | ||
+ | *[[Медиа:07_homework.pdf| 09. Домашнее задание #7]] | ||
+ | *[[Медиа:07_problems.pdf| 10. Задачи (многочлен Чебышева)]] | ||
+ | *[[Медиа:08_problems.pdf| 11. Задачи (ускоренные градиентные методы)]] | ||
+ | *[[Медиа:08_homework.pdf| 12. Домашнее задание #8]] | ||
+ | *[[Медиа:09_problems.pdf| 13. Задачи (Субградиентный спуск)]] | ||
+ | |||
+ | |||
+ | ---- | ||
+ | |||
+ | [https://docs.google.com/spreadsheets/d/1mbVrVXTAXcyzTDdEam3buKGPTvGX8GfzWSLNXwcyliA/edit?usp=sharing Результаты] | ||
+ | |||
+ | [[Медиа:Exam.pdf| Вопросы к экзамену]] | ||
+ | [[Медиа:proof_hints.pdf| Идеи доказательств и выводов]] | ||
+ | |||
+ | == Рекомендованная литература == | ||
+ | [http://bwbooks.net/index.php?id1=4&category=math&author=polya-bt&book=1983 ''Поляк Б.Т.'' Введение в оптимизацию] | ||
+ | |||
+ | [http://premolab.ru/pub_files/pub5/MnexoB89z7.pdf ''Нестеров Ю.Е.'' Методы выпуклой оптимизации] | ||
+ | |||
+ | [https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf ''Boyd S., Vandenberghe L.'' Convex optimization] | ||
+ | |||
+ | [https://web.stanford.edu/class/msande310/310trialtext.pdf ''Luenberger D., Ye Y.'' Linear and nonlinear programming] | ||
+ | |||
+ | [http://www.ict.nsc.ru/matmod/files/textbooks/SharyNuMeth.pdf ''Шарый С.П.'' Курс вычислительных методов] | ||
+ | |||
+ | [http://www.math.spbu.ru/user/gran/BOOK_WIN.pdf ''Граничин О. Н., Поляк Б. Т.'' Рандомизированные алгоритмы оценивания и оптимизации при почти произвольных помехах] |
Текущая версия на 17:51, 6 января 2018
Преподаватель: Мальковский Н. В.
Лекции
- 01. Линейная алгебра
- 02. Элементы выпуклого анализа
- 03. Рекуррентные схемы
- 04. Метод множителей Лагранжа и Условия Каруша-Куна-Такера
- 05. Бисекция и трисекция
- 06. Градиентный спуск
- 07. Решение СЛАУ: Гаусс, Холесский, метод сопряженных градиентов
- 08. Оптимальные градиентные методы (метод Нестерова)
- 09. Метод Ньютона
- 10. Субградиент и субградиенный спуск
- 11. Базовые методы для задач с ограничениями
Практика
malkovsky.nikolay@gmail.com
- 01. Задачи Разбор
- 02. Домашнее задание #1
- 03. Домашнее задание #2
- 04. Домашнее задание #3
- 05. Домашнее задание #4
- 06. Контрольная Разбор
- 07. Домашнее задание #5
- 08. Домашнее задание #6
- 09. Домашнее задание #7
- 10. Задачи (многочлен Чебышева)
- 11. Задачи (ускоренные градиентные методы)
- 12. Домашнее задание #8
- 13. Задачи (Субградиентный спуск)
Вопросы к экзамену Идеи доказательств и выводов
Рекомендованная литература
Поляк Б.Т. Введение в оптимизацию
Нестеров Ю.Е. Методы выпуклой оптимизации
Boyd S., Vandenberghe L. Convex optimization
Luenberger D., Ye Y. Linear and nonlinear programming