В данной организации хранятся решения одной безымянной команды лабораторных работ курса Методы оптимизации.
Внимание: просматривая исходный код, Вы автоматически соглашаетесь с тем, что любое списывание и последующая за ним карма - это только Ваша ответственность.
- ЛР №1 - Градиентный спуск. Рассматриваемые темы:
- Реализация и исследование градиентного метода спуска как метод поиска минимума заданной функции.
- Реализация и применение на градиентном методе спуска методы одномерного поиска.
- Реализация и исследование эффективности одномерного поиска с учетом условий Вольфе.
- ЛР №2 - Стохастический градиентный спуск. Рассматриваемые темы:
- Реализация и исследование стохастического градиентного метода спуска для решения линейной регрессии.
- Реализация и сравнение модификаций SGD Momentum, Nesterov, AdaGrad, RMSProp, Adam.
- Реализация и исследование полиномиальной регрессии.
- Реализация и сравнение регуляризаций к полиномиальной регрессии L1, L2, Elastic.
- ЛР №3 - Методы высокого порядка. Рассматриваемые темы:
- Реализация и исследование методов Gauss-Newton и Powell Dog Leg для решения нелинейной регрессии.
- Реализация и исследование метода BFGS как метод поиска минимума заданной функции.
- Реализация и исследование модификации L-BFGS как метод поиска минимума заданной функции.
- ЛР №4 - Использование готовых библиотек для оптимизации на Python. Рассматриваемые темы:
- Изучение и использование библиотеки PyTorch для построения оптимизаторов поиска минимума функций.
- Сравнение реализованных методов из предыдущих ЛР с готовыми методами оптимизации из библиотеки SciPy.
- Изучение и использование линейных и нелинейных ограничений с готовыми методами оптимизации из библиотеки SciPy.