Глубинное обучение, лето 2016: Введение в глубинное...

15
Deep Learning Лекции в computer science клубе Санкт-Петербург, лето 2016

Upload: cs-center

Post on 16-Jan-2017

681 views

Category:

Documents


4 download

TRANSCRIPT

Page 1: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

Deep LearningЛекции в computer science клубе

Санкт-Петербург, лето 2016

Page 2: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

Структура курса

• Занятие 1. (Дмитрий Кропотов) Стохастическая оптимизация, автоматическое дифференцирование

• Занятие 2. (Алексей Артёмов) Свёрточные нейронные сети, библиотеки для работы с нейросетями

• Домашнее задание 1

• Занятие 3. (Екатерина Лобачёва) Рекуррентные нейронные сети. • Домашнее задание 2

• Занятие 4. (Дмитрий Ветров) Нейробайесовские модели

http://compsciclub.ru/courses/deep-learning/2016-summer/

Page 3: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

ImageNet (image-net.org)

14,197,122 изображений21841 категорий

Page 4: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)
Page 5: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

AlexNet: свёрточная нейронная сеть

Page 6: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

12 лет назад: дескриптор SIFT

D. Lowe. Distinctive Image Features from Scale-invariant Keypoints, 2004.

Page 7: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

12 лет назад: мешок слов

Page 8: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

12 лет назад: мешок слов

Page 9: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

12 лет назад: SIFT + мешок слов + классификатор

Page 10: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

CNN vs. SIFT+мешок слов+классификатор

Page 11: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

GD vs. SGD

Град. спуск Стох. град. спуск Стох. град. спускв окрестности оптимума

Page 12: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

SGD vs. SGD+mom

Стох. град. спуск Стох. град. спуск+ моментум

Стох. град. спуск+ моментумв окрестности оптимума

Page 13: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)
Page 14: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

Batch normalization

Ioffe, Szegedy. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, 2015.

Page 15: Глубинное обучение, лето 2016: Введение в глубинное обучение. Стохастическая оптимизация (Дмитрий Кропотов)

Литература

• deeplearningbook.org – основная книга по Deep Learning• J. Nocedal, S. Wright. Numerical Optimization, 2006 – лучшая книга

по классической оптимизации, в ней также рассматривается автоматическое дифференцирование

• M. Schmidt. Notes on Big-n Problems – обзор методов стохастической оптимизации