0:00:0 Оценка качества обучения нейронной сети
0:05:0 Проблема переобучения
0:08:0 Наборы данных для обучения
0:13:0 Оценка качества обучения нейронной сети в Keras
0:26:0 Создаем нейронную сеть
0:30:0 Проверяем качество обучения на тестовом наборе данных
0:34:0 Демонстрация контроля переобучения в Keras
0:42:0 Наборы данных для обучения
1:10:0 Схема обучения нейронной сети
1:20:0 Почему softmax?
21:25:0 График exp(x)
21:26:0 Функция мягкого максимума (softmax)
1:30:0 Искусственный нейрон
1:31:0 Снижение переобучения с помощью слоя Dropout
1:31:0 Слой Dropout
1:42:0 Платформа Data Scientist'ов Kaggle
1:50:0 Домашнее задание 2: соревнования по распознаванию рукописных цифр MNIST на Kaggle
0:32:30 - функция ошибки loss - то насколько отличается распознавание от правильного ответа
0:35:30 - batch_size - размер минивыборки, используется метод стохастического спуска. Берем элементы данных например = 200 (200 картинок с рукописными цифрами), подаем их на вход в нейронную сеть, считаем функцию ошибки, дальше смотрим производную, смотрим направление изменения производной, смотрим на сколько нам нужно поменять веса в соответствии с правилами изменения весов и меняем веса после обработки минивыборки.
0:54:45 - Остановить keras автоматически, когда будет достигнут максимальный порог точности. Функция Callbacks.
0:56:21 - Распределение весов при обучении. Когда сеть только начинает обучаться, веса начинают назначаться случайным образом, соответственно в первом пакете ошибка будет самой большой, поэтому на первых шагах изменение весов будет самым большим.
0:59:05 - Batch_size влияет на точность.
1:02:37 - Один из признаков переобучения, когда ошибка начинает увеличиваться
1:15:45 - Функция relu на входном скрытом слое - полулинейная функция, возвращающая 0 при отрицательном значении и само значение при положительном.
1:18:16 - Функция Softmax
1:28:45 - Функция Softmax - функция активации, она меняет значения того, что выдал на нейрон.
1:30:00 - использование слоя Dropout
1:35:12 - оптимальный подбор параметра Dropout