Какое из следующих описаний градиентного спуска (GD) и стохастического градиентного спуска (SGD) является правильным?
- в GD и SGD каждый набор параметров обновляется, чтобы минимизировать функцию потерь
- в GD каждая итерация должна обновлять параметр данными из всего обучающего набора
- в SGD каждая итерация должна проходить все выборки в обучающем наборе, чтобы обновить параметры один раз
Для просмотра статистики ответов нужно
войти.