Какое из следующих описаний градиентного спуска (GD) и стохастического градиентного спуска (SGD) является правильным?

  • в GD и SGD каждый набор параметров обновляется, чтобы минимизировать функцию потерь
  • в GD каждая итерация должна обновлять параметр данными из всего обучающего набора
  • в SGD каждая итерация должна проходить все выборки в обучающем наборе, чтобы обновить параметры один раз
Для просмотра статистики ответов нужно войти.