Отметьте верные утверждения

  • Adam всегда показывает лучшие результаты по сравнению с другими оптимизаторами
  • learning rate = 3e-04 является оптимальным для всех методов
  • Иногда SGD может показать лучшие результаты, чем RMSProp
  • Невозможно заранее определить, какой из оптимизаторов покажет лучшие результаты
  • Параметры для метода Adam фиксированы, менять их нельзя

К сожалению, у нас пока нет статистики ответов на данный вопрос, но мы работаем над этим.