Отметьте верные утверждения
- Adam всегда показывает лучшие результаты по сравнению с другими оптимизаторами
- learning rate = 3e-04 является оптимальным для всех методов
- Иногда SGD может показать лучшие результаты, чем RMSProp
- Невозможно заранее определить, какой из оптимизаторов покажет лучшие результаты
- Параметры для метода Adam фиксированы, менять их нельзя
К сожалению, у нас пока нет статистики ответов на данный вопрос,
но мы работаем над этим.