В чём заключается механизм внимания трансформера?

  • В автоматическом обнаружении аномалий в данных
  • В возможности модели фокусироваться только на важных частях входных данных
  • В изменении порядка следования элементов последовательности
  • В использовании только сверточных слоев
  • В работе с несколькими моделями одновременно
Для просмотра статистики ответов нужно войти.