>>1.00<<>>1.00<<Видео проигрыватель загружается.Воспроизвести видеоВоспроизвестиБез звукаТекущее время 0:00/Продолжительность 2:12Загрузка: 0.00%0:00Тип потока ОНЛАЙНSeek to live, currently behind liveОНЛАЙНОставшееся время -2:12 1xСкорость воспроизведения2x1.75x1.5x1.25x1x, выбрано0.75x0.5xГлавыГлавыОписанияОтключить описания, выбраноСубтитрынастройки субтитров, откроется диалог настройки субтитровСубтитры выкл., выбраноЗвуковая дорожкаPicture-in-PictureПолноэкранный режимThis is a modal window.Начало диалоговго окна. Кнопка Escape закроет или отменит окноТекстColorБелыйЧерныйКрасныйЗеленыйСинийЖелтыйПурпурныйГолубойTransparencyПрозрачностьПолупрозрачныйФонColorЧерныйБелыйКрасныйЗеленыйСинийЖелтыйПурпурныйГолубойTransparencyПрозрачностьПолупрозрачныйПрозрачныйОкноColorЧерныйБелыйКрасныйЗеленыйСинийЖелтыйПурпурныйГолубойTransparencyПрозрачныйПолупрозрачныйПрозрачностьРазмер шрифта50%75%100%125%150%175%200%300%400%Стиль края текстаНичегоПоднятыйПониженныйОдинаковыйТеньШрифтПропорциональный без засечекМоноширинный без засечекПропорциональный с засечкамиМоноширинный с засечкамиСлучайныйПисьменныйМалые прописныеСбросить сбросить все найстройки по умолчаниюГотовоЗакрыть модальное окноКонец диалогового окна.
Внимание можно использовать для сравнения двух текстов — вот нам даны две матрицы, размерность представления у них одинаковая, а вот длины отличаются. Тогда мы можем их перемножить и получим большую матрицу размерности L1 на L2, i-j-ый элемент этой матрицы несёт следующий физический смысл: насколько i-ое это слово из первого текста похоже на j-ое слово из второго текста. Далее у нас есть 2 варианта — два измерения, по которым можно нормализовать (то есть, к которым можно применить софтмакс). Если мы нормализуем так, как изображено на картинке, то есть по столбцам, то, в результате, получим матрицу, физический смысл которой будет следующим. Её размер будет соответствовать размеру второго предложения, а i-ый столбец будет хранить представление всего первого текста относительно соответствующего слова второго текста. Такие представления могут быть крайне полезны, например, в вопросно-ответных системах, когда первое предложение обозначает вопрос, а второе — текст, в котором мы ищем ответ. Тогда, после такой агрегации по каждому вектору, в полученной матрице мы можем, например, предсказать, содержится ли в районе этого слова ответ на вопрос, или нет. Или же мы можем нормализовать матрицу релевантности по строкам — тогда получим матрицу, соответствующую размеру первого предложения, и физический смысл отобразится зеркально. Итак, в этом видео мы рассмотрели агрегацию или пулинг через усреднение, через выбор максимума, рассмотрели глобальный пулинг, а также механизм внимания — его различные варианты.

К сожалению, у нас пока нет статистики ответов на данный вопрос, но мы работаем над этим.