Видео проигрыватель загружается.Воспроизвести видеоВоспроизвестиБез звукаТекущее время 0:00/Продолжительность 1:30Загрузка: 0.00%0:00Тип потока ОНЛАЙНSeek to live, currently behind liveОНЛАЙНОставшееся время -1:30 1xСкорость воспроизведения2x1.75x1.5x1.25x1x, выбрано0.75x0.5xГлавыГлавыОписанияОтключить описания, выбраноСубтитрынастройки субтитров, откроется диалог настройки субтитровСубтитры выкл., выбраноЗвуковая дорожкаPicture-in-PictureПолноэкранный режимThis is a modal window.Начало диалоговго окна. Кнопка Escape закроет или отменит окноТекстColorБелыйЧерныйКрасныйЗеленыйСинийЖелтыйПурпурныйГолубойTransparencyПрозрачностьПолупрозрачныйФонColorЧерныйБелыйКрасныйЗеленыйСинийЖелтыйПурпурныйГолубойTransparencyПрозрачностьПолупрозрачныйПрозрачныйОкноColorЧерныйБелыйКрасныйЗеленыйСинийЖелтыйПурпурныйГолубойTransparencyПрозрачныйПолупрозрачныйПрозрачностьРазмер шрифта50%75%100%125%150%175%200%300%400%Стиль края текстаНичегоПоднятыйПониженныйОдинаковыйТеньШрифтПропорциональный без засечекМоноширинный без засечекПропорциональный с засечкамиМоноширинный с засечкамиСлучайныйПисьменныйМалые прописныеСбросить сбросить все найстройки по умолчаниюГотовоЗакрыть модальное окноКонец диалогового окна.
Отлично, мы закончили с генерацией фамилий с помощью нашего датасета. Теперь перейдём к более простому решению. Писать RNN своими руками — это отличное упражнение, чтобы лучше понять, как работает рекуррентная нейронная сеть, понять какие-то её особенности, возможно, повторить материал из лекции. Но, кажется, это не то что вы хотите делать каждый день, когда решаете какую-либо задачу, связанную с генерацией текстов, например, на работе или в каком-то своём проекте. В этом случае гораздо удобнее взять готовый модуль — например, из библиотеки pytorch. В pytorch уже реализована RNN — вы можете просто вызвать из неё "nn.rnncell" или "nn.rnn", и использовать уже готовый модуль для того, чтобы обучить вашу нейронную сеть генерировать новые имена. Здесь будет гораздо меньше кода и, при этом, код будет работать чуть-чуть быстрее, чем на нашей самописной RNN-ке, но, при этом, результат будет примерно такой же. Давайте проверим! Возьмём pytorch "nn.rnn" и обучим нашу сеть. Здесь мы будем использовать не стохастический градиентный спуск, как это было при обучении в предыдущем блоке, а будем использовать в качестве оптимизатора Adam. И точно так же запустим обучение нашей нейронной сети. Мы видим, как наша сеть обучается... обучается... и доходит до 1000 итераций. Отлично! С помощью библиотеки pytorch мы можем обучить то же самое, что вы только что написали своими руками, но значительно быстрее и с меньшим количеством кода.

К сожалению, у нас пока нет статистики ответов на данный вопрос, но мы работаем над этим.