Чему вы научитесь
- Все вопросы перед оплатой можно задать здесь: 📞 t.me/SOFTMAX19
- Разбираться, как работают RNN и механизм внимания, и почему трансформеры вытеснили рекуррентные сети.
- Разберем вопросы, которые могут задач
- Обучать и улучшать seq2seq-модели на PyTorch с вниманием и teacher forcing.
- Понимать внутреннюю логику трансформеров и LLM, их архитектуру и принципы работы внимания.
- Использовать трансформеры и применять их к своим задачам.
О курсе
-
💰 Сейчас доступна ЦЕНА 2990 руб., после добавления 3 и 4 модуля будет повышение. Успейте купить сейчас, новые блоки будут доступны бесплатно (в плане 4 новых модуля).
-
📺 Живые видеообъяснения, где сложные темы вроде attention и трансформеров разбираются простым языком.
-
💻 Практика с кодом и домашками — вы не просто смотрите, а пишете и улучшаете реальные модели.
-
🔧 Работа с PyTorch и готовыми моделями — вы учитесь применять индустриальные инструменты, а не изобретать их заново.
-
🎓 Построен преподавателем университета, который соединяет академическую глубину и практический опыт.
Для кого этот курс
Начальные требования
-
Базовое владение Python (умение писать простые функции, работать со списками и циклами).
-
Минимальное представление о том, что такое нейросети (что есть “вход”, “выход”, “обучение”).
-
Желательно начальное знакомство с PyTorch, но все ключевые моменты разбираются на видео.
-
Готовность писать и запускать код, экспериментировать и разбираться в результатах.
Как проходит обучение
Видеоразборы (лекции + практика)
Домашка (все разборы домашек открыты, но лучше сначала попробовать самому)