Чему вы научитесь
- Писать промпты и цепочки в LangChain под реальные сценарии
- Настраивать «голос бренда» и структурированный вывод ответов
- Реализовывать RAG по PDF с цитированием источников и страниц
- Подключать инструменты: веб-поиск и трекинг статуса заказа
- Строить многошагового агента для анализа CSV и графиков (Pandas)
- Проектировать промпт-маршрутизацию (RAG vs Web vs Track)
- Логировать токены/латентность и держать SLA ответов
- Собирать веб-приложение: API (FastAPI) + простой фронт
- Готовить автопроверки и отчёты качества (pass-rate, метрики)
- Оформлять результат в GitHub-портфолио и презентовать кейс
- Проектировать PromptOps: версии промптов (YAML), A/B и фичефлаги
- Оценивать качество RAG (faithfulness, precision/recall, citation-rate)
- Делать гибридный поиск (BM25+вектор) и реранк (cross-encoder)
- Выстраивать observability: токены→стоимость, p50/p95, алерты бюджета
- Повышать надёжность: ретраи с джиттером, таймауты, circuit-breaker
- Кэшировать эмбеддинги и ответы, управлять TTL/инвалидацией
- Ставить guardrails: белые списки, политика логов без PII, валидация tool-вызовов
- Проектировать агентные графы на LangGraph: состояние, ветвления, чекпойнты, параллельный RAG/Web
О курсе
Этот курс — про инженерную сборку LLM-приложения под продакшн. Мы идём от простого чат-бота к системе с RAG по PDF (цитаты и «не знаю» вне базы), инструментами (веб-поиск, трекинг), многошаговым агентом аналитики и финальным веб-интерфейсом.
Внутри — не только «как запустить», но и то, что важно в реальной эксплуатации: PromptOps (версии промптов и A/B), метрики качества RAG (faithfulness, citation-rate), гибридный поиск и реранк, контроль стоимости и p95, ретраи/таймауты, кэширование, guardrails и белые списки, мульти-провайдер моделей. Отдельный модуль LangGraph даёт явные графы состояний, параллельные ветки RAG/Web и чекпойнты — для устойчивых агентов и честной наблюдаемости.
Ничего лишнего: каждое занятие заканчивается артефактом — индекс, отчёт метрик, графики, API-эндпоинт или диаграмма графа. Все проекты запускаются «из коробки» при наличии API-ключа.
Итог курса.
На выходе собран и связно работает «Shoply Support»: чат с фирменным тоном, ответы по PDF с цитатами, веб-поиск/трекинг как инструменты, агент для CSV-аналитики и финальный веб-интерфейс с API, метриками и базовой эксплуатационной дисциплиной.
А больше информации о ML/AI/DS вы можете узнать в нашем тгк Data Trends AI & ML
Для кого этот курс
Начальные требования
Python 3.10+; умение работать в терминале, pip, виртуальное окружение.
Базовый Git (клонировать репо, создавать коммиты/ветки).
Понимание JSON/YAML, простые запросы HTTP/REST.
Желательно: базовые навыки pandas (агрегации/группировки); если нет — разберёмся по ходу.
ОС: Windows/macOS/Linux. Docker — желательно для финального модуля (деплой).
Не требуется GPU и глубокая математика — курс про инженерную сборку и интеграции.
Наши преподаватели
Как проходит обучение
Каждый модуль — это мини-спринт: прикладная теория и тестовые задачи → практическое задание → автопроверка качества. Задания сдаются ссылкой на GitHub-репозиторий; в каждом репо есть чек-лист критериев и скрипт, который формирует JSON-отчёт (pass-rate, метрики маршрутизации, точность вычислений и т. п.).
Программа курса
Сертификат
Входит в 1 программу
Что вы получаете
- Рабочий LLM-бот с единым «голосом бренда»
- RAG по PDF с цитатами (страница/фрагмент)
- Инструменты: веб-поиск и трекинг заказа с источниками и датами
- Многошаговый агент для анализа CSV и графиков (PNG)
- Финальное веб-приложение: API (FastAPI) + простой фронт-чат
- Шаблоны промптов, конфигов и чек-листы по каждому модулю
- JSON-отчёты качества (pass-rate, latency, accuracy) для портфолио
- Структурированную архитектуру проекта и понятный путь в продакшн
- Готовые репозитории на GitHub, которые можно показать работодателю/клиенту
- Сертификат Stepik после успешного прохождения