Чему вы научитесь
- Поднимать локальный контур LLM на Python через Ollama
- Подключать LiteLLM и отправлять запросы к локальным и облачным моделям
- Читать структуру ответа модели: content, usage, finish_reason, model
- Управлять поведением модели через system prompt и параметры генерации
- Делать код устойчивым: таймауты, ошибки подключения, fallback-сценарии
- Переключать модели и провайдеров без переписывания логики приложения
- Собирать полноценное LLM-приложение как финальный проект
- Подключать готовое AI-ядро к Telegram-боту и веб-интерфейсу на Streamlit
О курсе
Это практический курс по созданию LLM-приложений на Python. Вы не просто вызываете модель, а строите нормальное приложение: с понятной структурой, настройками, переключением режимов, метаданными ответа и обработкой ошибок.
Начинаем с локальных моделей через Ollama, потому что так проще, дешевле и безопаснее для обучения. Дальше показываем, как тот же код переносится на облачные модели через LiteLLM.
Курс подойдёт тем, кто хочет не просто “поиграться с ИИ”, а понять, как реально встраивать LLM в свои проекты.
Знания закрепляются на практике: в курсе почти 100 тестов и задач.
Часть — проверочные вопросы на понимание.
Часть — задачи на написание кода с автопроверкой прямо в браузере.
Каждая задача привязана к конкретному уроку и проверяет именно то, что только что разбирали.
После основных пяти модулей идёт бонусный модуль 6. В нём мы подключаем собранное AI-ядро к двум реальным интерфейсам: Telegram-боту и веб-приложению на Streamlit. Ничего не переписывается — тот же код начинает работать в мессенджере и браузере.
Для кого этот курс
Начальные требования
Нужна базовая уверенность в Python: переменные, функции, импорты, условия, циклы. Желательно уметь запускать код через терминал и работать с файлами проекта. Для локальной практики понадобится Python 3.10+, установленный редактор кода и компьютер, на котором можно запустить Ollama.
Наши преподаватели
Как проходит обучение
Вы идёте шаг за шагом: сначала поднимаете локальную модель, затем учитесь отправлять запросы, читать структуру ответа, обрабатывать ошибки, управлять параметрами генерации и переключать режимы работы. В кодовых уроках мы не начинаем с "готового файла": сначала разбираем улучшение по шагам, потом собираем итоговый main.py. В конце модуля у вас остаётся рабочее приложение, а не набор разрозненных примеров. Знания проверяются в почти 100 тестах и задачах на написание кода — с автопроверкой прямо в браузере.
Программа курса
Сертификат
Что вы получаете
- Практический курс по Python + LLM без лишней теории
- Рабочие файлы проекта, которые можно развивать дальше
- Навык запуска локальных моделей через Ollama
- Понимание, как устроена интеграция через LiteLLM
- Подход к написанию устойчивого LLM-кода
- Почти 100 тестов и задач: проверочные вопросы и написание кода
- Бонусный модуль 6: Telegram-бот и веб-интерфейс на Streamlit
- Финальный проект для портфолио
- Сертификат Stepik после успешного прохождения