Чему вы научитесь
- Освоим основы работы с LLM (на базе OpenAI)
- Познакомимся с фреймворком LangChain на практике
- Научимся подключать LLM к системам логирования, таким как Elastic Stack
- Построим RAG-систему для получения данных из документации и корпоративной базы знаний
- Создадим AI-агентов для управления сетевым оборудованием
- Реализуем AI-ассистента, готового помогать в администрировании сетевой инфраструктуры
- Поработаем как с OpenAI LLM, так и с локальными моделями через Ollama
О курсе
В этом курсе мы научимся применять современные LLM для автоматизации, разбирая практические кейсы из администрирования сетевой инфраструктуры.
Мы шаг за шагом встроим LLM в традиционную автоматизацию с помощью фреймворка LangChain.
В результате мы создадим готовое решение в виде AI‑ассистента, который:
-
общается как ChatGPT, но с учетом вашей внутренней документации,
-
помогает с настройкой сетевого оборудования для рутинных задач,
-
анализирует логи и ускоряет диагностику инцидентов.
Так привычное взаимодействие человек‑машина превращается в удобный чат человек‑человек, где инфраструктура отвечает как живой помощник.
Курс ориентирован на решение практических задач из жизни сетевого/системного администратора.
Для кого этот курс
Начальные требования
-
LLM. Достаточно понимать, что LLM генерирует текст в ответ на prompt
-
Python. Базовые знания: умение писать простые скрипты
-
Сети. Понимание понятий: IP-адрес, VLAN, коммутатор
-
Администрирование. Достаточно понимать что такое API, логи, CMDB (Configuration Management Database)
-
Linux. Важно уметь подключаться по SSH, использовать bash, запускать скрипты
-
Docker Compose. Понимание базовых команд (docker compose up -d, docker ps)
-
Доступ к platform.openai.com и 0.5 USD на балансе
Наши преподаватели
Как проходит обучение
Уроки — в формате видео и примеров кода
Теория — только то, что действительно нужно
Практика — на Python
Все можно запускать у себя, без сложной подготовки
Программа курса
Сертификат
Что вы получаете
- Практические навыки использования LLM и LangChain в задачах сетевой автоматизации
- Умение использовать LLM для задачи анализа логов
- Практика использования RAG
- Опыт создания AI-агентов, которые умеют выполнять команды и отвечать на запросы
- Навык работы с облачными и локальными LLM-моделями
- Понимание, как встроить LLM в реальные инфраструктурные сценарии
- Рабочие примеры кода, которые можно адаптировать под свои задачи