Чему вы научитесь
- Подключать OpenAI, Anthropic, Ollama и другие LLM через единый API Spring AI
- Проектировать промпты с шаблонами и получать структурированные ответы в Java-объекты
- Давать LLM доступ к бизнес-логике через Tool Calling и аннотацию @Tool
- Строить RAG-пайплайны: загрузка документов, chunking, embedding, vector store, поиск
- Подключать MCP-серверы по открытому протоколу от Anthropic
- Сохранять историю диалогов через ChatMemory с разными стратегиями обрезки
- Настраивать observability через Micrometer, Prometheus и Grafana
- Реализовывать rate limiting, PII-фильтрацию и guardrails для production
- Собрать полноценного AI-ассистента с RAG, инструментами, памятью и мониторингом
О курсе
‼️ПРОМОКОД -30%: SPRINGAI до 25.05.2026
Начинаем с простого ChatClient, потом учимся управлять промптами и парсить ответы в Java-объекты. Дальше подключаем Tool Calling, и LLM начинает вызывать твои Java-методы самостоятельно. Добавляем память диалогов, чтобы модель помнила контекст между запросами.
Вторая половина курса посвящена продвинутым темам. RAG-пайплайн: загрузка документов, разбивка на чанки, embedding, vector store, поиск и генерация ответов на основе твоих данных. MCP (Model Context Protocol) - открытый стандарт от Anthropic, который стандартизирует взаимодействие LLM с внешними системами. Пишем собственный MCP-сервер на Spring Boot и подключаем готовые.
Для кого этот курс
Начальные требования
Java 17+ (рекомендуется 21), уверенное владение Spring Boot, Maven или Gradle, Git, Docker (для Ollama и PgVector). Опыт работы с REST API и SQL-базами.