Продвинутый ⭐ 4.8 / 5.0

Обработка естественного языка (NLP)

Трансформеры, BERT, GPT-архитектуры, создание чат-ботов и систем понимания текста. Полный обзор продвинутой программы по Natural Language Processing.

10 недель
Длительность
55
Уроков
$749
Стоимость
6
Проектов

Требования: твёрдое знание Python, опыт работы с ML-библиотеками (scikit-learn), понимание нейронных сетей. Рекомендуется предварительно пройти курс Machine Learning.

Ключевые темы программы

📝

Классический NLP

Токенизация, стемминг, лемматизация, TF-IDF, Word2Vec, GloVe. Базовый стек обработки текста.

🔄

Трансформеры

Архитектура Attention, BERT, RoBERTa, тонкая настройка на downstream задачах.

🤖

Генеративные модели

GPT-архитектуры, промпт-инжиниринг, работа с OpenAI API, fine-tuning на кастомных данных.

💬

Чат-боты и NLU

Intent detection, named entity recognition, диалоговые системы, интеграция LLM в приложения.

Учебный план

1
Классические методы NLP10 уроков
Предобработка текста: токенизация и нормализация
Bag of Words и TF-IDF векторизация
Word Embeddings: Word2Vec, GloVe
Анализ тональности текста (Sentiment Analysis)
2
Нейросетевые методы NLP12 уроков
RNN и LSTM для обработки последовательностей
Механизм внимания (Attention Mechanism)
Seq2Seq модели для перевода текста
3
Трансформеры и BERT11 уроков
Архитектура трансформера от A до Z
BERT: предобучение и fine-tuning
HuggingFace Transformers: практика
Named Entity Recognition и классификация текстов
4
GPT и генеративный AI10 уроков
Архитектура GPT и авторегрессионные модели
Промпт-инжиниринг: стратегии и паттерны
Fine-tuning LLM на кастомных данных
RAG (Retrieval-Augmented Generation)
5
Итоговый проект: NLP-приложение5 уроков
Выбор задачи и архитектуры
Разработка, тестирование, деплой
Защита и ревью проекта