Скрыть объявление

Внимание!


Наш телеграм-канал попал под массовую блокировку и, пока мы подготовили для вас резервный!


Подписывайтесь по этой ССЫЛКЕ

Скрыть объявление

На короткое время рассказываем где достать редкие курсы

Подробности ТУТ

Скрыть объявление

Мы обновили Telegram-бот!

Ссылку на новый бот и все детали ищите ТУТ и скорее подписывайтесь, чтобы не пропускать важные уведомления и новости форума

Скрыть объявление

Было ли у Вас такое, что Вы не могли найти курс? Если да, то напишите нам в Службу поддержки какой курс вам нужен и мы постараемся его найти.

Скрыть объявление

Пополняйте баланс и получайте при оплате складчин кэшбек в размере 10%

Запись

Large Language Models. Тариф Основы + LLM (Илья Димов, Дмитрий Калашников)

Тема в разделе "Нейросети и искусственный интеллект"

Цена:
119000 руб
Взнос:
6469 руб
Организатор:
Организатор

Список участников складчины:

1. Организатор
open
2
Записаться
  1. Организатор Организатор складчин

    Large Language Models. Тариф Основы + LLM (Илья Димов, Дмитрий Калашников)

    [​IMG]

    В результате обучения:

    • Узнаете или повторите архитектуру трансформеров и особенности NLP-домена
    • Научитесь ускорять и деплоить LLM
    • Узнаете, как эффективно тюнить свои модели
    • Освоите фреймворки для решения LLM-задач: RAG, Agents, Tools, Function Calling и др.
    • Научитесь работать с доступными LLM и выбирать модель под проект
    Курс для тех, кто планирует или уже работает с LLM
    • DL-инженеры с опытом в LLM
      Закроете пробелы в знаниях, наберетесь советов и улучшите проекты
    • ML/CV-инженеры без опыта в LLM
      Разберетесь в теории, отточите практику, структурировано и без воды
    • Python-разработчики
      С нуля познакомитесь с NLP и инструментами для работы с LLM
    01. Введение в NLP. Классические подходы и RNN
    • Особенности домена
    • Виды NLP-задач
    • Модели на основе подсчетов
    • Дистрибутивная гипотеза
    • Эмбеддинги
    • Рекуррентные сети
    • Token classification
    02. Введение в NLP. Seq2Seq и Трансформеры
    • Seq-to-seq
    • Attention
    • Трансформер
    • BERT
    • Почему трансформеры победили
    • T5
    03. Основы LLM. Архитектура трансформера
    • LSTM имплементации
    • Полный трансформер
    • Архитектура GPT
    • Эмбеддинги
    • Attention
    • Нормализации
    • Superposition
    04. Основы LLM. Модификации трансформеров
    • Attentions (sliding, streaming, group query)
    • Embeddings (ROPE, ALIBI, NOPE)
    • Knowledge fusion
    • Circuits and W-compositions
    • LLM Surgery
    05. Доступные LLMs
    • Обзор основных игроков индустрии
    • Open source LLM и датасеты
    • Открытые бенчмарки и арены
    • Сервисы для сервинга LLM
    • Как выбрать LLM для своей задачи и нужна ли она вообще
    06. Prompt Engineering
    • Instruct LLM
    • Что такое промпт и почему это работает, zero shot learning
    • Примеры промптов к разным моделям
    • Промпты в LangChain
    • Форматированный ответ
    • Извлечение ответа из промпта
    • Few Shot learning
    • Борьба с галлюцинацией
    • Tips and tricks
    • Примеры
    • Function calling
    • Защита от инъекций
    07. Tools and Agents
    • Function call / Tools
    • Structured output
    • Примеры сценариев
    • LLM Agents
    • ReAct
    08. Fine-tuning
    • Управление памятью и точностью вычислений
    • Multi-GPU, Multi-Host training, FSDP/ZeRO
    • Оптимизация и квантизация
    • Легковесные дообучения адаптеров
    • Фреймворки и инструменты
    9. Alignment
    • Мотивация: safety, robustness, predictability
    • Обзор подходов: RLHF, RLAIF, Reward Hacking (Overoptimization), DPO, KTO
    • TRL библиотека для дообучения
    • Less Is More for Allignment
    • Источники данных: User feedback, Crowdsourcing, Synthetic
    10. RAG
    • Что такое RAG
    • Векторный поиск
    • Векторные БД
    • Полнотекстовый поиск
    • Проблемы поиска
    • Оценка качества
    • Практические советы
    11. Деплой
    • Схемы деплоя
    • Фреймворки для инференса: torch.compile, onnx, trtllm, vllm, tgi, lmdeploy
    • Разбор преимуществ фреймворков
    • Техники ускорения инференса
    • Мониторинги
    12. Ускорение LLM
    • Flash attention
    • Квантизации bitsandbytes
    • Различные методы квантования
    • Speculative decoding
    • Sparse Matrix multiplication (статьи SpQR и butterfly от Tri Dao)
    • Инициатива LocalLlama (gguf)
    • Архитектурные решения: MoE, medusa, и multitoken prediction
    13. Multimodal models
    • Задачи мультимодального домена
    • Метрики
    • CLIP
    • LLaVA
    Тариф Основы + LLM
    • 9 лекций про LLM
    • 4 лекции основ NPL и LLM
    • 13 практических заданий
    • Проверка заданий от спикеров
    • Семинары со спикерами
    • Поддержка в чате

    Скрытый текст. Доступен только зарегистрированным пользователям.Нажмите, чтобы раскрыть...
     
  2. Похожие складчины
    Загрузка...
Наверх