Машинное обучение
Объем курса - 50 ак. ч. Формат обучения - онлайн.
Краткосрочная навыковая образовательная программа.
Бесплатно для студентов филиалов НИЯУ МИФИ и сотрудников ГК "Росатом".
Курс реализуется Digital-Центром НИЯУ МИФИ при поддержке ГК "Росатом".
Объем курса - 50 ак. ч. Формат обучения - онлайн.
Краткосрочная навыковая образовательная программа.
Бесплатно для студентов филиалов НИЯУ МИФИ и сотрудников ГК "Росатом".
Курс реализуется Digital-Центром НИЯУ МИФИ при поддержке ГК "Росатом".
Регистрация
Машинное обучение
Вы научитесь
1
Применять методы машинного обучения для решения прикладных задач обработки данных
2
Использовать современные программные библиотеки для построения и анализа моделей машинного обучения

Преимущества программы
Обучение бесплатно для студентов НИЯУ МИФИ и филиалов и сотрудников ГК "Росатом"
Все слушатели, прошедшие обучение, получат сертификат о прохождении курса
Все занятия проходят онлайн
Программа курса
1
Основные парадигмы машинного обучения
Машинное обучение и науки о данных. Data-driven и model-based подходы. История машинного обучения. Общая схема решения задач машинного обучения. Стандарт CRISP-DM. Типы задач машинного обучения. Примеры прикладных задач. Основные понятия и определения. Обзор основных парадигм машинного обучения.
2
Обучение с учителем: основные принципы
Методы обучения с учителем. Обучающийся алгоритм. Индуктивный порог. Проблема переобучения и понятие обобщающей способности. Функция потерь. Теоретический и эмпирический риск. Принцип минимизации эмпирического риска. Смещение и дисперсия ошибки обучаемой модели. Разложение «bias-variance». Связь сложности модели, индуктивного порога и способности к обобщению. Оценивание точности обученных моделей. Методы кросс-валидации: hold-out, k-fold, LOOCV. Стратификация выборки при кросс-валидации, внутренняя кросс-валидация.
3
Обучение с учителем: регрессия
Понятие статистической модели. Теоретические и статистические модели. Примеры. Регрессионные модели. Постановка задачи обучения регрессионной модели. Риск модели с квадратичной функцией потерь. Функция регрессии. Оптимальность регрессионных моделей. Задачи, виды и этапы регрессионного анализа. Метод наименьших квадратов. Матрица плана и система нормальных уравнений. МНК-оценки параметров простейшей линейной регрессии. Ошибки и остатки модели. Предположения регрессионного анализа. Свойства МНК-оценок: линейность, состоятельность, несмещенность, эффективность, нормальность. Теорема Гаусса-Маркова. Метод наименьших квадратов. Проекционная матрица. МНК-оценки параметров множественной линейной регрессии. Статистические характеристики МНК-оценок. Проблема гетероскедастичности. Статистические тесты на гетероскедастичность. Визуальный анализ гетероскедастичности остатков регрессионной модели. Подходы к устранению гетероскедастичности. Взвешенный метод наименьших квадратов. Робастный регрессионный анализ. Метод наименьших модулей, LAR-регрессия. Постановка задачи и обучение. Использование взвешенного метода наименьших квадратов для обучения робастных моделей. Метод итеративного взвешивания (Iteratively Reweighted Least-Squares, IRLS).
4
Диагностика регрессионных моделей
Цели и виды диагностики регрессионных моделей. Проверка линейности. Графики остатков и частичной регрессии. Смещение оценок вследствие неучтенных переменных (omitted variable bias). Проверка гетероскедастичности, независимости и нормальности регрессионных остатков. Визуальная и количественная диагностика. Квантильные диаграммы. Понятие регрессионного выброса. Показатели аномальности наблюдения. Диаграмма box-and-whisker. Оценка влияния наблюдений на регрессионную модель. Связь аномальности с левериджами и стандартизованными регрессионными остатками. Расстояние Кука. Понятие мультиколлинеарности. Негативные эффекты мультиколлинеарности регрессоров. Показатели мультиколлинеарности. Variance inflation factor (VIF). Методы устранения мультиколлинеарности. Регуляризованные регрессионные модели. Гребневая регрессия. LASSO-регрессия. Подходы к выбору регрессоров. Пошаговая регрессия.
5
Бинарная классификация
Постановка задачи классификации. Бинарная классификация. Функция потерь и эмпирический риск классификатора. Виды функций потерь. Статистический взгляд на задачу обучения. Принцип минимизации эмпирического риска и метод максимального правдоподобия. Регуляризованный эмпирический риск. Оценка точности бинарного классификатора. Матрица ошибок. Специфичность и чувствительность, точность и полнота. ROC-анализ и PR-анализ. Показатели ROC AUC и PR AUC.
6
Многоклассовая классификация
Постановка задачи многоклассовой классификации. Подходы к многоклассовой классификации. Метод ECOC. Схемы кодирования. Методы декодирования. Оценка точности многоклассового классификатора. Матрица ошибок. Микро- и макро- показатели точности. Специфичность и чувствительность, точность и полнота. Микро- и макро- ROC-анализы и PR-анализы.
7
Байесовская классификация
Порождающие и разделяющие модели классификации. Бинарная функция потерь. Байесовское решающее правило. Дискриминантные функции. Нормальный байесовский классификатор. Расстояние Махаланобиса. Наивный байесовский классификатор. Регуляризованный байесовский классификатор. Байесовская классификация бинарных и мультиномиальных признаков. Пример применения к задаче категоризации документов. Непараметрический байесовский классификатор. Наивная оценка плотности распределения. Ядерная оценка плотности распределения. Виды ядерных функций. Парзеновское окно. Показатель точности оценки плотности. Разложение «bias-variance» оценки. Подходы к выбору ширины парзеновского окна. Метод Сильвермана. Оценивание многомерных плотностей распределения. Многомерные ядерные функции.
8
Непараметрическое оценивание плотностей
Особенности непараметрических методов машинного обучения Оценивание плотности с помощью гистограммы частот. Наивное оценивание плотности. Понятие ядерной функции (парзеновского окна). Виды ядер. Разложение bias-variance в ядерном оценивании. Влияние ширины парзеновского окна на свойства восстановленной плотности. Подходы к выбору ширины окна. Правило Сильвермана. Ядерное оценивание многомерных плотностей.
9
Логистическая регрессия
Методы обучения с учителем. Обучающийся алгоритм. Индуктивный порог. Проблема переобучения и понятие обобщающей способности. Функция потерь. Теоретический и эмпирический риск. Принцип минимизации эмпирического риска. Смещение и дисперсия ошибки обучаемой модели. Разложение «bias-variance». Связь сложности модели, индуктивного порога и способности к обобщению. Оценивание точности обученных моделей. Методы кросс-валидации: hold-out, k-fold, LOOCV. Стратификация выборки при кросс-валидации, внутренняя кросс-валидация.
10
Непараметрическая регрессия
Виды регрессионного анализа. Особенности непараметрического регрессионного анализа. Регрессограмма. Наивное оценивание функции регрессии. Ядерная регрессия Надарая-Уотсона. Виды ядер. KNN-регрессия. Линейное сглаживание. Связь матрицы линейного сглаживания и проекционной матрицы линейной регрессионной модели. Локальная линейная регрессия. Локальный метод наименьших квадратов. Использование взвешенного метода наименьших квадратов для локального линейного оценивания. Метод LOESS. Разложение bias-variance в локальном сглаживании. Выбор ширины ядра. Многомерное линейное сглаживание.
Фамилия Имя отчество
Преподаватель курса
Описание

Регистрация

Для записи на курс заполните анкету.

Генеральный партнёр образовательной программы — Госкорпорация "Росатом"

Образовательная программа "Full stack разработка приложения на Express.js и React.js" проводится на базе Digital-Центра НИЯУ МИФИ.
Связаться с нами:
+7 (495) 788 56 99, доб. 9688
digital@mephi.ru