Выберите городМосква
Москва
Екатеринбург
Тюмень
Санкт-Петербург
Сочи
Тбилиси
Москва+7 495 231-23-51
Екатеринбург
Тюмень
Санкт-Петербург
Тбилиси
Личный кабинет
Выберите городМосква
Москва
Екатеринбург
Тюмень
Санкт-Петербург
Сочи
Тбилиси
Москва+7 495 231-23-51
Екатеринбург
Тюмень
Санкт-Петербург
Тбилиси
SkillFactory
S_Machine LearningНовый

Практический Machine Learning

Вендор
Продукт
Тип курса
Авторизированный
Длительность
88 ак. часов
Ближайшая дата
Отсутствует
Стоимость
44 900 RUB
Формируем расписание курса
Оставьте заявку, и мы проинформируем вас когда все будет готово.
Описание

Курс включает в себя 10 модулей, более 500 упражнений на закрепление материала, обучение 10 алгоритмов ML, два хакатона на kaggle, чат с сообществом и поддержку менторов

●        Отработка навыков

Каждая тема разбирается в видео, скринкастах и конспектах и закрепляется десятками упражнений (тесты, дебаггинг кода, проверка кода студента)

●        Обучение моделей

По каждой теме вы работаете с моделью ML — файнтьюните, создаёте с нуля, оптимизируете, пробуете разные методы

●        Сообщество и ментор

На курсе вы не останетесь один на один с затруднениями — вам помогут не только ваши одногруппники, но и ментор курса. С такой поддержкой вы не бросите обучение на пол пути

Программа курса

Модуль 1 Введение в машинное обучение

— Введение в машинное обучение. Типы алгоритмов

— Какие бизнес-задачи решает машинное обучение — и какие нет

— Обзор кейсов по внедрению машинного обучения: анализ алгоритмов и использованных решений

— Этапы решения задач машинного обучения:

●        Определение требований

●        Предобработка данных

●        Моделирование (обучение модели)

●        Тестирование

●        Внедрение

— Задачи на закрепление темы: тесты, проверка кода

— Практика: реализация этапов машинного обучения на примере готовой модели

Модуль 2 Методы предобработки данных

— Типы данных и их проблемы

●        Типы данных: табличные, текстовые, временные ряды, аудиосигналы, изображения, видео и другие

●        Проблемы с данными: пропуски, неподходящий формат, мусор в данных, зашифрованные данные, проблема с разметкой и прочее

— Работа с пропусками и начальная обработка

●        Работа с пропусками и дублями

●        Заполнение статистиками

●        Нормализация данных по min, max, std

●        Удаление столбцов и строк

●        Проверка правильности типа данных

— Визуализация для предобработки

●        Гистограмма

●        Correlation plot

— Feature engineering

●        Создание признаков вручную

●        Полиномиальные признаки

●        Dummy-переменные

●        Признаки даты и времени

●        Статистики по наборам признаков

— Поиск выбросов

●        Поиск и удаление по порогу

●        Поиск по отклонению / распределению

●        Interquartile range

●        DBSCAN

— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе

— Практика: работа с параметрами модели

Модуль 3 Регрессия

— Линейная регрессия. Задачи регрессии и примеры использования в бизнесе

— Математический вывод линейной регрессии. Возможные ошибки в работе алгоритма

— Обучение модели линейной регрессии

— Методы нахождения прямой в регрессии

●        Аналитический вывод для одной переменной

●        Аналитический вывод для многих переменных

●        Градиентный спуск

— Логистическая регрессия

●        Примеры использования в решении жизненных задач

●        Решение задачи с помощью градиентного спуска

●        Обучение модели логистической регрессии

— Регуляризация моделей

●        L1-регуляризация

●        L2-регуляризация

— Дополнительные материалы

●        Коэффициент детерминации

●        Сравнение производительности разных методов

●        Использование матричных операций

●        Преобразование линейной модели

— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе

— Практика: обучение и оптимизация моделей линейной и логистической регрессии

Модуль 4 Кластеризация

— Обучение с учителем и без учителя (supervised / unsupervised learning)

— Области применения методов обучения без учителя

— Метод K-means

●        теория метода и реализация в коде

●        плюсы и минусы метода

●        настройка параметров

— Метод mean-shift

●        теория метода и реализация в коде

●        границы применимости

— Метод понижения размерности с помощью SVD

●        теория метода и реализация в коде

●        сильные и слабые стороны

— Работа с текстами

●        кластеризация текстов: теория и реализация в коде

●        метод "мешок слов"

— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе

— Практика: unsupervised обучение модели методами K-means, mean-shift и методом понижения размерности

Модуль 5 Tree-based алгоритмы: введение в деревья решений

— Введение в деревья решений

— Решающее дерево и как его построить

●        Структура дерева: внутренние и терминальные узлы

●        Разделяющие функции. Виды разделяющих функций

●        Обучение дерева решений для классификации и регрессии

●        Критерии качества разделения и прекращения роста дерева

●        Влияние параметров обучения на under / overfitting модели

— Примеры использования деревьев решений в production

— Визуализация структуры дерева

— Алгоритм построения дерева

— Виды деревьев в библиотеках машинного обучения

— Реализация деревьев в библиотеке sklearn

— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе

— Практика: обучение решающего дерева для задачи регрессии

Модуль 6 Tree-based алгоритмы: ансамбли

— Области применения ансамблей

●        Bagging и out-of-bag оценки

●        Применение bagging к логистической регрессии

●        Cлучайный лес: bagging и эвристики подбора признаков

●        Перебор параметров алгоритма по сетке (Grid Search)

— Random Forest

●        Объединение деревьев в один классификатор

●        Как вырастить деревья разными?

●        Настраиваемые параметры случайного леса

●        Сравнение результатов настройки параметров

●        Анализ качества ансмабля и влияния признаков

— Бустинг

●        Что такое бустинг деревьев?

●        AdaBoost и примеры использования

●        Значение порядка построения деревьев в ансамбле

●        AdaBoost в логистической регрессии

●        Gradient Boosting

●        CatBoost: особенности интерфейса

— Стекинг

●        Построение классификатора первого уровня и мета-классификатора

— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе

— Практика: соревнование по обучению решающих деревьев на kaggle

Модуль 7 Валидация данных и оценка качества алгоритмов

— Методы разбиения выборки для валидации данных

— Метрики качества алгоритмов

●        loss-функция

●        кросс-энтропия

●        метрики precision / recall

●        precision-recall curve

и другие

— Оценка качества алгоритмов в production

— Underfitting / overfitting

●        примеры реализации в коде

●        как избавиться от переобучения?

— Дисбаланс выборки: как бороться

— Визуализация процесса обучения модели

●        визуализация с Tensorboard

другие методы

— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе

— Практика: оценка качества алгоритма классификации

Модуль 8 Временные ряды в машинном обучении

— Задача анализа временных рядов в ML

●        области применения

●        метрики оценивания

— Принципы обучения алгоритма

●        "оконные" функции

●        экспоненциальное сглаживание: простое, двойное, с ручной настройкой параметров

●        кросс-валидация на временных рядах

— Эконометрический подход в анализе временных рядов

●        стационарность и единичные корни

●        дифференцирование

●        ограничения и недостатки эконометрического подхода

— Алгоритмы машинного обучения для анализа временных рядов

●        извлечение признаков для обучения

●        обучение линейных моделей

●        применение регуляризации

●        бустинг для временных рядов: преимущества и ограничения

— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе

— Практика: обучение линейной модели и использование XGBoost для анализа временных рядов

Модуль 9 Рекомендательные системы

— Обзор подходов к построению рекомендательных систем

— Принципы разбиения выборки

— Модель TopRecommender

●        принцип работы алгоритма

●        практика реализации в коде

●        границы применимости, достоинства и недостатки

— Коллаборативная фильтрация

— Разреженная матрица

— Алгоритм SVD Recommender

●        принцип работы алгоритма

●        практика реализации в коде

●        достоинства метода, ограничения

— Проблема холодного старта в рекомендательных системах

— Бустинг в рекомендательных системах: использование LightGBM

— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе

— Практика: обучение рекомендательной системы

Модуль 10 Финальный хакатон

— Выпускной хакатон: командное соревнование по обучению модели на платформе kaggle

FAQ

По окончанию обучения слушатели получают либо Сертификат Учебного Центра о прохождении курса, либо Удостоверение о повышении квалификации, зарегистрированное в ФРДО (Федеральный реестр сведений о документах об образовании и (или) о квалификации, документах об обучении). Для получения Свидетельства необходимо, чтобы длительность обучения превышала 16 академических часов, а так же необходимо предоставить оригинал Диплома о профессиональном или высшем образовании государственного образца.

Помимо этого, по факту прохождения авторизованных курсов вендоров Cisco, Postgres, AstraLinux, Microsoft, ICAgile выдается электронный сертификат вендора.

Возьмите паспорт и Диплом об окончании профессионального или высшего образования. Диплом понадобится для получения Удостоверения о повышении квалификации (в случае отсутствия Диплома, по окончанию курса будет выдан Сертификат Учебного Центра, подтверждающий факт пройденного обучения).

За несколько дней до начала обучения (обычно за неделю) все слушатели получают приглашение по указанной электронной почте (если обучение заказывалось централизованно, ваш персональный мейл могли не передать - обратитесь к специалисту вашей организации, кто заказывал курсы, приглашение есть у него). В приглашении указан адрес и прочая полезная для слушателя информация. Если вы не получили приглашение – обратитесь к нам любым удобным для вас способом и мы сообщим адрес и продублируем приглашение на вашу почту.

В основном корпусе в Москве по адресу Дербеневская набережная д.7 стр.5, БЦ «Оазис», парковки, к сожалению, нет. Зато есть муниципальная платная парковка на всех прилегающих улицах.

По поводу остальных филиалов и корпусов – уточняйте информацию у наших менеджеров. Мы постараемся сделать всё возможное для вашего комфортного обучения.

Да, во время занятий для слушателей всегда доступны чай, кофе, прохладительные напитки и орешки, печеньки и другие снеки на кофе-брейках. Помимо этого, в обеденный перерыв будет предложен полноценный горячий обед.

Наш центр работает с корпоративными и частными клиентами. Для каждой категории клиентов мы разработали различные варианты сотрудничества, позволяющие гибко подходить к ценообразованию и вариантам оплаты.

Обо всех специальных условиях читайте в разделе Спецпредложения.

Не достаточно информации? Напишите нам и мы сделаем вам предложение, от которого невозможно отказаться.

Не нашли подходящиего курса?
Оставьте заявку на обучение для вашей организации
Подпишитесь и будьте в курсе
Информация о новинках, скидках и акциях. Уже более 36 000 подписчиков!