Важное объявление!
У Нас Все раздачи мультитрекерные, при нуле пиров в релизах, можете смело вставать на закачку!
 
Автор Сообщение

HUNTER

Стаж:
4 года 8 месяцев
Сообщений:
62035

Репутация: 101

[+] [-]
Вне форума [Профиль] [ЛС]

Лекции Техносферы. DataMining. Алгоритмы интеллектуальной обработки больших объемов данных
Год выпуска: 2014
Производитель: Техносфера
Сайт производителя: https://sphere.mail.ru
Автор: Николай Анохин, Владимир Гулин
Продолжительность: ~22 часа
Тип раздаваемого материала: Видеоурок
Язык: Русский
Описание: Бесплатное практико-ориентированное обучение под руководством лучших специалистов Mail.Ru Group. Преподавание строится на примерах из реальной практики, существующих проектов, с анализом их достоинств и недостатков.

Содержание

Лекция №1 - "Задачи Data Mining"
  • Обзор задач Data Mining.
  • Стандартизация подхода к решению задач Data Mining.
  • Процесс CRISP-DM.
  • Виды данных.
  • Кластеризация, классификация, регрессия.
  • Понятие модели и алгоритма обучения.

    Лекция №2 "Задача кластеризации и ЕМ-алгоритм"

  • Постановка задачи кластеризации.
  • Функции расстояния.
  • Критерии качества кластеризации.
  • EM-алгоритм.
  • K-means и модификации.
  • Лекция №3 "Различные алгоритмы кластеризации"

  • Иерархическая кластеризация.
  • Agglomerative и Divisive алгоритмы.
  • Различные виды расстояний между кластерами.
  • Stepwise-optimal алгоритм.
  • Случай неэвклидовых пространств.
  • Критерии выбора количества кластеров: rand, silhouette.
  • DBSCAN.
  • Лекция №4 "Задача классификации"

  • Постановка задач классификации и регрессии.
  • Теория принятия решений.
  • Виды моделей.
  • Примеры функций потерь.
  • Переобучение.
  • Метрики качества классификации.
  • MDL.
  • Решающие деревья.
  • Алгоритм CART.
  • Лекция №5 "Обработка текстов, Naive Bayes"

  • Условная вероятность и теорема Байеса.
  • Нормальное распределение.
  • Naive Bayes: multinomial, binomial, gaussian.
  • Сглаживание.
  • Генеративная модель NB и байесовский вывод.
  • Графические модели.
  • Лекция №6 "Линейные модели для классификации и регрессии"

  • Обобщенные линейные модели.
  • Постановка задачи оптимизации.
  • Примеры критериев.
  • Градиентный спуск.
  • Регуляризация.
  • Метод Maximum Likelihood.
  • Логистическая регрессия.
  • Лекция №7 "Машина опорных векторов"

  • Разделяющая поверхность с максимальным зазором.
  • Формулировка задачи оптимизации для случаев линейно-разделимых и линейно-неразделимых классов.
  • Сопряженная задача.
  • Опорные векторы.
  • KKT-условия.
  • SVM для задач классификации и регрессии.
  • Kernel trick.
  • Теорема Мерсера.
  • Примеры функций ядра.
  • Лекция №8 "Методы снижения размерности пространства"

  • Проблема проклятия размерности.
  • Отбор и выделение признаков.
  • Методы выделения признаков (feature extraction).
  • Метод главных компонент (PCA).
  • Метод независимых компонент (ICA).
  • Методы основанные на автоэнкодерах.
  • Методы отбора признаков (feature selection).
  • Методы основанные на взаимной корреляции признаков.
  • Метод максимальной релевантность и минимальной избыточности (mRMR).
  • Методы основанные на деревьях решений.
  • Лекция №9 "Алгоритмические композиции. Начало"

  • Комбинации классификаторов.
  • Модельные деревья решений.
  • Смесь экспертов.
  • Stacking.
  • Стохастические методы построения ансамблей классификаторов.
  • Bagging.
  • RSM.
  • Алгоритм RandomForest.
  • Лекция №10 "Алгоритмические композиции. Завершение"

  • Ключевые идеи бустинга.
  • Отличия бустинга и бэггинга.
  • Алгорим AdaBoost.
  • Градиентный бустинг.
  • Мета-алгоритмы над алгоритмическими композициями.
  • Алгоритм BagBoo.
  • Лекция №11 "Основы нейронных сетей"

  • Биологический нейрон и нейронные сети.
  • Искусственный нейрон Маккалока-Питтса и искусственная нейронная сеть.
  • Персептрон Розенблатта и Румельхарта.
  • Алгоритм обратного распространения ошибки.
  • Момент обучения, регуляризация в нейросети, локальная скорость обучения, softmax слой.
  • Различные режимы обучения.
  • Лекция №12 "Ограниченная машина Больцмана"

  • Нейросетейвой автоэнкодер.
  • Стохастические и рекурентные нейронные сети.
  • Машина Больцмана и ограниченная машина Больцмана.
  • Распределение Гиббса.
  • Алгоритм contrastive divergence для обучения РБМ.
  • Сэмплирование данных из РБМ.
  • Бинарная РБМ и гауссово-бинарная РБМ.
  • Влияние регуляризации, нелинейное сжатие размерности, извлечение признаков.
  • Semantic hashing.
  • Лекция №13 "Глубокие нейронные сети"

  • Трудности обучения многослойного персептрона.
  • Предобучение используя РБМ.
  • Глубокий автоэнкодер, глубокая многослойная нейросеть.
  • Deep belief network и deep Boltzmann machine.
  • Устройство человеческого глаза и зрительной коры головного мозга.
  • Сверточные сети.
  • Файлы примеров: отсутствуют
    Формат видео: MP4
    Видео: H264 - MPEG-4 AVC, 1280x720, 25fps
    Аудио: AAC, 44.1 KHz, 126 Kbps, 2 channels

    Скриншоты

    Доп. информация: БОНУС - Презентации

    _________________
    Показать сообщения:    

    Текущее время: Сегодня 12:28

    Часовой пояс: GMT



    Вы не можете начинать темы
    Вы не можете отвечать на сообщения
    Вы не можете редактировать свои сообщения
    Вы не можете удалять свои сообщения
    Вы не можете голосовать в опросах
    Вы не можете прикреплять файлы к сообщениям
    Вы не можете скачивать файлы
    Наши партнеры: интернет магазин Ивановского трикотажа textilla.ru