Ивановский Торрент трекер
Яндекс.Погода
 

[Цитировать]
HUNTER

Лекции Техносферы. DataMining. Алгоритмы интеллектуальной обработки больших объемов данных
Год выпуска: 2014
Производитель: Техносфера
Сайт производителя: https://sphere.mail.ru
Автор: Николай Анохин, Владимир Гулин
Продолжительность: ~22 часа
Тип раздаваемого материала: Видеоурок
Язык: Русский
Описание: Бесплатное практико-ориентированное обучение под руководством лучших специалистов Mail.Ru Group. Преподавание строится на примерах из реальной практики, существующих проектов, с анализом их достоинств и недостатков.

Содержание

Лекция №1 - "Задачи Data Mining"
  • Обзор задач Data Mining.
  • Стандартизация подхода к решению задач Data Mining.
  • Процесс CRISP-DM.
  • Виды данных.
  • Кластеризация, классификация, регрессия.
  • Понятие модели и алгоритма обучения.

Лекция №2 "Задача кластеризации и ЕМ-алгоритм"

  • Постановка задачи кластеризации.
  • Функции расстояния.
  • Критерии качества кластеризации.
  • EM-алгоритм.
  • K-means и модификации.

Лекция №3 "Различные алгоритмы кластеризации"

  • Иерархическая кластеризация.
  • Agglomerative и Divisive алгоритмы.
  • Различные виды расстояний между кластерами.
  • Stepwise-optimal алгоритм.
  • Случай неэвклидовых пространств.
  • Критерии выбора количества кластеров: rand, silhouette.
  • DBSCAN.

Лекция №4 "Задача классификации"

  • Постановка задач классификации и регрессии.
  • Теория принятия решений.
  • Виды моделей.
  • Примеры функций потерь.
  • Переобучение.
  • Метрики качества классификации.
  • MDL.
  • Решающие деревья.
  • Алгоритм CART.

Лекция №5 "Обработка текстов, Naive Bayes"

  • Условная вероятность и теорема Байеса.
  • Нормальное распределение.
  • Naive Bayes: multinomial, binomial, gaussian.
  • Сглаживание.
  • Генеративная модель NB и байесовский вывод.
  • Графические модели.

Лекция №6 "Линейные модели для классификации и регрессии"

  • Обобщенные линейные модели.
  • Постановка задачи оптимизации.
  • Примеры критериев.
  • Градиентный спуск.
  • Регуляризация.
  • Метод Maximum Likelihood.
  • Логистическая регрессия.

Лекция №7 "Машина опорных векторов"

  • Разделяющая поверхность с максимальным зазором.
  • Формулировка задачи оптимизации для случаев линейно-разделимых и линейно-неразделимых классов.
  • Сопряженная задача.
  • Опорные векторы.
  • KKT-условия.
  • SVM для задач классификации и регрессии.
  • Kernel trick.
  • Теорема Мерсера.
  • Примеры функций ядра.

Лекция №8 "Методы снижения размерности пространства"

  • Проблема проклятия размерности.
  • Отбор и выделение признаков.
  • Методы выделения признаков (feature extraction).
  • Метод главных компонент (PCA).
  • Метод независимых компонент (ICA).
  • Методы основанные на автоэнкодерах.
  • Методы отбора признаков (feature selection).
  • Методы основанные на взаимной корреляции признаков.
  • Метод максимальной релевантность и минимальной избыточности (mRMR).
  • Методы основанные на деревьях решений.

Лекция №9 "Алгоритмические композиции. Начало"

  • Комбинации классификаторов.
  • Модельные деревья решений.
  • Смесь экспертов.
  • Stacking.
  • Стохастические методы построения ансамблей классификаторов.
  • Bagging.
  • RSM.
  • Алгоритм RandomForest.

Лекция №10 "Алгоритмические композиции. Завершение"

  • Ключевые идеи бустинга.
  • Отличия бустинга и бэггинга.
  • Алгорим AdaBoost.
  • Градиентный бустинг.
  • Мета-алгоритмы над алгоритмическими композициями.
  • Алгоритм BagBoo.

Лекция №11 "Основы нейронных сетей"

  • Биологический нейрон и нейронные сети.
  • Искусственный нейрон Маккалока-Питтса и искусственная нейронная сеть.
  • Персептрон Розенблатта и Румельхарта.
  • Алгоритм обратного распространения ошибки.
  • Момент обучения, регуляризация в нейросети, локальная скорость обучения, softmax слой.
  • Различные режимы обучения.

Лекция №12 "Ограниченная машина Больцмана"

  • Нейросетейвой автоэнкодер.
  • Стохастические и рекурентные нейронные сети.
  • Машина Больцмана и ограниченная машина Больцмана.
  • Распределение Гиббса.
  • Алгоритм contrastive divergence для обучения РБМ.
  • Сэмплирование данных из РБМ.
  • Бинарная РБМ и гауссово-бинарная РБМ.
  • Влияние регуляризации, нелинейное сжатие размерности, извлечение признаков.
  • Semantic hashing.

Лекция №13 "Глубокие нейронные сети"

  • Трудности обучения многослойного персептрона.
  • Предобучение используя РБМ.
  • Глубокий автоэнкодер, глубокая многослойная нейросеть.
  • Deep belief network и deep Boltzmann machine.
  • Устройство человеческого глаза и зрительной коры головного мозга.
  • Сверточные сети.
Файлы примеров: отсутствуют
Формат видео: MP4
Видео: H264 - MPEG-4 AVC, 1280x720, 25fps
Аудио: AAC, 44.1 KHz, 126 Kbps, 2 channels

Скриншоты

Доп. информация: БОНУС - Презентации
Показать сообщения:    

Текущее время: 24-Окт 04:54

Часовой пояс: UTC - 1


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы

!ВНИМАНИЕ!
Сайт не предоставляет электронные версии произведений, а занимается лишь коллекционированием и каталогизацией ссылок, присылаемых и публикуемых на форуме нашими читателями. Если вы являетесь правообладателем какого-либо представленного материала и не желаете, чтобы ссылка на него находилась в нашем каталоге, свяжитесь с нами, и мы незамедлительно удалим ее. Файлы для обмена на трекере предоставлены пользователями сайта, и администрация не несет ответственности за их содержание. Просьба не заливать файлы, защищенные авторскими правами, а также файлы нелегального содержания!