Computer science & IT
DmitriyObidin
- 59 книг

Ваша оценка
Ваша оценка
Удивительно, но попытка уместить в 100 страниц (на самом деле, чуть больше) выжимку из основных технологий машинного обучения увенчалась успехом.
Большое преимущество книги в том, что все описано подробно и ясно, "настолько просто, насколько вообще возможно, но не проще этого".
Блестяще описаны теоретические аспекты, такие, как, например, архитектура нейронных сетей, метрики качества моделей, постановки распространенных задач оптимизации, процедура градиентного спуска (которая снабжена кодом для реализации на Python, что полезно для понимания), и многое другое.
Практические аспекты тоже подробно рассмотрены: критерии выбора алгоритма в зависимости от поставленной задачи, решение проблемы несбалансированности, обработка данных (нормализация, стандартизация, пропуски и аномальные значения), создание новых признаков на основе имеющихся, и т.д.
Прочтение этой книги, во-первых, структурирует информацию по машинному обучению в единое целое, а во-вторых экономит время (много времени), предлагая решения часто встречающихся на практике проблем.
Однозначно не раз буду возвращаться к этой книге в будущем.

Entropy is a measure of uncertainty about a random variable. It reaches its maximum when all values of the random variables are equiprobable. Entropy reaches its minimum when the random variable can have only one value.

In many practical cases, you would prefer a learning algorithm that builds a less accurate model fast. Additionally, you might prefer a less accurate model that is much quicker at making predictions.

It could look counter-intuitive that learning could benefit from adding more unlabeled examples. It seems like we add more uncertainty to the problem. However, when you add unlabeled examples, you add more information about your problem: a larger sample reflects better the probability distribution the data we labeled came from.