Методы понижения размерности (обзор) играют важную роль в машинном обучении. Они позволяют строить модели в пространствах меньшей размерности, чем исходное признаковое пространство, с минимальными потерями информации. Особенно полезно понижать размерность до 2, то есть проецировать данные на плоскость. Таким образом можно изучить структуру данных, например, посмотреть, насколько разделимы классы в задачах классификации. В этом сообщении рассмотрены два классических метода - метод главных компонент (PCA) и многомерное шкалирование (MDS), а также один из мощнейших современных методов - t-SNE (t-Distributed Stochastic Neighbor Embedding).