Автор: Артиков Музаффар Эгамберганович

Рубрика: Спецвыпуск

Опубликовано в Техника. Технологии. Инженерия №3 (5) июнь 2017 г.

Дата публикации: 14.07.2017

Статья просмотрена: 21 раз

Библиографическое описание:

Артиков М. Э. Анализ эффективности применения методов классификации // Техника. Технологии. Инженерия. — 2017. — №3.1. — С. 5-6. — URL https://moluch.ru/th/8/archive/62/2632/ (дата обращения: 23.02.2018).



Классификация – системное распределение изучаемых предметов, явлений, процессов по родам, видам, типам, по каким-либо существенным признакам для удобства их исследования; группировка исходных понятий и расположение их в определенном порядке, отражающем степень этого сходства.

Классификация - это закономерность, позволяющая делать вывод относительно определения характеристик конкретной группы. Таким образом, для проведения классификации должны присутствовать признаки, характеризующие группу, к которой принадлежит то или иное событие или объект (обычно при этом на основании анализа уже классифицированных событий формулируются некие правила).

Классификация относится к стратегии обучения с учителем (supervised learning), которое также именуют контролируемым или управляемым обучением.

Задачей классификации часто называют предсказание категориальной зависимой переменной (т.е. зависимой переменной, являющейся категорией) на основе выборки непрерывных и/или категориальных переменных.

Другой вариант классификации возникает, если зависимая переменная может принимать значения из некоторого множества предопределенных классов. Например, когда необходимо предсказать, какую марку автомобиля захочет купить клиент. В этих случаях рассматривается множество классов для зависимой переменной.

На сегодняшний день имеется большое количество методов для классификации объектов.

Наивный байесовский классификатор может быть, как параметрическим, так и непараметрическим, в зависимости от того, каким методом восстанавливаются одномерные плотности. Основные преимущества наивного байесовского классификатора — простота реализации и низкие вычислительные затраты при обучении и классификации. В тех редких случаях, когда признаки действительно независимы, наивный байесовский классификатор оптимален.

Основной его недостаток — относительно низкое качество классификации в большинстве реальных задач. Чаще всего он используется либо как примитивный эталон для сравнения различных моделей алгоритмов, либо как элементарный строительный блок в алгоритмических композициях [1].

Дерево принятия решений — средство поддержки принятия решений, использующееся в статистике и анализе данных для прогнозных моделей. Среди прочих методов ИАД, метод дерева принятия решений имеет несколько достоинств: прост в понимании и интерпретации, позволяет оценить модель при помощи статистических тестов, является надежным методом.

Недостатки метода:

 Проблема получения оптимального дерева решений является NP-полной с точки зрения некоторых аспектов оптимальности даже для простых задач [2,3].

 Изучающие метод дерева принятия решений, могут создавать слишком сложные конструкции, которые недостаточно полно представляют данные. Данная проблема называется переобучением [4].

 Для данных, которые включают категориальные переменные с большим набором уровней (закрытий), больший информационный вес присваивается тем атрибутам, которые имеют большее количество уровней [5].

K-ближайших соседей – это метрический алгоритм классификации, основанный на оценивании сходства объектов. Классифицируемый объект относится к тому классу, которому принадлежат ближайшие к нему объекты обучающей выборки [6].

Классификацию, проведенную данным алгоритмом, легко интерпретировать путём предъявления пользователю нескольких ближайших объектов. Поиск ближайшего соседа предполагает сравнение классифицируемого объекта со всеми объектами выборки, что требует линейного по длине выборки числа операций [7].

Машина опорных векторов — является одной из наиболее популярных методологий обучения по прецедентам, предложенной В. Н. Вапником и известной в англоязычной литературе под названием SVM (Support Vector Machine). Это наиболее быстрый метод нахождения решающих функций. Метод сводится к решению задачи квадратичного программирования в выпуклой области, которая всегда имеет единственное решение. Не существует общего подхода к автоматическому выбору ядра в случае линейной неразделимости классов.

Random forest (случайный лес) — алгоритм машинного обучения, заключающийся в использовании ансамбля решающих деревьев. Алгоритм сочетает в себе две основные идеи: метод бэггинга Бреймана и метод случайных подпространств. Алгоритм применяется для задач классификации, регрессии и кластеризации.

Высокое качество получаемых моделей, сравнимое с SVM и бустингом, и лучшее, чем у нейронных сетей [8]. Алгоритм склонен к переобучению на некоторых задачах, особенно на зашумленных задачах [9].

Методы

легкость интерпретации

простота реализации

низкие вычислительные затраты

скорость при вычислении

надежность и устойчивость к шумам

легкость при расширении алгоритма

Наивный Байес

высокая

высокая

Да

высокая

Низкая

низкая

Дерево принятия решений

Низкая

высокая

Нет

зависит от объема данных

Низкая

низкая

K-ближайших соседей

Низкая

средняя

Нет

зависит от объема данных

Среднее

высокая

Машина опорных векторов

высокая

низкая

Да

высокая

Высокая

высокая

Случайный лес

Средняя

средняя

Нет

высокая

Низкая

низкая

Таблица 1. Предварительный анализ качеств методов классификации.

Из рассмотренных 5 методов классификации следует выделить 2 из них, результаты которых показали относительно неплохие результаты.

Метод «Дерево принятия решений» показывает самый высокий результат при наименьшим объеме тестовых данных. Из этого следует, что данный метод возможно интегрировать в системы поддержки принятия решений имея уже сформулированную обученную модель с большим объемом данных.

Во втором случае, метод «Машина опорных векторов» показывает довольно средний результат, однако обладает большой устойчивостью к шумам вне зависимости от объемов тестовых данных. Можно утверждать, что данный метод обладает наибольшим потенциалом для внедрения в экспертные системы. Также положительной чертой данного метода является легкость расширения или переработки алгоритмов, что при правильном подходе может повысить качество выходного результата.

Литература:

  1. https://ru.wikipedia.org/wiki/Задача_классификации
  2. Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning. — Springer, 2001. ISBN 0-387-95284-5
  3. Hyafil, Laurent; Rivest, RL (1976). «Constructing Optimal Binary Decision Trees is NP-complete». Information Processing Letters 5 (1): 15-17. DOI:10.1016/0020-0190(76)90095-8.
  4. Murthy S. (1998). Automatic construction of decision trees from data: A multidisciplinary survey. Data Mining and Knowledge Discovery
  5. Principles of Data Mining. 2007. DOI:10.1007/978-1-84628-766-4. ISBN 978-1-84628-765-7.
  6. Deng,H.; Runger, G.; Tuv, E. (2011). «Bias of importance measures for multi-valued attributes and solutions». Proceedings of the 21st International Conference on Artificial Neural Networks (ICANN). pp. 293—300.
  7. Bishop C. - Pattern Recognition and Machine Learning (Springer, 2006)
  8. К. В. Воронцов, Лекции по метрическим алгоритмам классификации
  9. Caruana R., Niculescu-Mizil A., An Empirical Comparison of Supervised Learning Algorithms Using Different Performance Metrics
Основные термины (генерируются автоматически): принятия решений, зависимой переменной, метод дерева принятия, дерева принятия решений, поддержки принятия решений, низкие вычислительные затраты, применения методов классификации, низкое качество классификации, метрический алгоритм классификации, байесовский классификатор, категориальной зависимой переменной, проведения классификации должны, метод «Машина опорных, простота реализации, быстрый метод нахождения, вариант классификации, задач классификации, метод бэггинга Бреймана, классификации объектов, метод случайных подпространств.

Обсуждение

Социальные комментарии Cackle

Посетите сайты наших проектов

Задать вопрос