Информация о публикации

Просмотр записей
Инд. авторы: Козинец Р.М., Бериков В.Б., Пестунов И.А., Рылов С.А.
Заглавие: Метод построения дерева решений, основанного на похожести объектов в задаче распознавания томографических изображений
Библ. ссылка: Козинец Р.М., Бериков В.Б., Пестунов И.А., Рылов С.А. Метод построения дерева решений, основанного на похожести объектов в задаче распознавания томографических изображений // Сборник трудов V Международной конференции и молодежной школы «Информационные технологии и нанотехнологии»-2019 (Самара, 21.05-24.05.2019): Том 4. Науки о данных / Под редакцией В.А. Фурсова. - 2019: Новая техника. - С.483-490. - ISBN: 978-5-88940-152-0.
Внешние системы: РИНЦ: 37640324;
Реферат: eng: The paper proposes pattern recognition method using a modification of the class of logical decision functions presented in the form of a decision tree. Instead of standard statements corresponding to the tree nodes, in which a variable is tested for certain sets of its values, a more general type of statements is used regarding the proximity of the point in question to different subsets of observations. At the same time, to determine the degree of similarity, various metrics and subspaces of features can be used. This type of decision tree allows one to get more complex decision-making boundaries, which at the same time have clear logical interpretation for the user. Several tree induction strategies are considered: based on data transformation using reference points selected with Relief, SVM, and K-means procedures. The method is experimentally investigated in the problem of tomographic images analysis. Experiments have shown that the proposed method gives more accurate predictions than CART, SVM, kNN algorithms and deep convolutional neural network (AlexNet).
rus: В работе предложен метод распознавания образов с применением модификации класса логических решающих функций, представленных в виде дерева решений. Вместо стандартных высказываний, соответствующих вершинам дерева, в которых проверяется принадлежность некоторой переменной тем или иным множествам ее значений, используется более общий тип высказываний относительно близости рассматриваемой точки к различным подмножествам наблюдений. При этом для определения степени похожести могут выбираться различные метрики и подпространства признаков. Этот тип дерева решений позволяет получить более сложные границы принятия решений, которые в то же время имеют понятную пользователю логическую интерпретацию. Рассмотрено несколько стратегий построения дерева: на основе преобразования данных с использованием опорных точек, выделенных с помощью процедур Relief, SVM и k-средних. Метод был применен для анализа томографических изображений. Эксперименты показали, что предложенный метод дает более точные прогнозы, чем алгоритмы CART, SVM, kNN и глубокая сверточная нейронная сеть (AlexNet).
Издано: 2019
Физ. характеристика: с.483-490
Конференция: Название: V Международная конференция и молодежная школа "Информационные технологии и нанотехнологии"
Аббревиатура: ИТНТ-2019
Город: Самара
Страна: Россия
Даты проведения: 2019-05-21 - 2019-05-24
Цитирование:
1. Satrajit, B. Developing Predictive Model for Lung Tumor Analysis. - Graduate Theses and Dissertations, 2012.
2. Gonzalez, R.C. Digital image processing using MATLAB / R. Gonzales, R.E. Woods, S.L. Eddins // Upper Saddle River. - New Jersey: Pearson-Prentice-Hall, 2004. - 624 p.
3. Kira, K. A Practical Approach to Feature Selection / K. Kira, L. Rendell // Machine Learning Proceedings, 1992. - P. 249-256.
4. Duda, R.O. Pattern classification and scene analysis / R.O. Duda, P. E. Hart. - New York: Wiley, 1973.
5. Otsu, N. A threshold selection method from gray-level histograms // IEEE transactions on systems, man, and cybernetics. - 1979. - Vol. 9(1). - P. 62-66.
6. Breiman, L. Classification and Regression Trees / L. Breiman, J.H. Friedman, R.A. Olshen, C.J. Stone. - New York: Routledge, 1984. - 368 p.
7. Vapnik, V. Support-vector networks / C. Cortes, V. Vapnik // Machine learning. - 1995. - Vol. 20(3). - P. 273-297.
8. Breiman, L. Random forests // Machine learning. - 2001. - Vol. 45(1). - P. 5-32. DOI: 10.1023/ A:1010933404324
9. LeCun, Y. Backpropagation applied to handwritten zip code recognition / Y. LeCun, B. Boser, J.S. Denker, D. Henderson, R.E. Howard // Neural computation. - 1989. - Vol. 1(4). - P. 541 551.
10. Kotsiantis, S.B. Decision trees: a recent overview // Artificial Intelligence Review. - 2013. - Vol. 39(4). - P. 261-283. DOI: 10.1007/s10462-011-9272-4.
11. Лбов, Г.С. Устойчивость решающих функций в задачах распознавания образов и анализа разнотипной информации / Г.С. Лбов, В.Б. Бериков. - Новосибирск: Ин-т математики СО РАН, 2005.
12. Бериков, В.Б. Выбор оптимальной сложности класса логических решающих функций в задачах распознавания образов / Г.С. Лбов, В.Б. Бериков // Докл. РАН. - 2007. - Т. 417, № 1. - С. 26-29.
13. Murthy, S.K. A system for induction of oblique decision trees / S.K. Murthy, S. Kasif, S. Salzberg // Journal of artificial intelligence research. - 1994. - Vol. 2. - P. 1-32.
14. Breiman, L. Bagging predictors // Machine learning. - 1996. - Vol. 24(2). - P. 123-140.
15. Schapire, R.E. The boosting approach to machine learning: An overview // Nonlinear estimation and classification. - Springer, New York, 2003. - P. 149-171.