Разработка нейросетевого метода в задаче классификации и распознавании изображения

В работе любого алгоритма распознавания или обнаружения лица следует выделить два логических блока: экстрактор характерных признаков и механизм классификации. Действие экстрактора основано на выделении из огромного потока входных данных полезной для классификатора информации. При идентификации личности этой информацией могут являться характеристики однозначно определяемых признаков (например, применяющееся в криминалистике относительное расположение глаз, бровей, губ и носа). Классификатор при принятии решения о назначении метки класса распознаваемому объекту должен руководствоваться именно этими признаками. Выбор признаков является наиболее важной задачей. Очевидно, что при их выборе учитываются наиболее уникальные свойства, так как по ним возможно наиболее достоверно судить о принадлежности объекта к тому или иному классу. Существует множество разных подходов к получению признаков класса. Рассмотрено применение ObjectDetection (обнаружение объектов) к решению задачи классификации и распознавания изображения. Приведено описание метода FastER-RCNN, основанного на двухэтапной нейронной сети. Проведены результаты применения алгоритма YOLOv3 при обучении нейронной сети с различными шагами. Предложено использовать улучшенный подход, основанный на YOLO для точного и быстрого обнаружения объектов. Вклады этой работы заключаются в следующем: эффективная и точная модель обнаружения в реальном времени, легкость и способность определения местонахождение объектов, основанная на улучшении алгоритма Fast-RCNN.

In the operation of any algorithm for face recognition or face detection, two logical blocks should be distinguished: an extractor of characteristic features and a classification mechanism. The action of the extractor is based on the extraction of information useful for the classifier from a huge stream of input data. When identifying a person, this information may be the characteristics of uniquely determined features (for example, the relative position of the eyes, eyebrows, lips and nose used in forensic science). When deciding whether to assign a class label to a recognizable object, a classifier should be guided by these very features. Feature selection is the most important task. Obviously, when choosing them, the most unique properties are taken into account, since they are the most reliable way to judge whether an object belongs to a particular class. There are many different approaches to obtaining class traits. The application of Object Detection to the solution of the problem of image classification and recognition is considered. The description of the FastER-RCNN method based on a two-stage neural network is given. The results of applying the YOLOv3 algorithm for training a neural network with different steps are presented. It is proposed to use an improved approach based on YOLO for accurate and fast object detection. The contributions of this work are: an efficient and accurate real-time detection model, ease and ability to locate objects based on improvements to the Fast-RCNN algorithm.

Publisher
Фонд содействия развитию интернет-медиа, ИТ-образования, человеческого потенциала Лига интернет-медиа
Number of issue
3
Language
Russian
Pages
507-518
Status
Published
Volume
17
Year
2021
Organizations
  • 1 Российский университет дружбы народов
  • 2 Институт проблем управления им. В. А. Трапезникова Российской академии наук
Keywords
face recognition; image recognition; convolutional neural networks; Regional Convolutional Neural Networks (R-CNN) model; bounding box; anchor; распознавание лиц; распознавание изображения; сверточные нейронные сети; модель R-CNN; ограничивающая рамка; анкор
Date of creation
19.07.2022
Date of change
19.07.2022
Short link
https://repository.rudn.ru/en/records/article/record/92826/
Share

Other records

Лапшенкова Л.О., Москалева Ф.А., Гайдамака Ю.В.
Современные информационные технологии и ИТ-образование. Фонд содействия развитию интернет-медиа, ИТ-образования, человеческого потенциала Лига интернет-медиа. Vol. 17. 2021. P. 519-530