Разработка нейросетевого метода в задаче классификации и распознавании изображения

В работе любого алгоритма распознавания или обнаружения лица следует выделить два логических блока: экстрактор характерных признаков и механизм классификации. Действие экстрактора основано на выделении из огромного потока входных данных полезной для классификатора информации. При идентификации личности этой информацией могут являться характеристики однозначно определяемых признаков (например, применяющееся в криминалистике относительное расположение глаз, бровей, губ и носа). Классификатор при принятии решения о назначении метки класса распознаваемому объекту должен руководствоваться именно этими признаками. Выбор признаков является наиболее важной задачей. Очевидно, что при их выборе учитываются наиболее уникальные свойства, так как по ним возможно наиболее достоверно судить о принадлежности объекта к тому или иному классу. Существует множество разных подходов к получению признаков класса. Рассмотрено применение ObjectDetection (обнаружение объектов) к решению задачи классификации и распознавания изображения. Приведено описание метода FastER-RCNN, основанного на двухэтапной нейронной сети. Проведены результаты применения алгоритма YOLOv3 при обучении нейронной сети с различными шагами. Предложено использовать улучшенный подход, основанный на YOLO для точного и быстрого обнаружения объектов. Вклады этой работы заключаются в следующем: эффективная и точная модель обнаружения в реальном времени, легкость и способность определения местонахождение объектов, основанная на улучшении алгоритма Fast-RCNN.

In the operation of any algorithm for face recognition or face detection, two logical blocks should be distinguished: an extractor of characteristic features and a classification mechanism. The action of the extractor is based on the extraction of information useful for the classifier from a huge stream of input data. When identifying a person, this information may be the characteristics of uniquely determined features (for example, the relative position of the eyes, eyebrows, lips and nose used in forensic science). When deciding whether to assign a class label to a recognizable object, a classifier should be guided by these very features. Feature selection is the most important task. Obviously, when choosing them, the most unique properties are taken into account, since they are the most reliable way to judge whether an object belongs to a particular class. There are many different approaches to obtaining class traits. The application of Object Detection to the solution of the problem of image classification and recognition is considered. The description of the FastER-RCNN method based on a two-stage neural network is given. The results of applying the YOLOv3 algorithm for training a neural network with different steps are presented. It is proposed to use an improved approach based on YOLO for accurate and fast object detection. The contributions of this work are: an efficient and accurate real-time detection model, ease and ability to locate objects based on improvements to the Fast-RCNN algorithm.

Издательство
Фонд содействия развитию интернет-медиа, ИТ-образования, человеческого потенциала Лига интернет-медиа
Номер выпуска
3
Язык
Русский
Страницы
507-518
Статус
Опубликовано
Том
17
Год
2021
Организации
  • 1 Российский университет дружбы народов
  • 2 Институт проблем управления им. В. А. Трапезникова Российской академии наук
Ключевые слова
face recognition; image recognition; convolutional neural networks; Regional Convolutional Neural Networks (R-CNN) model; bounding box; anchor; распознавание лиц; распознавание изображения; сверточные нейронные сети; модель R-CNN; ограничивающая рамка; анкор
Дата создания
19.07.2022
Дата изменения
19.07.2022
Постоянная ссылка
https://repository.rudn.ru/ru/records/article/record/92826/
Поделиться

Другие записи

Лапшенкова Л.О., Москалева Ф.А., Гайдамака Ю.В.
Современные информационные технологии и ИТ-образование. Фонд содействия развитию интернет-медиа, ИТ-образования, человеческого потенциала Лига интернет-медиа. Том 17. 2021. С. 519-530