Регистрация / Вход
Прислать материал

Построение сбалансированной обучающей выборки для трудно представимых классов изображений в задачах классификации с использованием нейронных сетей.

Фамилия
Иванов
Имя
Денис
Отчество
Евгеньевич
Номинация
Информационные технологии
Институт
Институт информационных технологий и автоматизированных систем управления (ИТАСУ)
Кафедра
Инженерной кибернетики
Академическая группа
ММ-14-2
Научный руководитель
к.т.н., доцент, Полевой. Д.В.
Название тезиса
Построение сбалансированной обучающей выборки для трудно представимых классов изображений в задачах классификации с использованием нейронных сетей.
Тезис

При решении задачи классификации изображений с использованием нейронных сетей возникает необходимость балансировки разных по численности классов. Применение метода случайной подвыборки для сокращения числа примеров может негативно сказаться на результате обучения.

1) Поставим задачу построения такой обучающей подвыборки фиксированного размера, обучение на которой даст результат лучше, чем на случайной подвыборке.

Для измерения схожести изображений введем метрику, основанную на значениях активации нейронов обучаемой сети. Для изображений \(I_{1}, I_{2}\), расстояние вычисляется по формуле:

\(d_{CNN}(I_{1}, I_{2}) = \sqrt{\sum\limits_{i = 1}^{N}\sum\limits_{j = 1}^{K_{i}}(CNN_{ij}(I_{1}) - CNN_{ij}(I_{2}) )^2}\),

где \(CNN_{ij}(I)\) это значение активации i-го нейрона на j-ом слое нейронной сети при пропускании через нее изображения \(I \). Таким образом, каждому изображению ставится в соответствие вектор состоящий из \(\sigma = \sum\limits_{i = 1}^{N}K_{i}\)

элементов, а предложенная метрика является расстоянием между векторами в пространстве \(l_{2}^{\sigma}\).

2) Перейдем к следующей задаче оптимизации.

Пусть в пространстве размерности \(\sigma \) дано множество векторов \(X\) мощностью N.

Требуется из N векторов выбрать подмножество \(X_{k}\) мощностью k, таким образом, что \(f(X_{k}) \to max\), где \(f\) – выбираемая эмпирически функция, которая характеризует разнообразие элементов выбранного подмножества. Решением такой задачи будет искомая подвыборка изображений.
3) Дальнейшая работа предполагает проведение ряда экспериментов, в которых будут изменяться:
а) Характеристическая функция \(f\);
б) Количество слоев, значения активации которых используются в метрике \(N\)

в) Размер искомой подвыборки \(K\).

В ходе каждого эксперимента предлагается: выбрать архитектуру сети и первично обучить ее на случайной подвыборке. Определив характеристическую функцию и используя полученные на первом шаге веса, решить задачу оптимизации. Добиться улучшения качества обучения в сравнении с исходной подвыборкой.