close

Вход

Забыли?

вход по аккаунту

?

Алгоритмы подбора параметров комбинирования ациклических графов соседства в задаче распознавания текстурных изображений..pdf

код для вставкиСкачать
Управление, вычислительная техника и информационные технологии
УДК 004.93
С.Д. Двоенко, д-р физ.-мат. наук, проф., (4872) 35-36-37,
dsd@tsu.tula.ru (Россия, Тула, ТулГУ),
Д.В. Шанг, асп., (950) 908-68-88, dvietsang@gmail.com
(Россия, Тула, ТулГУ)
АЛГОРИТМЫ ПОДБОРА ПАРАМЕТРОВ КОМБИНИРОВАНИЯ
АЦИКЛИЧЕСКИХ ГРАФОВ СОСЕДСТВА В ЗАДАЧЕ
РАСПОЗНАВАНИЯ ТЕКСТУРНЫХ ИЗОБРАЖЕНИЙ
Рассмотрена древовидная модель соседства элементов марковского случайного поля принадлежностей к текстурным классам как марковская цепь в задаче распознавания растровых изображений. Предложены алгоритмы подбора диагонального
элемента марковской матрицы условных вероятностей переходов и весов графов в линейной комбинации для максимизации апостериорных вероятностей скрытых классов.
Ключевые слова: распознавание образов, машинное обучение, марковское случайное поле, марковская цепь.
В классической теории распознавания образов объекты рассматриваются независимо друг от друга. При обработке данных часто нужны скоординированные решения об объектах, связанных в единый массив. Взаимосвязи между ними представлены графом соседства.
В линейно упорядоченных массивах граф соседства является цепью. Скрытые марковские модели оказались эффективны при обработке
массивов с цепочечным соседством их элементов [1]. Но для графов общего вида с циклами задача распознавания марковских случайных полей обладает свойствами задачи класса NP [2, 3]. В [4–6] была предложена древовидная модель марковского случайного поля и разработан эффективный
алгоритм распознавания, выполняемый только за три прохода по графу соседства элементов массива, когда в нем циклов.
Марковская матрица условных вероятностей переходов является
параметром модели. В [5, 6] показано, что такая матрица может быть задана только одним диагональным элементом. Но он задавался эвристически.
В прикладных задачах графы соседства элементов массива обычно
содержат циклы. Древовидная редукция графа соседства существенно искажает взаимосвязи элементов в массиве данных. В [7] предложено скомпенсировать редуцированное множество взаимосвязей элементов расширением самого множества ациклических графов соседства. Был разработан
алгоритм определения оптимальных весов в линейной комбинации ациклических графов соседства из некоторого заданного множества.
В данной работе предложены алгоритмы одновременного подбора
весов графов в их линейной комбинации и диагонального элемента мар253
Известия ТулГУ. Технические науки. 2012. Вып. 3
ковской матрицы условных вероятностей переходов.
Задача распознавания массивов данных и базовый алгоритм
Пусть [4–6] массив взаимосвязанных данных T состоит из элементов t ∈ T и представлен как двухкомпонентное поле ( X , Y ) . Наблюдаемая
компонента Y состоит из векторов y t , t ∈ T , принимающих значения из
множества y t ∈ Θ , определенного природой источника данных. Элементы
xt , t ∈ T скрытой компоненты X принимают значения из множества
xt ∈ Ω , специфичного для конкретной задачи анализа данных. Например,
для задачи распознавания образов Ω = {1, 2,..., m} – это номера классов
объектов. На множестве элементов t ∈ T массива данных определено симметричное антирефлексивное бинарное отношение, представленное в виде
неориентированного графа G без петель, ребра которого ( s , t ) ∈ G соединяют соседние элементы массива данных s ∈ T и t ∈ T .
Обработка массива ( X , Y ) заключается в преобразовании массива
Y = ( y t , t ∈ T ) в массив X = ( xt , t ∈ T ) . В задаче распознавания взаимосвязанных объектов требуется по наблюдениям y t определить принадлежность элементов t ∈ T массива T к скрытым классам из Ω с учетом априорной информации о классах соседних объектов, заданных графом G .
В вероятностной задаче распознавания взаимосвязанных объектов
двухкомпонентное поле ( X , Y ) является случайным. Такая задача названа
в [4–6] задачей распознавания массивов взаимосвязанных данных.
Задача обработки сводится к численному определению апостериорного распределения π( X | Y ) = ζ( X ) η(Y | X ) / f (Y ) ∝ ζ( X ) η(Y | X ) , где
ζ( X ) – априорное распределение вероятностей на множестве комбинаций
целевых переменных X ∈ Ω|T | , а их вероятностная связь с исходными переменными представлена условной плотностью η( X | Y ) , Y ∈ Θ|T | . Для решений о скрытом поле X часто используется байесовское правило
)
xt (Y ) = arg max pt ( xt | Y ) , t ∈ T , где pt ( xt | Y ) – апостериорное маргинальное
xt ∈Ω
распределение вероятностей скрытых классов в элементе массива t ∈ T .
Пусть граф соседства G не содержит циклов (рис.1), а скрытое поле
классов X является марковским [4–6]. Тогда qt ( xt | X ( t ) ) = qt ( xt | X (0t ) ) , t ∈ T ,
где X ( t ) = ( xs , s ∈T \ t ) , X (0t ) = ( xs , s ∈ T \ t , ( s, t) ∈ G) . Аналогичные обозначения применяются для подмножеств элементов Y и массива T в целом.
Древовидный граф G разбивает окрестность (рис. 1, а) нетерминального элемента xt на две произвольные части X (0t ) = X (−t 0) U X (+t0) . Любая
вершина t * ∈ T в качестве корня задает естественный нисходящий и восходящий порядок просмотра, определяя окрестность X (−t 0) = xr из одного эле254
Управление, вычислительная техника и информационные технологии
мента (рис. 1, б), предшествующего xt , и окрестность X (+t 0) непосредственных потомков xt . В [5, 6] показано, что такое априорное случайное поле
является односторонним марковским qt ( xt | X (0t ) ) = qt ( xt | xr ) .
Рис. 1. Древовидный граф соседства
Пусть поле Y образовано случайными наблюдениями y t , условно
независимыми относительно поля X = ( xt , t ∈ T ) , где ψ t ( y t | X ) = ψ t ( y t | xt ) .
В [5, 6] показано, что апостериорное скрытое поле относительно того же
графа G остается односторонним марковским pt ( xt | X ( t ) , Y ) = pt ( xt | xr , Yt + ) ,
где Yt + – поддерево с корнем в y t , включая его. При обработке массива
независимые решения pt ( xt | y t ) согласуются между собой с учетом совместного априорного распределения ζ( X ) . Базовый алгоритм имеет вид:
1. Задается начало обработки в корне t ∗ и априорное распределение
qt * ( xt * ) , xt* ∈ Ω . Нисходящим просмотром для всех t ∈ T вычисляются априорные распределения классов qs ( xs ) =
∑ q (x
s
s
| xt ) qt ( xt ) , xs ∈ Ω , s ∈ T( t+)0 .
xt ∈Ω
2. Восходящим просмотром от терминалов к корню вычисляются
«фильтрационные» апостериорные маргинальные распределения классов
pt ( xt | Yt + ) ∝ pt ( xt | Y( t+) ) pt ( xt | y t ) , xt ∈ Ω , t ∈ T ,
pt ( xt | Y(+t ) ) ∝ ∏ ∑ ps ( xs | Ys+ ) qqs s( (xxs |sxt) ) , s ∈ T( t+)0 ,
s
xs ∈Ω
где апостериорные маргинальные распределения pt ( xt | y t ) получены на
этапе независимого обучения. В терминальных вершинах t каждого уровня, начиная с LM , выполнено pt ( xt | Yt + ) = pt ( xt | y t ) (рис. 1б).
3. На последнем восходящем шаге распределение в корне опирается
на все наблюдения pt* ( xt * | Yt*+ ) = pt * ( xt * | Y ) , xt* ∈ Ω . Такое «интерполяционное» апостериорное маргинальное распределение значений корневой пе255
Известия ТулГУ. Технические науки. 2012. Вып. 3
)
ременной позволяет принять решение о классе xt* (Y ) = arg max pt * ( xt * | Y ) .
xt * ∈Ω
4. Нисходящим просмотром от корня для всех t ∈ T вычисляются
интерполяционные апостериорные маргинальные распределения
ps ( xs | Y ) ∝ ∑ ps ( xs | xt ,Y ) pt ( xt | Y ), xs ∈ Ω , s ∈ T( t+)0 ,
xt ∈Ω
ps ( xs | xt , Y ) ∝ p s ( xs | Ys+ ) qt ( xt ) q ( x )
)
и принимаются решения о классах xs (Y ) = arg max ps ( xs | Y ) .
qs ( xs | xt )
s
s
xs ∈Ω
Частная модель марковского случайного поля
Марковское априорное случайное поле классов X определяет его
одностороннее свойство в виде условных распределений вероятностей на
множестве значений переменной xt ∈ Ω относительно любой переменной
xr ∈ X (0t ) из марковской окрестности xt . Для каждой пары вершин r , t ∈ G ,
соединенных ребром в дереве G , определена пара условных распределений вероятностей qt ( xt | xr ) и qr ( xr | xt ) . Выбор некоторой вершины дерева
G в качестве корня t * ∈ T задает нисходящее и восходящее направления
просмотра, объявляя одно из распределений «нисходящим», а другое –
«восходящим». В [4–6] рассмотрены важные частные свойства такой модели марковского поля, заключающиеся в следующем.
Односторонняя марковская модель поля X является однородной
конечной марковской цепью с неизменными условными распределениями
в прямом (восходящем) и обратном (нисходящем) направлениях, где
qr ( xr | xt ) = q ( xr | xt ) , qt ( xt | xr ) = q ( xt | xr ) , и определена матрицей прямых
Q( m × m) и матрицей обратных Q ( m × m) условных вероятностей переходов. Односторонняя марковская модель поля X является эргодической неразложимой марковской цепью и имеет финальное распределение p ( x ) ,
x ∈ Ω в корне t ∗ . Для неразложимой марковской цепи матрицы Q и Q
связаны q ( xt | xr ) = q ( xr | xt ) p ( xt ) / p ( xr ) через финальное распределение вероятностей p ( x ) , x ∈ Ω . Очевидно, что в такой модели начальное априорное маргинальное распределение вероятностей qt ( xt ) можно задать в любой вершине t ∈ T , тогда соответствующие маргинальные распределения
оказываются известными во всех остальных вершинах дерева G , в том
числе и в его корне. Корень t * естественно связать с началом обработки, а
начальное распределение сделать корневым qt * ( xt * ), xt * ∈ Ω .
Априорное распределение классов в корне t * является равномерным финальным распределением qt * ( xt * ) = p ( xt * ) = 1 / m . Тогда маргинальные априорные распределения вероятностей скрытых классов во всех остальных объектах также равномерны. В этом случае q ( xt | xr ) = q ( xr | xt ) . В
итоге, остается только одна симметричная и дважды стохастичная матрица
256
Управление, вычислительная техника и информационные технологии
переходов Q . В частной модели [5, 6] предполагается, что матрица Q имеет одинаковые диагональные элементы и одинаковые недиагональные
элементы. Тогда матрица Q задается только одним значением ее диагонального элемента q .
Алгоритмы комбинирования ациклических графов соседства
Очевидно, что произвольный граф соседства не может быть заменен древовидным графом G без потери фундаментального свойства исходного графа представлять полную информацию о каждом элементе t ∈ T
относительно других элементов. Например, решетка является графом соседства элементов растровых изображений и не является ациклическим
графом. В алгоритме комбинирования неизвестные нам апостериорные
маргинальные распределения вероятностей скрытых классов относительно
исходного графа соседства заменяются линейной комбинацией распределений относительно некоторого набора ациклических графов соседства.
Пусть задан набор ациклических графов соседства [7] так, что каждый граф покрывает все множество вершин, а каждое ребро исходного
графа входит хотя бы в один ациклический граф. Например, для растровых
текстурных изображений удобно использовать графы рис. 2.
Рис. 2. Ациклические графы соседства
Итерационный алгоритм распознавания с комбинированием
ациклических графов
Применим базовый алгоритм распознавания к каждому графу Gk из
данного набора. Для каждого ациклического графа сформируются распределения ptk ( xt | Y ) , t ∈ T , k = 1,..., K , где K – число ациклических графов, и
)
соответствующие решения о классах xtk (Y ), t ∈ T .
)
Для окончательных решений о классах xt (Y ), t ∈ T вычислим апостериорные распределения pt ( xt | Y ) = ∑ k =1 wk ptk ( xt | Y ) , t ∈ T как взвешенK
ную сумму распределений ptk ( xt | Y ) , k = 1,..., K , где wk ≥ 0 ,
∑
K
k =1
wk = 1 .
Повторим комбинирование, приняв только что найденные распределения pt ( xt | Y ) за исходные вместо распределений pt ( xt | y t ) для каждого ациклического графа соседства в отдельности и вновь повторим комбинирование. Остановим процедуру, когда результат перестанет изменяться.
Определение весов графов по схеме Гаусса-Зайделя. Изменение
веса графа Gk в диапазоне от 0 до 1 считаем аналогом покоординатного
257
Известия ТулГУ. Технические науки. 2012. Вып. 3
варьирования. На начальном шаге распределение весов всех графов изменяется от 1 / ( K − 1),...,0,...,1 / ( K − 1) , когда граф Gk полностью исключен,
до 0,…,1,… ,0 , когда есть только граф Gk . Шаг заканчивается после варьирования всех весов и выбора того графа, чей вес обеспечил минимальное
число ошибок распознавания на обучающем множестве изображений.
На очередном шаге варьируется вес 0 ≤ p ≤ 1 графа Gk . Нормированный вес графа Gk в линейной комбинации имеет значение wk = p . Остальные графы имеют к данному шагу постоянные веса li , i = 1,..., K , i ≠ k ,
где их сумма также постоянна L = ∑ i =1 li , i ≠ k . Их нормированные веса
K
wi = li (1 − p ) / L изменяются в диапазоне от wi = li / L до wi = 0 .
Каждое пробное варьирование проверяется однократным комбинированием уже вычисленных маргинальных распределений ptk ( xt | Y ),
t ∈ T , k = 1,..., K и распознаванием с подсчетом числа ошибок для решений
)
xt , t ∈ T . Шаг заканчивается после варьирования всех весов и выбора нового веса того графа, для которого получено минимальное число ошибок.
Алгоритмы
подбора
параметров
комбинирования
ациклических графов соседства
Расширим схему Гаусса-Зайделя для поиска оптимального значения
диагонального элемента матрицы переходов. Заметим, что при однократном распознавании новый шаг варьирования диагонального элемента в
диапазоне 1 / m ≤ q < 1 оказывается вырожденным, т. к. при любом наборе
весов ациклических графов монотонное увеличение диагонального элемента при условии q < 1 монотонно уменьшает число ошибок распознавания. Чтобы задача поиска не оказалась вырожденной, в новых алгоритмах
подбора параметров комбинирования графов будем применять многократное распознавание при оценке числа ошибок.
Алгоритм 1. Подбор единственного диагонального элемента и
весов. В этом алгоритме считается, что все ациклические марковские модели, соответствующие графам Gk , k = 1,..., K , определяются одним общим
диагональным элементом q .
1. Сначала будем считать, что веса всех ациклических графов одинаковы: w = w * = w0 = {wi = 1 / K , i = 1,..., K } , где K – число графов.
2. Варьируем q в диапазоне 1 / m ≤ q < 1 . Найдем значение q* , которое обеспечило минимальное число ошибок E : q * = arg min E ( w , q) .
1/ m ≤ q <1
3. Сделаем шаг варьирования весов по всем графам. Пусть варьируется вес wk очередного графа Gk в диапазоне 0 ≤ wk = p ≤ 1 при масштабировании весов остальных графов. Каждое пробное варьирование проверя258
Управление, вычислительная техника и информационные технологии
ется многократным распознаванием с подсчетом числа ошибок E ( w , q* ) .
Для каждого графа Gk определим оптимальный вектор весов и число ошибок: w k* = ( w1 ,...wk* ,..., wK ), wk* = arg min E ( w, q * ), Ek* =
wk = p ,0 ≤ p ≤1
min
wk = p ,0 ≤ p ≤1
E ( w, q * ) .
4. Среди полученных оптимальных наборов wk* , k = 1,..., K найдем
тот набор весов w * , который обеспечил наименьшее число ошибок E * :
E * = min E k*, k * = arg min Ek* , w * = wk** .
1≤ k ≤ K
1≤ k ≤ K
5. Снова варьируем q в диапазоне 1 / m ≤ q ≤ 1 . Найдем значение q* ,
которое обеспечило минимальное число ошибок E : q * = arg min E ( w * , q ) .
1/ m ≤ q <1
6. Присвоим веса w = w и перейдем к шагу 3.
7. Повторим шаги 3–6 до тех пор, пока E * не перестанет меняться.
Алгоритм 2. Первая схема подбора диагональных элементов и
весов. Каждому графу Gk , k = 1,..., K соответствует отдельная ациклическая марковская модель со своим диагональным элементом qk , k = 1,..., K .
1. Сначала будем считать, что веса всех ациклических графов одинаковы: w = w * = w0 = {wi = 1 / K , i = 1,..., K } , где K – число графов.
2. Варьируем все диагональные элементы qk , k = 1,..., K одновре*
менно q1 = ... = q K = q , где 1 / m ≤ q < 1 . Найдем q* , обеспечивающее минимальное число ошибок: q* = ( q * ,..., q * ) =
arg min
q1 = = q K = q ,1/ m ≤ q <1
E ( w0 , q1 ,..., qK ) .
3. Сделаем шаг варьирования весов по всем графам. Пусть варьируется вес wk графа Gk в диапазоне 0 ≤ wk = p ≤ 1 при масштабировании весов остальных графов. Каждое пробное варьирование проверяется многократным распознаванием с подсчетом числа ошибок E ( w ,q* ) . Для каждого
графа Gk определим оптимальный вектор весов и число ошибок:
w k* = ( w1 ,...wk* ,..., wK ), wk* = arg min E ( w, q * ), Ek* =
wk = p ,0 ≤ p ≤1
min
wk = p ,0 ≤ p ≤1
E ( w, q * ) .
4. Среди полученных оптимальных наборов w k* , k = 1,..., K , найдем
тот набор весов w * , который обеспечил наименьшее число ошибок E * :
E * = min Ek*, k * = arg min Ek* , w * = wk** .
1≤ k ≤ K
1≤ k ≤ K
5. После нахождения оптимальных весов w* сделаем шаг варьирования всех диагональных элементов. Пусть в диапазоне 1 / m ≤ q k < 1 варьируется диагональный элемент q k , соответствующий графу Gk . Остальным графам соответствуют в данный момент оптимальные диагональные
элементы qi* , i = 1,..., K , i ≠ k , которые найдены до начала варьирования q k .
259
Известия ТулГУ. Технические науки. 2012. Вып. 3
Значения диагональных элементов qi , i = 1,..., K , i ≠ k остаются постоянными qi = qi* , i = 1,..., K , i ≠ k при варьировании q k . Найдем значение q k* , которое обеспечило минимальное число ошибок Ek* : qk* = arg min E ( w * , q1 , ..., qK ) ,
1/ m ≤ q k <1
где E k* = min E ( w * , q1 ,..., q K ) . Новое значение q k* применяется при варьиро1/ m ≤ qk <1
вании следующих диагональных элементов qk +1 , q k + 2 ,..., q K .
6. Присвоим веса w = w * и перейдем к шагу 3.
7. Повторим шаги 3–6 до тех пор, пока E * не перестанет меняться.
Алгоритм 3. Вторая схема подбора диагональных элементов и
весов. Каждому графу Gk , k = 1... K соответствует отдельная ациклическая
марковская модель со своим диагональным элементом q k , k = 1...K .
Первый и второй шаги такие же, как у алгоритма 2.
3. Сделаем шаг варьирования весов и диагональных элементов по
всем графам. Пусть варьируется вес wk графа Gk и соответствующий ему
элемент q k . Вес wk варьируется в диапазоне 0 ≤ wk = p ≤ 1 при масштабировании остальных весов. Каждое пробное варьирование проверяется многократным распознаванием с подсчетом числа ошибок E ( w ,q* ) . Для каждого графа Gk определим оптимальный вектор весов и число ошибок:
w k* = ( w1 ,...wk* ,..., wK ), wk* = arg min E ( w , q * ), Ek* =
wk = p ,0 ≤ p ≤1
min
wk = p ,0 ≤ p ≤1
E ( w, q * ) .
После нахождения w k* варьируем q k в диапазоне 1 / m ≤ q k < 1 . Остальным графам соответствуют на данном шаге оптимальные диагональные элементы qi = qi* , i = 1,..., K , i ≠ k , которые не меняются при варьировании q k . Найдем значение q k* , которое обеспечило минимальное число
ошибок Ek* : qk* = arg min E ( w k* , q1 ,..., qK ), Ek* = min E ( w *k , q1 ,..., q K ) .
1/ m ≤ qk <1
1/ m ≤ qk <1
Оптимальное значение q k* определяет соответствующий оптимальный вектор диагональных элементов: qk* = ( q1 ,..., qk* ,..., q K ) .
4. Среди полученных пар оптимальных наборов ( w k* , qk* ), k = 1,..., K ,
найдем ту пару ( w * , q * ) , которая обеспечила наименьшее число ошибок
E* :
E * = min E k*, k * = arg min Ek* , w * = w k** , q * = q k** .
1≤ k ≤ K
1≤k ≤ K
5. Присвоим веса w = w * и перейдем к шагу 3.
6. Повторим шаги 3–5 до тех пор, пока E * не перестанет меняться.
Экспериментальное сравнение алгоритмов
Решалась задача сегментации 100 модельных текстурных изображений (рис. 3) размером 201x201 пикселей. Текстуры трех классов пред260
Управление, вычислительная техника и информационные технологии
ставлены реализациями трех нормально распределенных случайных величин с немного отличающимися средними в пространстве красной и зеленой компонент (рис. 3, а – пример первого изображения, рис. 3б – классификации текстур на первых десяти из 100 тестовых изображений).
Средняя ошибка распознавания просмотренных в случайном порядке изображений вычислялась каждый раз после добавления очередного
изображения к этому множеству (рис. 4).
Сравнивались четыре алгоритма комбинирования и алгоритм
TRWS [8]. Легко увидеть одинаковый характер линий ошибок для всех алгоритмов. Алгоритмы с подбором диагонального элемента резко улучшают
качество распознавания по сравнению с алгоритмом без его подбора. Алгоритм TRWS не является однозначно лучшим, т. к. на некоторых подмножествах изображений он уступает по качеству распознавания.
а
б
Рис. 3. Текстурные изображения
Рис. 4. Среднее число ошибок (%)
В итоге, все алгоритмы сравнимы по качеству с алгоритмом TRWS,
261
Известия ТулГУ. Технические науки. 2012. Вып. 3
который сегодня считается одним из эффективных алгоритмов обработки
изображений. В частности, на уровне значимости α = 0,05 гипотеза о равенстве среднего уровня ошибок алгоритмов с подбором диагонального
элемента и TRWS не отвергается. Работа выполнена при поддержке РФФИ
(гранты № 10-07-00489, 11-07-00634).
Список литературы
1. Rabiner L.R. A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition // Proc. IEEE, 77. 1977. V. 2. P. 257–286.
2. Li S.Z. Markov Random Field Modeling in Image Analysis. L:
Springer–Verlag, 2009. 371 p.
3. Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference // Foundations and Trends® in Machine Learning. 2008. V. 1. P. 1–305.
4. Mottl V.V., Dvoenko S.D., and Kopylov A.V. Pattern Recognition in
Interrelated Data: The Problem, Fundamental Assumptions, Recognition Algorithms // Proc. 17th ICPR’2004. Cambridge, UK, 2004. V. 1. P. 188–191.
5. Двоенко С.Д., Копылов А.В., Моттль В.В. Задача распознавания
образов в массивах взаимосвязанных объектов. Постановка задачи и основные предположения//Автоматика и телемеханика. 2004. №1. С.143–158.
6. Двоенко С.Д., Копылов А.В., Моттль В.В. Задача распознавания
образов в массивах взаимосвязанных объектов. Алгоритм распознавания //
Автоматика и телемеханика. 2005. №12. C. 162–176.
7. Dvoenko S.D., Savenkov D.S. The Effective Recognition Procedure
Based on Tree–Like Markov Models // Proc. 9th Int. Conf. on Pattern Recognition and Information Processing, PRIP’2007. Minsk, 2007. V.1. P. 98–100.
8. A Comparative Study of Energy Minimization Methods for Markov
Random Fields with Smoothness–Based Priors / R. Szeliski [et al.] // IEEE
Trans. on PAMI. 2007. V. 6. P. 1068–1080.
S.D. Dvoenko, D.V. Sang
ALGORITHMS FOR SELECTING PARAMETERS OF COMBINATION OF ACYCLIC ADJACENCY GRAPHS IN THE PROBLEM OF THE RASTER TEXTURED
IMAGE RECOGNITION
The tree-like graphic model of a Markov random field of hidden classes was
proposed as a Markov chain to recognize the raster textured images. We developed
algorithms to select the optimal value of the diagonal element of Markov transition matrix
and weights for the linear combination of acyclic adjacency graphs to maximize aposteriori
probabilities of hidden classes.
Key words: pattern recognition, machine learning, Markov random fields, Markov
chain.
Получено 07.03.12
262
1/--страниц
Пожаловаться на содержимое документа