close

Вход

Забыли?

вход по аккаунту

?

Распознавание слитной речи с использованием рандомизированного алгоритма стохастической аппроксимации..pdf

код для вставкиСкачать
ВЕСТНИК САНКТ-ПЕТЕРБУРГСКОГО УНИВЕРСИТЕТА
Сер. 10. 2009. Вып. 3
УДК 517.977.58
Д. С. Шалымов
РАСПОЗНАВАНИЕ СЛИТНОЙ РЕЧИ С ИСПОЛЬЗОВАНИЕМ
РАНДОМИЗИРОВАННОГО АЛГОРИТМА СТОХАСТИЧЕСКОЙ
АППРОКСИМАЦИИ
1. Введение. Несмотря на то, что задачей распознавания речи занимаются уже
более 40 лет, данная проблема остается актуальной. Большинство современных методов, используемых для ее решения, требуют больших вычислительных ресурсов, объем
которых часто бывает ограничен. Невозможность широкого применения многих алгоритмов сегодня, например, в мобильных устройствах заставляет исследователей искать
более эффективные методы. За счет своей простоты и небольшого количества операций
на каждой итерации рассматриваемый рандомизированный алгоритм стохастической
аппроксимации (РАСА) [1] может быть предложен как альтернатива (или дополнение)
существующим подходам для распознавания речи в реальном времени. В частности,
РАСА может быть использован в моделях нейронных сетей, которые часто применяются в задачах распознавания изображений и речи. Алгоритм основан на использовании пробных одновременных возмущений, которые являются искусственными воздействиями с заранее определенными статистическими свойствами, обеспечивающими
состоятельность оценок алгоритма при почти произвольных помехах [2]. Под почти
произвольными помехами подразумеваются любые помехи, не обязательно гауссовы,
ограниченные по абсолютной величине. Существенная особенность алгоритма заключается в том, что для аппроксимации градиента функции потерь требуется только два
измерения независимо от размерности оперируемых величин. Эта особенность делает
рассматриваемый алгоритм удобным для применения в задаче распознавания звука,
где используются вектора свойств сигнала больших размерностей, а также обеспечивает относительную легкость представления алгоритма, существенно уменьшая затраты на решение. Появляется возможность работы с большим количеством слов. В случае
зашумленных измерений функции потерь (а звуковая волна, поступающая на вход, всегда содержит в себе шум) алгоритм сохраняет состоятельность доставляемых оценок.
В задаче распознавания речи такими помехами могут быть фазовые и спектральные
сдвиги звукового сигнала, шум окружающей среды, настройки записывающего устройства и т. д. Кроме того, представление алгоритма достаточно просто для понимания
и реализации в виде электронного устройства.
В рамках настоящей работы была произведена серия экспериментов, демонстрирующих эффективность использования РАСА в задаче распознавания речи. Была создана
система дикторонезависимого распознавания слитной речи. За счет вышеописанных
Шалымов Дмитрий Сергеевич – аспирант кафедры системного программирования математикомеханического факультета Санкт-Петербургского государственного университета. Научный руководитель: проф. О. Н. Граничин. Количество опубликованных работ: 8. Научные направления: стохастическая аппроксимация, рандомизированные алгоритмы, адаптивное и оптимальное управление, распознавание образов, системы реального времени. E-mail: shalydim@mail.ru.
c Д. С. Шалымов, 2009
170
свойств алгоритма удалось достичь высокой точности распознавания речей, начитанных в зашумленных условиях.
2. Задача распознавания речи. Цифровая система обработки звукового сигнала предполагает представление аналогового речевого сигнала в цифровом виде. В результате аналого-цифрового преобразования (АЦП) непрерывный сигнал переводится
в ряд дискретных временных отсчетов, каждый из которых представляет собой число.
Это число характеризует сигнал в точке с определенной точностью. Точность представления зависит от ширины диапазона получаемых чисел, а следовательно, от разрядности АЦП. Процесс извлечения из сигнала численных значений называется квантованием; процесс разбиения сигнала на отсчеты – дискретизацией; число отсчетов
в секунду – частотой дискретизации. Процесс обработки звуковой волны схематически
показан на рис. 1.
Рис. 1. Этапы обработки звуковой волны
Аналоговый акустический сигнал, поступающий с микрофона, подвергается с помощью АЦП дискретизации и квантованию. Происходит так называемая реализация
слова, т. е. цифровая запись произнесения слова (звука) в виде последовательности
отсчетов звукового сигнала sk . Реализация слова (звука) в процессе цифровой обработки разбивается на последовательность кадров Xi . Кадром X (длины N ) назовем
последовательность отсчетов звукового сигнала s1 , s2 , ..., sN . Длина кадра фиксирована
во времени. Например, при N = 100 и частоте дискретизации 8000 Гц она соответствует длительности в 12.5 мс. Кадры часто смещают друг относительно друга для того, чтобы не происходило потери информации на границе кадров. Шаг смещения кадра – количество звуковых отсчетов между началами следующих друг за другом кадров.
Шаг смещения меньший, чем N (длина кадра), означает, что кадры идут «внахлест».
Далее в целом ряде задач, таких как распознавание речи или идентификация личности, каждому кадру сопоставляются некоторые данные, характеризующие звук наилучшим образом. Такие данные формируют вектор свойств (или вектор признаков).
С математической точки зрения, это может быть как вектор из пространства RM , так
и набор функций или одна функция.
В случае, когда необходимо распознать слитную речь, ее нужно разбить на отдельные слова. Как правило, это осуществляется за счет эмпирического порогового значения интенсивности сигнала, благодаря которому определяются начало и конец слова. Задачей системы является отождествление каждого слова с заранее определенным
классом.
171
К сожалению, существует целое множество различных факторов, которые могут
оказывать негативное влияние на точность распознающей системы – настроение и состояние говорящего, шум окружающей среды, скорость произнесения фраз и т. д.
Распознающая система является независимой от диктора, если она распознает слово независимо от того, кто его произносит. На практике реализовать такую систему
сложно по той причине, что звуковые сигналы сильно зависят от громкости, тембра
голоса, состояния и настроения диктора. Для извлечения информации из этих сигналов нередко используют фильтры тоновых частот (мел-скейл фильтры), которые усредняют спектральные составляющие в определенных диапазонах частот, тем самым делая
сигнал менее зависимым от диктора. Данные фильтры являются основой технологии
MFCC (Mel-Frequency Cepstral Coefficients) [3], которая применяется в рассматриваемой системе распознавания.
Более широкое распространение в задачах распознавания речи получили коэффициенты линейного предсказания LPC (Linear Predictive Coefficients) [4]. Однако они
настроены для более качественной обработки речи и потому требуют больших вычислительных затрат. MFCC являются эффективными в системах распознавания речи [5]
при меньших вычислительных затратах, что служит важным фактором при реализации в виде электронного устройства.
3. Обработка речевого сигнала. Предварительная фильтрация. Для спектрального выравнивания речевого сигнала его следует пропустить через низкочастотный фильтр. Цель этого преобразования – снизить влияние локальных искажений
на характеристические признаки, которые в дальнейшем будут использоваться для распознавания. Часто низкочастотная фильтрация осуществляется на аппаратном уровне,
хотя существуют различные математические методы, которые успешно применяются
в задачах работы со звуком. Известно, что наиболее информативные частоты человеческого голоса сосредоточены в интервале 100–2000 кГц, поэтому при решении задач
распознавания речи уже на начальном этапе в спектрограмме оставляют только гармоники, частоты которых попадают в такой интервал.
Нарезка сигнала перекрывающимися сегментами. Для того чтобы получить
векторы признаков одинаковой длины, нужно «нарезать» речевой сигнал на равные части, а затем выполнить преобразования внутри каждого сегмента. Обычно сегменты
выбирают таким образом, чтобы они перекрывались либо наполовину, либо на 2/3.
Перекрытие используется для предотвращения потери информации о сигнале на границе. Чем меньше перекрытие, тем меньшей размерностью в итоге будет обладать вектор свойств, характерный для рассматриваемого участка, поскольку он составляется
из кепстральных коэффициентов каждого сегмента в отдельности. Кепстральными коэффициентами называют набор чисел, полученных после спектрального анализа участка звукового сигнала. Обычно выбирается длина участка (сегмента), соответствующая
временному интервалу в 20–30 мс.
Обработка сигнала в окне. Цель этого этапа обработки – снижение граничных
эффектов, возникающих в результате сегментации. Для подавления нежелательных
граничных эффектов принято умножать сигнал s(n) на оконную функцию w(n):
x(n) = s(n) × w(n).
172
В качестве функции w(n) часто используется окно Хэмминга, которое задается следующей формулой:
0.54 − 0.46 cos( N2πn
−1 ), 0 n < N,
w(n) =
0, otherwise.
Извлечение векторов свойств. Каждый входной звуковой сигнал представляется в виде специального вектора свойств (или вектора признаков), определенным
образом характеризующего сигнал. Есть довольно много методов для формирования
вектора свойств. В рассматриваемой далее модели используется классический подход
кепстральных коэффициентов тональной частоты (MFCC). Рассмотрим основные его
этапы.
1. Входной сигнал разбивается на сегменты, к которым применяется функция окна
Хемминга и фразового выделения.
2. Pre-emphasis – предварительное выделение фразы (или акцентирование) происходит за счет фильтрации звукового сигнала с помощью FIR (finite impulse response)
фильтра. Этот шаг вызван необходимостью спектрального сглаживания сигнала, который становится менее восприимчивым к различным шумам, возникающим в процессе
обработки.
3. Далее изучают спектрограмму сигнала. Все множество присутствующих в спектрограмме частот разделяется на пронумерованные интервалы, каждому из которых
определяется свой диапазон. Для каждого такого интервала подсчитывается среднее
значение интенсивности сигнала в выделенном диапазоне и строится диаграмма, где ось
абсцисс состоит из номеров интервалов, а ось ординат – из «усиленных» амплитуд (значения амплитуд возводятся в квадрат, чтобы не было отрицательных величин при дальнейшей операции логарифмирования). Этот процесс называется мел-скейл фильтрацией.
4. Затем амплитуды сигнала сжимаются с помощью применения логарифма, поскольку человеческое ухо воспринимает громкость сигналов по логарифмической шкале, а вектора свойств получают на основе человеческого восприятия звука.
5. Заключительным шагом является применение к спектру обратного преобразования Фурье. Его результат – выделение кепстральных коэффициентов, которые формируют вектор свойств данного сегмента.
Кепстральные коэффициенты математически могут быть описаны следующим образом:
K
(log S(k)) exp(ikn),
cn =
k=1
где S(k) – усредненный спектр сигнала усиленной интенсивности, характерный
для k-го частотного интервала (бенда) в мел-скейл фильтре; K – общее количество
интервалов, на которые разбивается спектр.
4. Задача самообучения. Пусть имеется некоторая классифицирующая система,
которая в состоянии классифицировать любой входной сигнал (стимул) x, относя его
к какому-либо определенному множеству. Система, дополненная способом изменения
параметров, может подгонять свою классификацию к некоторой требуемой и, тем самым, демонстрировать свойство обучаемости или адаптации. Такая подгонка требует
конкретной дополнительной информации о классификации. Обычно данная информация поступает с обучающей последовательностью x1 , x2 , ..., xn , состоящей из классифицированных требуемым образом входных сигналов. Уточнение характера данной
173
информации приводит к разным постановкам задачи обучения. Процесс подбора параметров с помощью обучающей последовательности называется процессом обучения.
После его окончания система определяет множества, которые принимаются в качестве требуемого разбиения. Они могут не совпадать с реальным разбиением. Это
отличие обусловливает качество работы обученной системы. Если процедуры построения оценок в задачах обучения опираются на использование при обучении указаний
учителя о классификации обучающей последовательности, то их называют обучением
с учителем. Возможна похожая постановка задачи обучения, в которой указания учителя не используются. Тогда говорят о задаче самообучения, а сам процесс обучения
сводится к получению последовательности оценок, минимизирующих функционал специального вида [6].
5. Автоматическая классификация входных сигналов. С содержательной
точки зрения, смысл автоматической классификации состоит в построении правила, сопоставляющего каждой точке множества X некоторый образ (класс). Подразумевается, что сопоставленные одному и тому же образу точки обладают некоторым общим
свойством, которое и порождает этот образ. Например, таким свойством может быть
близость расположения точек к некоторому «центру». Тогда понятие образа (класса)
связано с обычным представлением о компактном расположении точек, принадлежащих тому или иному образу (классу).
Всякий способ классификации связан с потерями, которые обычно оцениваются с помощью штрафных функций (стоимости) q k (x, η), k = 1, 2, ..., l, η – набор векторов, характеризующий центры классов.
В типичных случаях, когда X – вещественное векторное пространство, значения
штрафных функций q k (x, η) возрастают при удалении x от центра соответствующего образа (класса). Геометрический смысл задачи автоматической классификации заключается в следующем. Пусть X – вещественное векторное пространство. Допустим,
что в системе всего l классов: η = (θ1 , θ2 , ..., θl ) и штрафные функции имеют похожий
друг на друга вид
q k (x, η) = x − θk 2 .
Рассмотрим разбиение множества X на l классов X 1 (η), X 1 (η), ..., X l (η) по правилу:
к множеству X k (η) относятся все точки x, которые находятся к центру θk ближе, чем
к любому другому. Для однозначности считаем, что в случае равенства расстояний
до нескольких центров точка относится к классу, соответствующему центру с меньшим
номером. Интеграл
x − θk 2 , k = 1, 2, ..., l,
X k (η)
определяет рассеяние точек в множестве X k (η). Вычислим функционал среднего риска
F (η) =
l
x − θk 2 P (dx).
k=1 k
X (η)
Задача автоматической классификации состоит в выявлении набора центров {θ∗k , k =
1, 2, ..., l}, при которых суммарное рассеивание минимально. Заметим, что при перестановке местами векторов внутри набора {θ∗k , k = 1, 2, ..., l} значение полученного выше
функционала среднего риска не изменяется. А следовательно, если рассматриваемая
задача имеет решение, то оно не обязательно должно быть единственным.
174
Задача самообучения тесно связана с задачей автоматической классификации и является обобщением последней на случай неизвестного распределения, определяющего
статистику показа классифицируемых сигналов. Решение задачи самообучения осложняется тем, что на практике функции q k (·, ·), k = 1, 2, ..., l, не всегда заданы аналитически, но их значения доступны измерению (может быть с помехами v k ):
y k (x, η) = q k (x, η) + v k , k = 1, 2, ..., l.
Если функционал F (η) дифференцируем, то искомый набор центров η∗ должен удовлетворять уравнению ∇F (η∗ ) = 0. Но при решении рассматриваемой задачи нельзя
воспользоваться традиционными градиентными методами, так как из его вида понятно,
что он не везде дифференцируем, и, кроме того, не всегда возможно прямое вычисление
∇F (η).
6. Алгоритмы стохастической аппроксимации. В обобщенной форме они могут быть записаны следующим образом:
η k+1 = η k − ak g k (η k ),
где g k (η k ) – оценка градиента g(η) = ∂F/∂η на итерации η k , полученной на основе
предыдущих измерений функции. При необходимых условиях данные алгоритмы сходятся «почти наверняка» к оптимальному значению [7].
Существенной частью алгоритмов является аппроксимация градиента g k (η k ).
Для классического алгоритма СА (конечно-разностный алгоритм или процедура
Кифера–Вольфовица) любая компонента вектора η k возмущается по отдельности
на каждом шаге и производятся соответствующие измерения функции y(·) для оценки
компоненты вектора градиента функции.
Таким образом, i-тая компонента gk (η k ) для конечно-разностной аппроксимации
задается так:
y(η k + ck ei ) − y(η k − ck ei )
g ki (η k ) =
,
2ck
где ei обозначает вектор, у которого на i-м месте стоит единица, а на всех остальных
нули; ck – небольшое положительное число, которое, как правило, убывает с ростом k.
В алгоритме РАСА все компоненты вектора η k возмущаются одновременно,
i-тая компонента оценки градиента
g ki (η k ) =
y(η k + ck Δk ) − y(η k − ck Δk )
,
2ck Δki
здесь Δ – определенный пользователем «почти произвольный» вектор, удовлетворяющий условиям, описанным в [8].
Заметим, что необходимое количество измерений целевой функции в алгоритме
конечно-разностной СА увеличивается с ростом размерности пространства, в то время
как в РАСА требуются только два измерения независимо от размерности. Это обеспечивает большой выигрыш в вычислительной сложности относительно классических
подходов. При этом доказано, что при выполнении определенных условий РАСА и конечно-разностный алгоритм СА обеспечивают одинаковую точность за одно и то же количество итераций, хотя РАСА требуется в M (где M – размерность пространства) раз
меньше измерений функции.
7. Пробное возмущение и алгоритм оценивания. Пусть распределение
вероятностей неизвестно, но известна обучающая последовательность x1 , x2 , ..., xn ,
175
им порожденная. С помощью РАСА можно построить последовательности оценок η n
набора η∗ , минимизирующего функционал среднего риска.
РАСА основан на использовании наблюдаемой последовательности серии случайных независимых друг от друга векторов n ∈ Rm , n = 1, 2, ..., называемых в дальнейшем пробным одновременным возмущением и составленных из независимых бернуллиевских, равных ±1, случайных величин с взаимно независимыми компонентами [1].
Опишем способ формирования последовательности оценок η n оптимального набора
векторов. Зафиксируем некоторый начальный набор η 0 ∈ Rm×l и выберем последовательности положительных чисел {αn } и {βn }, стремящиеся к нулю. В [1] предложен
алгоритм
η!n± = η n−1 ± βn n J T (xn , η n−1 ),
η n = η n−1 − αn J T (xn , η n−1 )
+
−
Y (xn ,!
ηn
)−Y (xn ,!
ηn
)
n J T (xn , η n−1 ),
2βn
в котором J T (xn , η n ) – l-мерный вектор, составленный из нулей и одной единицы, отвечающей координате с номером k, когда xn располагается ближе всего к множеству
X k (η n ); Y (xn , η!n± ) = Q(xn , η!n± ) + Vn± – l-мерные векторы, составленные из измеренных
с помехами в соответствующих точках значений функций потерь; Vn± – соответствующие вектора из ошибок наблюдений.
Алгоритм сходится к оптимальному набору центров классов η∗ при определенных
условиях. Доказательство этого факта, а также набор необходимых условий можно
найти в статье [1].
8. Практическое применение. На изложенных выше принципах удалось создать
дикторонезависимую систему распознавания слитной речи. В качестве средства реализации была выбрана среда Matlab 7.0.1. Система была апробирована как на искусственных, так и на реальных данных.
Будем считать, что речь, поступающая на вход в систему распознавания, содержит
всего l различных слов. Если l неизвестно заранее, для оценки количества различных
слов в речи могут быть использованы алгоритмы устойчивой кластеризации, например [9].
При распознавании речь разбивается на отдельные слова, которые сперва обучают систему, а затем сами же распознаются. Таким образом, система становится
самообучающейся. Разбиение по словам осуществляется на основе средней интенсивности сигнала исходя из предположения, что пауза между идущими друг за другом
словами составляет не менее 200 мс. Распознавание может быть осуществлено на основе заранее известной статистики вхождения слов. По количеству элементов в классе
определяется слово, которому принадлежит этот класс. В случае, когда система выделила классы с равным количеством элементов, может быть потребована информация
о том, к какому именно слову отнести конкретный класс.
Для выделения векторов свойств применялась технология MFCC. Речь разбивалась на отдельные слова, далее сигнал каждого слова разбивался на перекрывающиеся
фреймы в 30 мс по длительности. Длина фрейма в отсчетах зависит от частоты дискретизации. Например, при частоте 44 100 Гц она составит N = 1320, а при 16 000 Гц
всего 480. Использовалось перекрытие фреймов на половину длины (сдвиг на N/2).
Для каждого кадра был выделен вектор свойств, состоящий из 24 координат. Общий
вектор свойств для слова формировался из векторов свойств всех его кадров: все вектора записывались в одну строку.
176
Длина слов во входных данных может быть различная. Соответственно размерность
векторов свойств каждого слова может получиться своя. Чтобы этого избежать, производилось выравнивание по времени звуковых сигналов каждого слова. Размерность
фазового пространства M составляла 2800–8256 в зависимости от частоты дискретизации, а также от длины слов, содержащихся в речи.
Вектора свойств звукового сигнала представляются как точки в многомерном евклидовом пространстве и поступают на вход РАСА, который определяет центры l классов, соответствующие различным словам. Координаты центров являются векторами
свойств слов-шаблонов, с которыми сравниваются входные сигналы. Слово отождествляется с конкретным классом мерой близости вектора свойств его сигнала к центру
класса. Рассматриваемый алгоритм используется для формирования эталонных слов
или центров классов в системе. Для распознавания слов речи применяется традиционный метод сравнения с эталонами с последующим нахождением минимального
расстояния до них.
Для обеспечения гарантированной сходимости алгоритма при выбранной штрафной
функции q(x, θ) = x − θ2 необходимо, чтобы центры классов находились на максимальном расстоянии друг от друга. В качестве первоначальных центров классов
в РАСА можно выбрать любые точки пространства RM , однако при практическом
применении это существенно сказывается на эффективности алгоритма. В качестве таких центров были взяты вектора свойств первых слов распознаваемой речи, поскольку
в данном случае велика вероятность того, что слова не будут повторяться.
Рис. 2. Сходимость РАСА алгоритма к центру одного класса
Скорость сходимости алгоритма и сходимость его в целом на практике во многом определяются выбором последовательностей {αkn } и {βnk }, участвующих в работе
алгоритма. Важную роль играет также пробное одновременное возмущение, в качестве которого не обязательно брать бернуллиевские ±1 случайные величины. Главное,
они должны быть конечны и симметрично распределены. Из эмпирических соображений в качестве последовательности {αn } была взята последовательность 3/n, а как
177
√
{βn } взята 1/
n. Роль пробного одновременного возмущения играли случайные величины, равные ±1/30.
На рис. 2 показана сходимость алгоритма для одного слова. Поскольку размерность
пространства велика, на рисунке изображены расстояния D между входным сигналом
с номером n и аппроксимированным в ходе работы РАСА алгоритма центром класса.
Всего в систему поступило 100 сигналов, которые определили вектор свойств эталонного слова, соответствующего центру класса при n = 100.
В ходе исследований была произведена серия экспериментов, где оценивалась
эффективность предлагаемого алгоритма в сравнении с наиболее известными алгоритмами кластеризации. Кластеризацией является разбиение множества данных на группы по схожим признакам. Алгоритмы кластеризации определяют кластеры и их центры. Задача распознавания речи после разбиения на отдельные слова в рассматриваемом
случае может быть интерпретирована как задача кластеризации. Несмотря на то, что
эти алгоритмы призваны решать одну и ту же задачу, принцип их работы различен.
Алгоритм K-Means [10] на каждой итерации перевычисляет центр масс для каждого
кластера, после чего минимизируется среднеквадратичное отклонение от вычисленных
центров. Является наиболее популярным методом кластеризации.
В алгоритме Fuzzy C-Means [11] считается, что каждая точка имеет степень принадлежности к конкретному кластеру. Так, например, степень принадлежности точки на краю кластера меньше, чем в центре кластера. Центр кластера определяется
как среднее значение всех элементов с учетом их степеней принадлежности. Этот алгоритм часто используется в задачах распознавания образов.
Expectation Maximization (EM) алгоритм [12] вычисляет вероятности принадлежности элементов определенному кластеру. За конечное разбиение принимается то, которое
максимизирует общую вероятность. EM-алгоритм применяется в статистике при оценке
параметров вероятностных моделей.
Поскольку речевая запись объемных текстов является трудоемкой задачей, были
использованы речевые базы данных, с помощью которых искусственно формировались речи для дальнейшего распознавания. Некоторые базы данных были созданы специально для исследователей и содержат дополнительную информацию, позволяющую
вычислить координаты фонем в сигнале. Речь разбивалась на отдельные слова на основе такой информации в тех случаях, когда она была доступна, с помощью скриптового
языка Python, позволяющего удобно оперировать как с текстовыми, так и со звуковыми
данными.
На основе базы данных русского голоса, использующегося для настройки синтезатора речи Festival Эдинбургского университета, была сформирована речь, содержащая
9074 словарных единиц. Объем словаря – 1512 слов. Запись была произведена с частотой дискретизации 16 000 Гц. Размерность фазового пространства – 8256. Точность
работы алгоритмов составила соответственно (в %): РАСА – 95, K-Means – 87, Fuzzy
C-Means – 92, EM – 76.
Для исследования свойств системы по дикторонезависимому распознаванию речи
применялась база данных TIMIT Acoustic-Phonetic Continuous Speech Corpus, которая
содержит записи 630 дикторов восьми диалектов американского английского языка.
Была составлена речь из 1610 слов, записанная с частотой дискретизации 16 000 Гц.
Были выбраны семь дикторов, говорящих на пяти диалектах и имеющих различное
образование. Соответственно в систему поступило семь речей. Усредненная по всем
дикторам точность составила (в %): РАСА – 93, K-Means – 89, Fuzzy C-Means – 83,
EM – 81.
178
Без использования речевых баз данных с частотой дискретизации 44 100 Гц была
записана слитная речь, состоящая из 1640 слов. В эксперименте участвовали 4 русскоговорящих диктора. Эксперимент был проведен аналогично предыдущему. Точность
распознавания при этом составила в среднем (в %): РАСА – 96, K-Means – 93, Fuzzy
C-Means – 95, EM – 82.
Далее этот же эксперимент был повторен, но речевой сигнал перед распознаванием подвергался воздействию искусственных шумов. Теоретически для состоятельности оценок РАСА помехи в сигнале могут быть почти произвольными, в общем случае даже неслучайными, но неизвестными и ограниченными. В данном эксперименте
использовались аддитивные гауссовые помехи. Соотношение сигнал / шум составило
в среднем 15 Дб. Чем больше данное соотношение, тем менее заметен шум. Были получены следующие результаты (в %): РАСА – 90, K-Means – 78, Fuzzy C-Means – 74,
EM – 59.
Как можно заметить, РАСА оказывается эффективным алгоритмом при применении в задаче распознавания речи. В отдельных случаях удается достичь высокой точности распознавания. Качественные показатели особенно заметны при наличии в сигнале
посторонних шумов.
9. Заключение. В статье представлен новый подход для решения задачи распознавания речи, основанный на рандомизированном алгоритме стохастической аппроксимации. Оценки, доставляемые алгоритмом, состоятельны при почти произвольных помехах. Также сохраняется работоспособность алгоритма при росте размерности вектора оцениваемых параметров и увеличении количества классов (распознаваемых слов).
Указаны причины, почему вычислительная сложность РАСА на порядок меньше, чем
в классических подходах стохастической аппроксимации при больших размерностях
фазового пространства.
Описаны основные этапы решения задачи. Вектора свойств сигнала получали
с помощью метода MFCC. Рассмотрена система дикторонезависимого распознавания
слитной речи, состоящей из ограниченного набора слов. При использовании системы для разных данных была достигнута высокая точность распознавания. Произведен сравнительный анализ эффективности РАСА с общеизвестными алгоритмами кластеризации. В ходе дальнейших исследований система может быть усовершенствована
для большего количества слов. Также могут быть применены алгоритмы устойчивой
кластеризации, благодаря которым определяется количество различных слов в речи.
Литература
1. Граничин О. Н., Измакова О. А. Рандомизированный алгоритм стохастической аппроксимации
в задаче самообучения // Автоматика и телемеханика. 2005. № 8. C. 52–63.
2. Граничин О. Н., Поляк Б. Т. Рандомизированные алгоритмы оптимизации и оценивания при почти произвольных помехах. М.: Наука, 2003. 291 с.
3. Gold B., Morgan N. Speech and Audio Signal Processing: Processing and Perception of Speech
and Music. New York: Wiley, 1999. 560 p.
4. Rabiner L. R., Juang B. H. Fundamentals of Speech Recognition. New Jersey: Prentice Hall, 1993.
496 p.
5. Yoon J. S., Lee G. H. A MFCC-Based CELP Speech Coder for Server-Based Speech Recognition
in Network Environments // IEICE Transactions on Fundamentals of Electronics, Communications
and Computer Sciences. 2007. Vol. E90-A. P. 626–632.
6. Фомин В. Н. Рекуррентное оценивание и адаптивная фильтрация. М.: Наука, 1984. 286 с.
7. Kushner H. J., Yin G. G. Stochastic Approximation Algorithms and Applications. New York:
Springer-Verlag, 1997. 474 p.
8. Spall J. C. Introduction to Stochastic Search and Optimization. New York: Wiley, 2003. 595 p.
179
9. Volkovich Z., Barzily Z., Morozensky L. A statistical model of cluster stability // Pattern Recognition.
2008. Vol. 41. P. 2174–2188.
10. Hartigan J. A., Wong M. A. A K-Means Clustering Algorithm // Applied Statistics. 1979. Vol. 28.
P. 100–108.
11. Dunn J. C. A Fuzzy Relative of the ISODATA Process and Its Use in Detecting Compact WellSeparated Clusters // J. of Cybernetics. 1973. Vol. 3. P. 32–57.
12. Hogg R., McKean J., Craig A. Introduction to Mathematical Statistics. New Jersey: Prentice Hall,
2005. 576 p.
Статья рекомендована к печати член-кор. РАН, проф. Г. А. Леоновым.
Статья принята к печати 5 марта 2009 г.
1/--страниц
Пожаловаться на содержимое документа