ИСТИНА |
Войти в систему Регистрация |
|
ИСТИНА ИНХС РАН |
||
Все известные методы оценки экстраполирующих свойств алгоритмов распознавания и прогнозирования [1,1,3] непригодны в случае малого количества $l$ прецедентов в обучающей выборке. Для этого, часто встречающегося на практике случая, предлагается применить воспроизводящие плотности вероятностей, основанные на байесовской оценке. При данном подходе используется единственное предположение о случайном и независимом, удовлетворяющем некоторой неизвестной плотности распределения появлении образов в признаковом пространстве $X. $Неизвестными (но фиксированными) параметрами, подлежащими определению, являются вероятности $p_{ij}$ появления объектов в областях $X_{ij }$и подчиняющиеся полиномиальному распределению и соответствующие случаям, когда образ принадлежит классу $K_{i}$, а решающее правило относит его к классу $K_{j}$, \textit{i,j = 1, 2, \ldots s}. В этом случае воспроизводящая априорная плотность вероятности распределения $p_{ij }$оказывается распределением Дирихле $D$ с параметрами $m_{ij}$ (количества образов в обучающей выборке, попадающих в области $X_{ij})$. Полученные предлагаемым способом точечные оценки $p^{'}_{ij}$ оказываются равными $p^{'}_{ij} = (m_{ij}+1)/(l+s^{2})$, а интервальные неймановские оценки \textit{Pr{\{}/p}$^{'}_{ij }- p_{ij}$\textit{/>$\varepsilon $ {\}}<$\eta $ }достоверности \textit{$\eta $} получаются (численным) интегрированием плотности $D $в соответствующих областях. Если же определяется вероятность обобщенной ошибки распознавания, распределение ее оценки оказывается $\beta $-распределением и интервальные оценки могут быть легко получены по таблицам неполной \textbf{\textit{B}}-функции, а в случае корректного алгоритма -- вычислены элементарно.