close

Вход

Забыли?

вход по аккаунту

?

Оценки вероятностей событий при наличии данных с пропусками.

код для вставкиСкачать
ВЕСТНИК ТОМСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА
2009
Управление, вычислительная техника и информатика
№ 4(9)
УДК 519.2
Ю.Г. Дмитриев, А.А. Князева
ОЦЕНКИ ВЕРОЯТНОСТЕЙ СОБЫТИЙ
ПРИ НАЛИЧИИ ДАННЫХ С ПРОПУСКАМИ
Рассматривается задача статистического оценивания вероятности произведения двух событий на основе комплектных и некомплектных наблюдений.
Предлагаются оценки с привлечением дополнительной информации, содержащейся в некомплектных наблюдениях, и исследуются их свойства.
Ключевые слова: комплектные и некомплектные наблюдения, дополнительная информация, адаптивные оценки вероятностей.
В социологических [1] и маркетинговых исследованиях [2], при наблюдении
объектов, характеризуемых многомерным вектором признаков, случаются пропуски в компонентах вектора, что приводит к некомплектным наблюдениям. Статистическое оценивание долей объектов с заданными значениями признаков
представляет в такой ситуации важную научную и практическую задачу. В статистической практике известны следующие методы статистического анализа данных с пропусками [3,4]:
- исключение некомплектных наблюдений из рассмотрения и построение статистических выводов на основе полных (комплектных) данных;
- методы, основанные на моделировании (строится модель порождения пропусков, параметры модели оцениваются с помощью функции правдоподобия);
- восстановление пропусков;
- методы взвешивания (суть заключается в том, что каждое наблюдение выбирается в выборку с некоторой вероятностью);
Представляет интерес разработка методов статистического анализа данных с
одновременным использованием как комплектных, так и некомплектных наблюдении с целью увеличения качества оценивания за счет привлечения дополнительной информации, содержащейся в некомплектных наблюдениях. Рассмотрение этой проблемы на примере оценивания вероятности событий по наблюдениям
двумерного вектора признаков приводится в данной работе.
1. Постановка задачи
Пусть X и Y – случайные величины, заданные на вероятностном пространстве
(Ω, ℑ, Ρ) и осуществляющие измеримое отображение (Ω, ℑ) на пространство
(R 2 , Ξ 2 ) . Среди всех наблюдений над парой (X, Y) имеется n пар (X1, Y1),
(X2, Y2),…,(Xn, Yn), для которых получены значения по обеим компонентам (далее
будем именовать такие наблюдения комплектными), и имеются m наблюдений, в
которых известны значения только второй компоненты, обозначим их Yn+1, Yn+2,
… Yn+m и назовем некомплектными. Предполагается, что все наблюдения Y1, Y2, …
Yn, Yn+1, Yn+2, … Yn+m. независимы между собой. На основе этих данных требуется
построить оценку вероятности P(A×B), где событие A⊂ R, B⊂R. Как известно, несмещенной и наилучшей в смысле минимума дисперсии оценкой вероятности
44
Ю.Г. Дмитриев, А.А. Князева
P(A×B), построенной по комплектным наблюдениям, является эмпирическое распределение
1 n
Pn ( A × B ) = ∑ I A ( X i ) I B (Yi ) ,
(1)
n i =1
⎧1, X i ∈ A,
⎧1, Yi ∈ B,
I A (Xi ) = ⎨
I B (Yi ) = ⎨
⎩0, X i ∉ A,
⎩0, Yi ∉ B,
являются индикаторными функциями соответствующих событий. Эмпирическое
распределение (1) имеет математическое ожидание EPn(A×B)=PXY(A×B) и дисперсию DPn(A×B)=(1/n) PXY(A×B)(1 – PXY(A×B)). Рассмотрим задачу оценивания
P(A×B), используя наряду с комплектными и некомплектные наблюдения с целью
повышения точности оценки.
где
2. Построение оценок
2.1. Оценка с использованием формулы
условной вероятности
Воспользуемся формулой умножения вероятностей P(A×B) = P(A|B)P(B)
и запишем аналогичную формулу для эмпирических вероятностей:
Pn*(A×B) = Pn(A|B)Pn+m(B) = (Pn(A×B)/Pn(B))⋅Pn+m(B), где Pn+m(B) = (n/(n+m))Pn(B) +
+ (m/(n+m))Pm(B), а
0, Pn ( B) = 0,
⎧
Pn ( A × B ) ⎪
= ⎨ Pn ( A × B )
(2)
Pn ( B )
⎪ P ( B) , Pn ( B ) ≠ 0.
⎩ n
С учетом (2) и того, что при Pn(B) = 0 и Pn(AB) = 0, имеем
⎧0, Pn ( B ) = 0,
⎪
*
PXY ( A × B) = ⎨ n
(3)
m Pn ( A × B )
⎪ n + m Pn ( A × B ) + n + m P ( B ) Pm ( B ), Pn ( B ) ≠ 0.
⎩
n
2.2. Оценка по методу коррелированных процессов
В соответствии с методом коррелированных процессов, рассмотрим класс
оценок вида
λ
PXY
(A×B) = Pn(A×B) – λ(Pn(B) − Pn+m(B)),
(4)
где параметр λ выбирается из условия минимума дисперсии оценки и имеет вид
E{Pn ( A × B )( Pn ( B ) − Pn + m ( B))} PXY ( A × B )
.
(5)
λ=
=
PY ( B )
E{( Pn ( B ) − Pn + m ( B )) 2 }
Поскольку вероятности PXY(A×B) и PY(B) неизвестны, то заменив их на эмпирические вероятности Pn(A×B) и Pn(B), получим λ*. Подставив это значение в (5),
получим адаптивную оценку по методу коррелированных процессов
n+m−m
m Pn ( A × B )
λ*
PXY
( A × B) =
Pn ( A × B ) +
Pm ( B) .
n+m
n + m Pn ( B)
Эта оценка совпадает с (3) при выполнении условия (2). Отметим также, что
если взять в выражении (4) вместо (Pn(B) – Pn+m(B)) разность (Pn(B) – Pm(B)), то
также придем к адаптивной оценке, совпадающей с (3).
Оценки вероятностей событий при наличии данных с пропусками
45
3. Свойства оценки
Исследуем свойства оценки (3) в рамках схемы Бернулли. Найдем математическое ожидание
⎧ n
⎫
m Pn ( A × B )
*
EPXY
( A × B) = E ⎨
Pn ( A × B) +
Pm ( B) ⎬ =
n + m Pn ( B )
⎩n + m
⎭
=
n
m
⎛ P ( A × B) ⎞
PXY ( A × B) +
PY ( B) E ⎜ n
⎟.
n+m
n+m
⎝ Pn ( B ) ⎠
С учетом (2)
n
⎛ P ( A × B) ⎞
j ⎞ ⎛ Pn ( A × B )
j⎞
⎛
E⎜ n
| Pn ( B) = ⎟ =
⎟ = 0 + ∑ P ⎜ Pn ( B ) = ⎟ E ⎜
n ⎠ ⎝ Pn ( B )
n⎠
⎝ Pn ( B ) ⎠
j =1 ⎝
n
j
= PXY ( A | B )∑ P ⎛⎜ Pn ( B) = ⎞⎟ = PXY ( A | B)(1 − P( Pn ( B) = 0)).
n⎠
j =1 ⎝
Следовательно,
*
EPXY
( A × B) =
n
m
PXY ( A × B) +
PY ( B) PXY ( A | B)(1 − P( Pn ( B) = 0)) =
n+m
n+m
m
PY ( B ) PXY ( A | B) P( Pn ( B) = 0) =
n+m
m
= PXY ( A × B) −
PXY ( A × B) P n ( B),
n+m
= PXY ( A × B) −
где B − противоположное событие. Как видно, оценка (3) имеет смещение, рав*
ное Δ = EPXY
( A × B ) − PXY ( A × B) = −(m /(n + m)) PXY ( A × B ) P n ( B) .
Найдем среднеквадратическое отклонение (СКО) оценки
*
SPXY
(A×B) = E(P*XY(A×B) – P XY (A×B))2.
Имеем
*
*2
2
SPXY
( A × B ) = EPXY
( A × B ) − PXY
( A × B) − 2Δ ⋅ PXY ( A × B) =
=
n2
( n + m)
2
m2
EPn 2 ( A × B ) + 2
P ( A × B)
⎛
⎞
E ⎜ Pn ( A × B) n
Pm ( B) ⎟ +
Pn ( B )
( n + m)
⎝
⎠
nm
2
2
⎛ P ( A × B)
⎞
2
E⎜ n
Pm ( B) ⎟ − PXY
( A × B ) − 2Δ ⋅ PXY ( A × B).
+
2
( n + m)
⎝ Pn ( B )
⎠
Заметим, что
E(Pn*2(A×B)) = P2XY(A×B) + (1/n)PXY(A×B)(1 – PXY(A×B)),
⎛ P 2 ( A × B) ⎞
P ( A × B)
⎛
⎞
E ⎜ Pn ( AB ) n
Pm ( B) ⎟ = PY ( B) E ⎜ n
⎟=
Pn ( B )
⎝
⎠
⎝ Pn ( B) ⎠
n
⎛ P 2 ( A × B)
⎞
| Pn ( B) = j / n ⎟ P( Pn ( B) = j / n).
= 0 + PY ( B )∑ E ⎜ n
Pn ( B )
j =1 ⎝
⎠
Ю.Г. Дмитриев, А.А. Князева
46
Для каждого j = 1,…,n
2
n
⎛
⎞
⎞
2 ⎛
⎜
⎟
(1
n
)
I
(
X
,
Y
)
⎜ ∑ AB i i ⎟
2
⎛ Pn ( A × B )
j⎞
j⎟
⎜
⎝
⎠
i =1
E⎜
| Pn ( B ) = ⎟ = E ⎜
| Pn ( B) = ⎟ =
n⎠
j n
n⎠
⎝
⎝ Pn ( B )
=
1
j −1 2
1
j 2
PXY ( A | B ) +
PXY ( A | B) = PXY ( A | B)(1 − PXY ( A | B)) + PXY
( A | B).
n
n
n
n
С учетом этого
⎛ P 2 ( A × B ) ⎞ 1 PXY ( A × B ) ⎛ PXY ( A × B) ⎞ n
E⎜ n
⎟=
⎜1 −
⎟ ∑ P ( Pn ( B ) = j n) +
PY ( B ) ⎠ j =1
⎝ Pn ( B ) ⎠ n PY ( B) ⎝
+
n
Поскольку
2
( A × B) n
1 PXY
∑ jP( Pn ( B) = j n).
n P 2Y ( B ) j =1
∑ jP( Pn ( B) = j
j =1
n) = nPY ( B ) , то
P ( A × B)
⎛
⎞
E ⎜ Pn ( A × B ) n
Pm ( B) ⎟ =
P
(
B
)
⎝
⎠
n
=
1
⎛ P ( A × B) ⎞
2
PXY ( A × B) ⎜ 1 − XY
⎟ (1 − P ( Pn ( B ) = 0)) + PXY ( A × B).
n
PY ( B ) ⎠
⎝
Аналогично получаем
2
2
n
⎛ ⎛ P ( A × B)
j⎞
j
⎛ P ( A × B)
⎞
⎞
E⎜ n
Pm ( B ) ⎟ = 0 + ∑ E ⎜ ⎜ n
Pm ( B ) ⎟ | Pn ( B) = ⎟ P( Pn ( B) = ).
⎜
⎟
P
(
B
)
P
(
B
)
n
n
⎝ n
⎠
⎠
n
j =1 ⎝ ⎝
⎠
Далее, при j = 1,…,n
2
⎛ ⎛ P ( A × B)
⎞
j⎞
E ⎜⎜ n
Pm ( B ) ⎟ | Pn ( B) = ⎟ =
⎜ ⎝ Pn ( B )
n ⎟⎠
⎠
⎝
2
⎛
⎞
⎛ n
⎞
⎜ (1/ n 2 ) ⎜ ∑ I AB ( X i , Yi ) ⎟
⎟
2
n+m
⎞ ⎞
⎜
⎝ i =1
⎠ P ( B ) = j ⎟ E ⎜⎛ 1 ⎛
I
(
Y
)
= E⎜
⎜ ∑ B i ⎟ ⎟⎟ =
n
n ⎠⎟ ⎝⎜ m 2 ⎝ i = n +1
j 2 / n2
⎠ ⎠
⎝
=
2
PXY ( A | B ) j + PXY
( A | B) j ( j − 1) mPY ( B) + m(m − 1) PY2 ( B)
⋅
=
j2
m2
=
1
1
m −1 2
PXY ( A | B ) (1 − PXY ( A | B) ) ⎛⎜ PY ( B) +
PY ( B) ⎞⎟ +
j
m
⎝m
⎠
(
)
+ P 2Y ( A | B ) (1/ m) PY ( B ) + ((m − 1) / m) PY2 ( B ) .
Оценки вероятностей событий при наличии данных с пропусками
47
С учетом этого получим
2
⎛ P ( B ) = j ⎞ E ⎛⎜ ⎛ Pn ( A × B) P ( B) ⎞ | P ( B) = j ⎞⎟ =
P
⎟ ⎜
∑ ⎜⎝ n
m
n
⎟
n ⎠ ⎜⎝ ⎝ Pn ( B)
n ⎟⎠
⎠
j =1
n
=
n
1
1
j
PXY ( A | B )(1 − PXY ( A | B)) PY ( B)(1 − PY ( B))∑ P ⎛⎜ Pn ( B) = ⎞⎟ +
m
j
n
⎝
⎠
j =1
n
1
j
2
+ PXY ( A × B )( PY ( B ) − PXY ( A × B))∑ P ⎛⎜ Pn ( B) = ⎞⎟ + PXY
( A × B) +
j
n
⎝
⎠
j =1
+
1 2
2
PXY ( A | B ) PY ( B)(1 − PY ( B)) − PXY
( A × B) P( Pn ( B) = 0) −
m
1
2
PY ( B )(1 − PY ( B )) PXY
( A | B) P( Pn ( B) = 0).
m
Введем обозначение
n
n
j
X ( B, n) = ∑ ⋅ P ⎛⎜ Pn ( B ) = ⎞⎟ .
n⎠
⎝
j =1 j
−
Рассмотрим
*2
2
EPXY
( A × B ) = PXY
( A × B) + (1/(n + m)) PXY ( A × B)(1 − PXY ( A × B)) +
+
+
+
⎛ P ( A × B) ⎞
PXY ( A × B ) ⎜ 1 − XY
⎟+
PY ( B) ⎠
( n + m)
⎝
m
2
m2
⎛ P ( A × B) ⎞
PXY ( A × B) ⎜ 1 − XY
⎟ PY ( B) X ( B, n) +
PY ( B) ⎠
n( n + m)
⎝
2
⎛
P ( A × B) ⎞
m
⎟(1 − b) X ( B, n) + G (n, m) P( Pn ( B) = 0),
PXY ( A × B)⎜⎜1 − XY
2
PY ( B ) ⎟⎠
n ( n + m)
⎝
G(n,m) = (m2/(n + m)2)P2XY(A×B) –
где
– (m/(n + m)2)PXY(A×B)[2 – PXY(A×B) – (PXY (A×B)/P(B))].
Отсюда получим окончательное выражение для СКО:
1
m
2
SPXY
( A × B ) = PXY ( A × B)(1 − PXY ( A × B)) −
PXY ( A × B)(1 − PXY ( A × B)) +
n
n ( n + m)
+
+
+
⎛ P ( A × B) ⎞
PXY ( A × B ) ⎜ 1 − XY
⎟+
PY ( B) ⎠
( n + m)
⎝
m
n( n + m) 2
m
2
⎛ P ( A × B) ⎞
PXY ( A × B) ⎜ 1 − XY
⎟ PY ( B) X ( B, n) +
PY ( B) ⎠
⎝
⎛ P ( A × B) ⎞
PXY ( A × B ) ⎜ 1 − XY
⎟ (1 − PY ( B )) X ( B, n) +
PY ( B ) ⎠
n( n + m)
⎝
m
2
+G (n, m) P ( Pn ( B ) = 0).
(6)
Ю.Г. Дмитриев, А.А. Князева
48
Полученное выражение позволяет вычислить СКО оценки (3) при конечных
объемах комплектной и некомплектной выборок. Кроме того, представляет интерес случай, когда n и m возрастают.
4. Асимптотическое поведение оценки
Рассмотрим асимптотическое поведение СКО оценки (3) в условиях схемы
Бернулли, полагая m = kn, k ≥ 0.
Как было показано в [5]
(7)
lim X ( B, n) = 1/ PY ( B ) .
n →∞
Рассмотрим предельный переход в выражении (6). С учетом условия (7), получим
*
lim nSPXY
( A × B) = (1/(k + 1)) PXY ( A × B)(1 − PXY ( A × B)) +
n →∞
+
k2
⎛ PXY ( A × B) ⎞
⎛ P ( A × B) ⎞
P
(
A
×
B
)
1
−
+
P ( A × B) ⎜ 1 − XY
XY
⎜
⎟
⎟=
2
2 XY
PY ( B ) ⎠ (k + 1)
PY ( B) ⎠
(k + 1)
⎝
⎝
k
= PXY ( A × B )(1 − PXY ( A × B)) −
1 − PY ( B )
k
2
PXY
( A × B)
.
k +1
PY ( B )
(8)
*
( A × B) ≤ lim nDPn ( A × B ) на величину
Таким образом, lim nSPXY
n →∞
(k (k
n →∞
2
+ 1)) PXY
( A × B) ⋅ ((1 − PY ( B)) PY ( B)).
5. Иллюстрации асимптотического поведения оценки
Чтобы понять, как соотносятся дисперсия оценки (1) и среднеквадратическое
отклонение оценки (3), произведем замену m=k⋅n и рассмотрим следующий показатель:
W=
2
lim nSPXY
( A × B)
n →∞
lim nDPn ( AB )
n →∞
= 1−
k PXY ( A × B)(1 − PY ( B))
.
k + 1 PY ( B)(1 − PXY ( A × B))
(9)
Рассмотрим влияние величины k (соотношение объема некомплектных наблюдений к объему комплектных) на показатель W. Отметим, что коэффициент
k ∈ [0,∞). Рассмотрим поведение оценки на границах этого промежутка. Значение
k = 0 означает, что объем некомплектных наблюдений равен нулю. Это равносильно отсутствию дополнительной информации и в этом случае W = 1. При
k → ∞ показатель W примет вид
1 − PXY ( A × B ) / PY ( B)
.
(10)
W = W1 =
1 − PXY ( A × B )
Заметим, что наименьшее значение величина W1 принимает в случае, когда
PXY(A×B) = PY(B) (легко видеть, что тогда W1 = 0). Чтобы проиллюстрировать соотношение между оценками вида (1) и (3), зафиксируем в выражениях (9) и (10)
вероятность PY(B) = 0,8 и рассмотрим значения вероятности PXY(A×B) из интервала [0,1; 0,8] (рис. 1).
Оценки вероятностей событий при наличии данных с пропусками
49
W
0,8
0,6
k=0
k=1
k = 50
0,4
0,2
0
0,1
0,2
0,3
k = 0,5
k=2
k→∞
0,4
0,5
0,6
0,7
0,8 P(AB)
Рис. 1. Параметр W при фиксированной PY(B) = 0,8
и PXY(A×B)∈[0,1; 0,8]
Результаты расчетов приведены в табл. 1.
Таблица 1
Значения показателя W при PY(B) = 0,8 и PXY(A×B)∈[0,1; 0,8]
PXY(A×B)
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
k = 0,5
0,99
0,98
0,96
0,94
0,92
0,88
0,81
0,67
k=1
0,99
0,97
0,95
0,92
0,88
0,81
0,71
0,50
k=2
0,98
0,96
0,93
0,89
0,83
0,75
0,61
0,33
k = 50
0,97
0,94
0,90
0,84
0,76
0,63
0,43
0,02
k=∞
0,97
0,94
0,89
0,83
0,75
0,63
0,42
0,00
Аналогично зафиксируем PXY(A×B)=0,2 и рассмотрим значения вероятности
PY(B) из промежутка [0,2; 1] (рис. 2). Результаты расчетов приведены в табл. 2.
W
0,8
0,6
0,4
0,2
0
0,2
0,3
0,4
0,5
0,6
k=0
k=1
k = 0,5
k=2
k = 50
k→∞
0,7
0,8
0,9
Рис. 2. Параметр W при фиксированной PXY(A×B) = 0,2
и PY(B)∈[0,2; 1]
P(B)
Ю.Г. Дмитриев, А.А. Князева
50
Таблица 2
Значения показателя W при PXY(A×B) = 0,2 и PY(B)∈[0,2; 1]
PY(B)
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
k = 0,5
0,67
0,81
0,88
0,92
0,94
0,96
0,98
0,99
1,00
k=1
0,50
0,71
0,81
0,88
0,92
0,95
0,97
0,99
1,00
k=2
0,33
0,61
0,75
0,83
0,89
0,93
0,96
0,98
1,00
k = 50
0,02
0,43
0,63
0,76
0,84
0,90
0,94
0,97
1,00
k=∞
0,00
0,42
0,63
0,75
0,83
0,89
0,94
0,97
1,00
Заметим, что случай k = ∞ эквивалентен ситуации, когда значение вероятности
PY(B) известно, и это соответствует самому большому выигрышу в СКО.
6. Иллюстрации поведения оценки
при конечных объемах выборки
По аналогии с исследованием асимптотического поведения оценки рассмотрим величину
V=
*
SPXY
( A × B)
,
DPn ( A × B)
(11)
зафиксировав конкретные значения вероятностей PXY(A×B) и PY(B) и изменяя объемы комплектной и некомплектной выборок. Для начала рассмотрим, как влияет
на поведение оценки привлечение небольшого количества некомплектных наблюдений. В табл. 3 приведены значения выигрыша в СКО, полученные для разных объемов комплектных выборок.
Таблица 3
Значения показателя V при PXY(A×B) = 0,2 и PY(B) = 0,4
M
0
1
2
3
4
5
6
7
8
n=4
1
0,951
0,919
0,895
0,878
0,864
0,854
0,845
0,837
n = 10
1
0,976
0,956
0,939
0,926
0,914
0,904
0,895
0,887
n = 20
1
0,985
0,971
0,958
0,946
0,936
0,926
0,917
0,908
n = 50
1
0,993
0,986
0,980
0,974
0,968
0,962
0,956
0,951
Из табл. 3 видно, что привлечение даже одного дополнительного наблюдения
уменьшает СКО оценки, при этом чем меньше размерность комплектной выборки, тем значительнее эффект привлечения информации из некомплектной. Далее
рассмотрим обратную ситуацию: некомплектная выборка более многочисленна,
чем комплектная (табл. 4).
Оценки вероятностей событий при наличии данных с пропусками
51
Таблица 4
Значения показателя V при PXY(A×B) = 0,2 и PY(B) = 0,4
m
10
20
30
40
50
60
70
80
90
n=5
0,7765
0,7684
0,7656
0,7641
0,7633
0,7627
0,7623
0,7620
0,7617
n = 10
0,8016
0,7864
0,7808
0,7779
0,7761
0,7749
0,7740
0,7734
0,7729
n = 20
0,7738
0,7370
0,7220
0,7138
0,7086
0,7051
0,7025
0,7005
0,6990
n = 50
0,8225
0,7634
0,7339
0,7162
0,7044
0,6960
0,6897
0,6848
0,6808
Таким образом, и при конечных объемах выборки привлечение дополнительной информации позволяет уменьшить СКО оценки вероятности PXY(A×B).
Заключение
Построены оценка с использованием формулы условной вероятности и адаптивная оценка по методу коррелированных процессов (вид оценок совпадает). Исследованы свойства оценок и асимптотическое поведение. Приведены примеры
выигрыша в СКО для конечных объемов комплектной и некомплектной выборок.
Проведенное исследование учета дополнительной информации позволяет утверждать, что выигрыш в СКО оценки вероятности PXY(A×B) вида (3) по сравнению с
эмпирической вероятностью (1) зависит от соотношения между комплектной и
некомплектной выборками, а также значений вероятностей PXY(A×B) и PY(B).
ЛИТЕРАТУРА
1. Ядов В.А. Стратегия социологического исследования. М.: Омега-Л, 2007. 567 с.
2. Котлер Ф. Основы маркетинга: пер. с англ. М.: РосИнтер, 1996. 698 с.
3. Литтл Дж.А., Рубин Д.Б. Статистический анализ данных с пропусками. М.: Финансы и
статистика, 1991. 430 с.
4. Чурилова А.А. Корректировка неответов // Материалы матем. семинара «Несплошные
статистические исследования». Нижний Новгород, 2000. С. 27.
5. Тарима С.С. Использование дополнительной информации при оценке вероятностей и
интерпретации натурного эксперимента: дис. ... канд. техн. наук. Томск: ТГУ, 2001.
149 с.
Дмитриев Юрий Глебович
Князева Анна Анатольевна
Томский государственный университет
E-mail: dmit70@mail.ru; amili@mail.ru
Поступила в редакцию 16 апреля 2009 г.
Документ
Категория
Без категории
Просмотров
5
Размер файла
457 Кб
Теги
вероятности, пропусках, данных, оценки, события, наличие
1/--страниц
Пожаловаться на содержимое документа