close

Вход

Забыли?

вход по аккаунту

?

913.Francois O. - Processus aleatoires (2005).pdf

код для вставкиСкачать
Ensimag 2e anne?e
2004 -2005
Notes de cours de Processus Ale?atoires
Olivier Franc?ois
2
Table des matie?res
1 Introduction et Ge?ne?ralite?s
1.1 De?finitions . . . . . . . . . . . . . . . . . . .
1.2 Quelques exemples de processus . . . . . . .
1.3 Comple?ments sur la transforme?e de Laplace
1.4 Re?visions de probabilite? : la loi exponentielle
1.4.1 De?finition . . . . . . . . . . . . . . .
1.4.2 Absence de me?moire . . . . . . . . .
1.5 Exercices de re?vision de probabilite? . . . . .
. . . .
. . . .
. . . .
. . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
7
8
12
13
14
16
2 Processus de renouvellement
2.1 De?finitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Processus et fonction de renouvellement . . . . . . . . . . . . .
2.1.2 Temps re?siduel. Temps courant. . . . . . . . . . . . . . . . . . .
2.1.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Processus de Poisson et renouvellement . . . . . . . . . . . . . .
2.2.2 E?quivalence des de?finitions . . . . . . . . . . . . . . . . . . . . .
2.2.3 Temps re?siduel et courant. Le paradoxe de l?inspection. . . . . .
2.2.4 Quelques exemples lie?s au processus de Poisson . . . . . . . . .
2.2.5 Loi conditionnelle des instants de renouvellement . . . . . . . .
2.2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Equations de renouvellement et applications . . . . . . . . . . . . . . .
2.3.1 La fonction de renouvellement comme solution d?une e?quation
fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Solution des e?quations de renouvellement . . . . . . . . . . . . .
2.3.3 Exemples et exercices . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4 Le the?ore?me de renouvellement . . . . . . . . . . . . . . . . . .
2.4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Sommes ale?atoires indexe?es par un processus de renouvellement
2.4.2 Remplacement pre?ventif . . . . . . . . . . . . . . . . . . . . . .
2.4.3 Renouvellement alterne? . . . . . . . . . . . . . . . . . . . . . . .
19
19
19
22
23
25
25
27
28
30
32
36
41
3 Analyse du risque
3.1 Pre?sentation du mode?le . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 L?argument de renouvellement . . . . . . . . . . . . . . . . . . . . . . .
63
63
65
3
42
43
46
48
54
54
57
59
4
TABLE DES MATIE?RES
3.3
3.4
3.5
Remboursements de loi exponentielle . . . . . . . . . . . . . . . . . . .
L?approximation de Cramer-Lundberg . . . . . . . . . . . . . . . . . .
Majoration de la probabilite? de ruine . . . . . . . . . . . . . . . . . . .
66
67
69
4 Processus de Markov et Files d?attente
4.1 Processus de Markov . . . . . . . . . . . . . . . . . . . . .
4.1.1 De?finitions . . . . . . . . . . . . . . . . . . . . . . .
4.1.2 Equations de Kolmogorov . . . . . . . . . . . . . .
4.1.3 Processus de Poisson . . . . . . . . . . . . . . . . .
4.1.4 Comportement asymptotique . . . . . . . . . . . .
4.1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . .
4.2 Processus de naissance et de mort . . . . . . . . . . . . . .
4.2.1 De?finition . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Comportement asymptotique . . . . . . . . . . . .
4.2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . .
4.3 Files d?attente . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Description d?un syste?me de file d?attente . . . . . .
4.3.2 Files d?attente formant un processus de naissance et
4.3.3 Files d?attente M/GI/1. . . . . . . . . . . . . . . .
4.3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
de mort
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
71
71
73
76
78
79
85
85
86
87
88
88
91
95
98
5 Mouvement brownien et diffusions
5.1 Limite de marches ale?atoires . . . . . . . . . . . . . . . . .
5.1.1 Marche ale?atoire dans Zd . . . . . . . . . . . . . . .
5.1.2 Le mouvement brownien standard . . . . . . . . . .
5.1.3 Continuite? des trajectoires . . . . . . . . . . . . . .
5.1.4 Le mouvement brownien comme processus gaussien
5.1.5 Lois marginales et conditionnelles . . . . . . . . . .
5.1.6 Temps de sortie et ze?ros des trajectoires . . . . . .
5.1.7 Inte?grale stochastique . . . . . . . . . . . . . . . . .
5.2 Applications du mouvement brownien . . . . . . . . . . . .
5.2.1 La primitive du mouvement brownien . . . . . . . .
5.2.2 Le processus d?Ornstein-Uhlenbeck . . . . . . . . .
5.2.3 Le pont brownien . . . . . . . . . . . . . . . . . . .
5.2.4 Mouvement brownien avec de?rive . . . . . . . . . .
5.3 Martingales et temps d?atteinte . . . . . . . . . . . . . . .
5.3.1 Martingale . . . . . . . . . . . . . . . . . . . . . . .
5.3.2 Martingale exponentielle . . . . . . . . . . . . . . .
5.4 Processus stationnaires . . . . . . . . . . . . . . . . . . . .
5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
107
107
107
111
113
114
115
116
118
120
120
121
122
123
127
127
128
130
131
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Chapitre 1
Introduction et Ge?ne?ralite?s
Les processus ale?atoires de?crivent l?e?volution d?une grandeur ale?atoire en fonction
du temps (ou de l?espace). Il existe de nombreuses applications des processus ale?atoires
notamment en physique statistique (par exemple le ferromagne?tisme, les transitions de
phases, etc), en biologie (e?volution, ge?ne?tique et ge?ne?tique des populations), me?decine
(croissance de tumeurs, e?pide?mie), et bien entendu les sciences de l?inge?nieur. Dans ce
dernier domaine, les applications principales sont pour l?administration des re?seaux, de
l?internet, des te?le?communications et bien entendu dans les domaines e?conomique et
financier.
L?e?tude des processus ale?atoires s?inse?re dans la the?orie des probabilite?s dont elle
constitue l?un des objectifs les plus profonds. Elle soule?ve des proble?mes mathe?matiques
inte?ressants et souvent tre?s difficiles. Ce cours pre?sente quelques aspects des processus
ale?atoires utiles a? l?inge?nieur mathe?maticien du fait de leur fre?quence d?occurrence
dans les applications : processus de renouvellement, processus de Markov, mouvement
brownien et inte?grale stochastique.
1.1
De?finitions
On appelle processus ale?atoire a? temps continu une famille {Xt ; t ? T } de variables
ale?atoires indice?es par un parame?tre re?el positif. L?ensemble T repre?sente un intervalle
de temps, et le plus souvent la demi-droite IR+ . Les variables sont de?finies sur un me?me
espace probabilise?. Dans ce cours, nous e?tudierons des processus a? valeurs entie?res ou
re?e?lles. Nous identifierons parfois, de manie?re abusive et lorsque les ambiguite?s seront
impossibles, processus et variables en notant (Xt ) ou {Xt } pour de?signer le processus.
Pour une e?ventualite? du hasard ? fixe?e, l?application qui a? t associe la valeur Xt (?)
s?appelle une trajectoire du processus. Les trajectoires constituent ge?ne?ralement les
observations concre?tes que l?on peut faire d?un processus. Par exemple, les journaux
publient chaque jour les trajectoires des valeurs boursie?res.
Un processus est a? valeurs entie?res si
Xt ? IN,
pour tout t ? 0.
Les exemples de processus a? valeurs entie?res sont les processus de Poisson, les pro5
6
CHAPITRE 1. INTRODUCTION ET GE?NE?RALITE?S
cessus de renouvellement lie?s au comptage d?e?ve?nements survenus au hasard, et par
exemple les processus lie?s a? l?e?tat d?une file d?attente. Dans les files d?attente, la variable Xt repre?sente en ge?ne?ral le nombre de clients dans un syste?me. Ce nombre peut
cro??tre ou de?cro??tre en fonction des dure?es et des strate?gies de service. Les processus de
branchement de?crivant la taille d?une population sont aussi des exemples importants.
Un processus est a? valeurs re?elles si
Xt ? IR,
pour tout t ? 0.
Les exemples de tels processus sont les mouvements browniens de?crivant par exemple
les cours des marche?s financiers, les processus de Poisson compose?s ou les capitaux de
socie?te?s (e.g., compagnies d?assurance).
La loi d?un processus ale?atoire est caracte?rise? par la donne?e des lois fini-dimensionnelles. En fait, on parle de la loi du processus {Xt ; t ? 0} lorsque l?on connait la loi
du vecteur
(Xt1 , Xt2 , . . . , Xtn )
pour toute suite finie croissante de temps 0 ? t1 ? t2 ? . . . ? tn . Ce type de de?finition
est peu agre?able a? ve?rifier ou a? manipuler. Nous y ferons parfois re?fe?rence de manie?re
implicite afin de conserver la fluidite? de notre discours.
Nous conside?rons en particulier des processus a? accroissements inde?pendants. Un
accroissement du processus est tout simplement une variable ale?atoire ?s,t e?gale a?
?s,t = Xt ? Xs ,
t ? s,
ou? s, t sont quelconques.
De?finition 1.1.1 Un processus {Xt } tel que X0 = 0 est a? accroissements inde?pendants
si, pour toute suite finie 0 < t1 < t2 . . . < tn , les variables ale?atoires
Xt1 , Xt2 ? Xt1 , . . . , Xtn ? Xtn?1
sont inde?pendantes.
Commentaires. On ve?rifie facilement qu?il suffit de connaitre la loi des accroissements pour caracte?riser la loi d?un processus a? accroissements inde?pendants (c?est-a?dire en conna??tre les lois fini-dimensionnelles).
De?finition 1.1.2 Un processus a? accroissements inde?pendants est a? accroissements
stationnaires si la loi de l?accroissement (Xt+s ? Xt ) ne de?pend pas de t, pour tout
t ? 0.
1.2. QUELQUES EXEMPLES DE PROCESSUS
1.2
7
Quelques exemples de processus
Parmi les plus e?le?mentaires des processus, nous trouvons les processus de comptage
qui seront bien e?tudie?s par la suite.
De?finition 1.2.1 Processus de comptage.
Un processus ale?atoire {Nt ; t ? 0}
a? valeurs entie?res est un processus de comptage si
i) N0 = 0 ;
ii) ? s ? t, Ns ? Nt .
Commentaires. Les trajectoires d?un tel processus sont donc des fonctions en escalier dont les marches sont de taille ale?atoire. Les processus de comptage peuvent
mode?liser de nombreux phe?nome?nes. Si l?on s?inte?resse au nombre d?acce?s de clients a?
un serveur durant une pe?riode (0, T ), on observe en fait un processus de comptage sur
cet intervalle de temps. De me?me, le nombre de particules de?tecte?es par un capteur ou
le nombre de buts marque?s lors d?un match de football peuvent e?tre mode?lise?s par des
processus de comptage. Nous connaissons de?ja? un processus de comptage important
(cf cours de 1A) : le processus de Poisson.
De?finition 1.2.2 Processus de Poisson.
Un processus ale?atoire {Nt ; t ? 0} a?
valeurs entie?res est un processus de Poisson de parame?tre ? > 0 si
i) (Nt ) est un processus de comptage a? accroissements inde?pendants et stationnaires ;
ii) la variable Nt suit la loi de Poisson de parame?tre ?t
?n ? 0,
(?t)n ??t
P(Nt = n) =
e .
n!
le processus de Wiener ou? mouvement brownien est le plus ce?le?bre des processus
a? valeurs re?elles. Sa de?couverte est due a? l?observation du biologiste Brown, interesse? par les fluctuations ale?atoires d?un grain de pollen dans un liquide. Le premier
a avoir formalise? les proprie?te?s du mouvement brownien n?est autre que A. Einstein
dans un article fondamental e?crit en 1905. Ce processus posse?de de nombreuses proprie?te?s mathe?matiques : accroissements inde?pendants et stationnaires, processus gaussien, martingale, processus de Markov, e?quation de la diffusion. Cela explique que
l?on puisse l?e?tudier tre?s en de?tails. Il intervient dans la mode?lisation de nombreux
phe?nome?nes comme une conse?quence du the?ore?me de tendance vers la loi normale. Les
exemples importants sont en physique et en finance.
De?finition 1.2.3 Processus de Wiener ou mouvement brownien.
Un processus ale?atoire {Wt ; t ? 0} a? valeurs re?elles est un processus de Wiener ou mouvement
brownien standard si
8
CHAPITRE 1. INTRODUCTION ET GE?NE?RALITE?S
i) (Wt ) est un processus a? valeurs re?elles a? accroissements inde?pendants et stationnaires ;
ii) la variable Wt suit la loi normale de moyenne nulle et de variance t.
Une classe de processus tre?s importante en pratique et contenant les deux exemples
pre?ce?dents est celle des processus de Markov. Pour ces processus, l?e?volution future de la
variable e?tudie?e conditionnellement a? son passe? jusqu?a? l?instant pre?sent ne de?pend que
de son e?tat a? l?instant pre?sent. Nous e?tudierons en particulier les processus de Markov
a? valeurs entie?res, temporisation naturelle des cha??nes de Markov a? temps discret vues
en premie?re anne?e (re?visions indispensables).
1.3
Comple?ments sur la transforme?e de Laplace
La transforme?e de Laplace est un outil analytique fre?quemment utilise? dans l?e?tude
des variables ale?atoires et des processus ale?atoires. Nous trouverons de nombreuses
opportunite?s d?application de cet outil dans la suite de ce texte. En particulier, il sera
inte?ressant de l?utiliser lors de l?e?tude des processus de renouvellement, pour re?soudre
certaines e?quations fonctionnelles ou e?quations diffe?rentielles. Dans ce paragraphe, nous
de?finissons la transforme?e de Laplace de certaines fonctions de IR+ et nous montrons
a? travers quelques exemples l?inte?re?t technique de cet outil.
De?finition 1.3.1 Une fonction continue f de IR+ dans IR est d?ordre exponentiel s?il
existe ? > 0, t0 > 0 et M > 0 tels que, pour tout t > t0 ,
|f (t)| ? M e?t .
La transforme?e de Laplace est de?finie comme un ope?rateur ?inte?gral? sur l?ensemble
des fonctions d?ordre exponentiel.
De?finition 1.3.2 On appelle transforme?e de Laplace d?une fonction f d?ordre exponentiel la fonction Lf de?finie par
Z +?
?s > ? , Lf (s) =
f (t)e?st dt .
0
Commentaires. La transforme?e de Laplace d?une fonction d?ordre exponentiel est
bien de?finie. En effet, pour tout s > ?,
Z ?
|Lf (s)| ?
|f (t)|e?st dt
Z0 t0
Z ?
?st
?
|f (t)|e dt + M
e?(s??)t dt
0
t0
1
? M0 + M
(1 ? e?(s??)t0 ) < ?
s??
1.3. COMPLE?MENTS SUR LA TRANSFORME?E DE LAPLACE
9
Un proprie?te? importante de l?ope?rateur de Laplace est qu?il de?termine presque partout la fonction qu?il transforme.
The?ore?me 1.3.1 Soient f et g deux fonctions d?ordre exponentiel identique. Supposons que
?s > ? , Lf (s) = Lg(s)
alors
f =g
De?monstration.
presque partout.
Re?sultat admis.
Commentaires. Le premier commentaire concerne l?ordre commun. Supposer que
deux fonctions sont de me?me ordre exponentiel n?est pas tre?s restrictif. En effet, la
de?finition de l?ordre est large et il est aise? de choisir le me?me ? pour les deux fonctions.
Le second commentaire est destine? a? pre?ciser la notion de presque partout. Cette terminologie signifie que le sous-ensemble de IR+ pour lequel les fonctions f et g diffe?rent
est de mesure de Lebesgue nulle.
Exemple 1.3.1 Transforme?e de Laplace d?une constante.
Cherchons a? calculer L1(s) pour tout s > 0 (la constante 1 est e?videmment une
fonction d?ordre exponentiel pour laquelle ? peut e?tre choisi e?gal a? 0).
Z ?
1
?s > 0 , L1(s) =
e?st dt = .
s
0
Exemple 1.3.2 Transforme?e de Laplace de l?exponentielle.
Soit a ? IR. Cherchons a? calculer Leat (s).
Z ?
at
?s > a , Le (s) =
eat e?st dt =
0
1
.
s?a
Nous e?nonc?ons maintenant une proprie?te? fondamentale de la transforme?e de Laplace.
Elle transforme un produit de convolution en un produit de fonctions classique.
10
CHAPITRE 1. INTRODUCTION ET GE?NE?RALITE?S
Proposition 1.3.1 Soient f, g deux fonctions d?ordre exponentiel identique et ? la
constante correspondante. La transforme?e de Laplace du produit de convolution f ? g
de?fini par
Z
t
?t > 0 ,
f (t ? x)g(x)dx .
f ? g(t) =
0
est e?gale a?
?s > ? ,
Lf ? g(s) = Lf (s)Lg(s) .
De?monstration. Nous laissons au lecteur le soin de ve?rifier que la transforme?e de
Laplace du produit de convolution est bien de?finie pour s > ?. Effectuons le calcul
Z ?Z t
f (t ? x)g(x)e?st dxdt
Lf ? g(s) =
0
0
en posant u = t ? x et v = x. Nous obtenons
Z ?Z ?
Lf ? g(s) =
f (u)g(v)e?s(u+v) dudv .
0
0
Finalement, d?apre?s le the?rore?me de Fubini
Lf ? g(s) = Lf (s)Lg(s) .
Exemple 1.3.3 Calculer, pour tout s > 0,
Lt(s) ,
Lt2 (s) ,
Ltn (s) n ? 1 .
Solution. Il suffit de remarquer que t = 1 ? 1(t). L?exemple 1.3.1 et la proposition
1.3.1 permettent d?e?crire
Lt(s) = L1 ? 1(s) = L1(s)L1(s) =
1
.
s2
Par le me?me raisonnement, nous pouvons e?crire
Lt2 (s) = 2L1 ? t(s) =
et
Ltn (s) = nL1 ? tn?1 (s) =
2
s3
n n?1
n!
Lt (s) = n+1 .
s
s
1.3. COMPLE?MENTS SUR LA TRANSFORME?E DE LAPLACE
11
Exemple 1.3.4 Re?soudre l?e?quation fonctionnelle
?s > 0 ,
Solution.
1
.
s(s + 1)
Lf (s) =
On remarque que Lf (s) peut e?tre factorise?e
?s > 0 ,
Lf (s) =
1 1
= L1(s)Le?t (s) = L1 ? e?t (s) .
ss+1
D?apre?s le the?ore?me 1.3.1, nous avons
?t > 0 ,
?t
f (t) = 1 ? e
t
Z
e?x dx = 1 ? e?t .
=
0
La transforme?e de Laplace se comporte de manie?re raisonnable vis a? vis de la de?rivation.
Proposition 1.3.2 Soit f une fonction d?ordre exponentiel de?rivable et dont la de?rive?e
est continue. Alors
?s > ? Lf 0 (s) = sLf (s) ? f (0) .
De?monstration.
Nous avons
?s > ?
0
Z
Lf (s) =
?
f 0 (t)e?st dt
0
Une inte?gration par parties (re?alise?e comme il se doit sur un intervalle borne?) conduit
au re?sultat suivant
Z ?
0
Lf (s) = ?f (0) + s
f (t)e?st dt .
0
Exemple 1.3.5 Re?soudre le syste?me d?e?quations diffe?rentielles
x0 + 2y 0 ? 2y = t
x0 + y 0 ? y = 1
avec la condition initiale x(0) = y(0) = 0.
Solution abre?ge?e. En effectuant la transformation de Laplace des deux membres,
on obtient, apre?s identification
x(t) = 2t ? t2 /2
y(t) = ?t .
12
CHAPITRE 1. INTRODUCTION ET GE?NE?RALITE?S
Transforme?e de Laplace d?une variable ale?atoire positive Pour une variable
re?elle positive X admettant une densite?, la transforme?e de Laplace est une notion
voisine de la fonction caracte?ristique. Il s?agit en fait de la transforme?e de la densite?
Z ?
?sX
e?sx fX (x)dx.
?s ? IR+ , LX (s) = E[e
]=
0
Cette fonction est a? valeurs re?elles donc plus facile a? manipuler sur le plan the?orique que
la fonction caracte?ristique. Notons que les calculs a? effectuer sont identiques dans les
deux cas. Nous laissons au lecteur le soin d?en e?tablir les principales proprie?te?s a? titre
d?exercice en se reportant au paragraphe concernant la fonction caracte?risque du cours
de premie?re anne?e. Cette transforme?e est souvent pre?fe?re?e a? la fonction caracte?ristique
lorsque l?on travaille avec des variables a? valeurs dans IR+ .
Exercice 1. Calculer la transforme?e de Laplace d?une variable de loi exponentielle
de parame?tre ? > 0. En de?duire l?espe?rance et la variance de cette variable.
Exercice 2. Soit X une variable ale?atoire positive de fonction de re?partition F .
De?montrer que
LF (s) = sLX (s).
Exercice 3. Soient X1 , . . . , Xn des variables inde?pendantes de lois respectives E(?i ),
?i > 0. De?terminer la transforme?e de Laplace de la variable
Y =
n
X
Xi
i=1
1.4
Re?visions de probabilite? : la loi exponentielle
Lorsque l?on de?sire e?tablir un mode?le mathe?matique d?un phe?nome?ne re?el, il est
souvent ne?cessaire de faire de nombreuses hypothe?ses simplificatrices afin d?analyser le
mode?le de manie?re calculatoire. Une hypothe?se simplificatrice souvent e?mise en pratique est que les phe?nome?mes ale?atoires e?tudie?s posse?dent une certaine inde?pendance
du passe?, ou absence de me?moire. Dans ce cas, la loi de certaines variables ale?atoires
sera une loi exponentielle. Cette hypothe?se simplificatrice se justifie du fait de la simplicite? de calcul lie?e a? la cette loi mais aussi du fait qu?elle constitue souvent une bonne
approximation du phe?nome?ne re?el. Par exemple, la loi exponentielle est la loi de la
dure?e de vie d?un mate?riel qui ne s?use pas au cours du temps. Un tel mate?riel posse?de
un taux de destruction (taux de panne) constant dans le temps. Cette proprie?te? d?absence de me?moire sera mise en forme dans le premier paragraphe. La loi exponentielle
sera la seule loi qui posse?dera une telle proprie?te?.
1.4. RE?VISIONS DE PROBABILITE? : LA LOI EXPONENTIELLE
13
Cette section du cours de premie?re anne?e est replace?e ici pour l?homoge?ne?ite? du
texte. Elle peut e?tre saute?e par les e?le?ves a? l?aise.
1.4.1
De?finition
Une variable ale?atoire re?elle X suit une loi exponentielle de parame?tre ? > 0 si sa
densite? est donne?e par
??x
?e , x ? 0
f (x) =
0,
x < 0.
Sa fonction de re?partition est alors donne?e par
Z x
1 ? e??x
F (x) =
f (x)dx =
0
??
si x ? 0
sinon.
La transforme?e de Laplace de la loi exponentielle est
?s ? 0, L(s) = E[e?sX ]
Z +?
e?sx ?e??x dx
=
0
=
?
.
?+s
Les moments de la variable X s?obtiennent par diffe?renciations successives de la transforme?e de Laplace
E[X] = L0 (0)
1
=
?
et
E[X 2 ] = L00 (0)
2
=
.
?2
Des deux e?quations pre?ce?dentes, on de?duit aise?ment
V ar(X) =
1
.
?2
Exercice 4. Re?sultat important.
Soient X1 , . . . , Xn des variables inde?pendantes
de loi exponentielle de parame?tre ? > 0. De?montrer que la loi de la variable Sn e?gale
a? X1 + . . . + Xn est la loi Gamma G(n, ?) de densite?
??x
?e (?x)n?1 /(n ? 1)! , x ? 0
fX1 +...+Xn (x) =
0,
x < 0.
14
1.4.2
CHAPITRE 1. INTRODUCTION ET GE?NE?RALITE?S
Absence de me?moire
De?finition 1.4.1 Une variable ale?atoire X est dite sans me?moire (ou sans usure) si
?s, t ? 0, P(X > t + s | X > t) = P(X > s) .
(1.4.1)
Si X est la dure?e de vie d?un mate?riel quelconque, l?e?quation (1.4.1) s?interpre?te de la
manie?re suivante. Sachant le mate?riel en e?tat de bon fonctionnement au temps t, la
loi de probabilite? de sa dure?e de vie future est la me?me que celle de sa dure?e de vie
initiale. En d?autres termes, le mate?riel ne s?use pas.
Proposition 1.4.1 Une variable ale?atoire de loi exponentielle est sans me?moire.
De?monstration.
suivante
La condition d?absence de me?moire (1.4.1) se formule de la manie?re
P(X > t + s ; X > t)
= P(X > s) ,
P(X > t)
soit
P(X > t + s) = P(X > t) P(X > s) .
(1.4.2)
La condition (1.4.2) est e?videmment satisfaite par la loi exponentielle.
Proposition 1.4.2 Une variable ale?atoire sans me?moire suit la loi exponentielle .
De?monstration.
Soit X une variable posse?dant la proprie?te? (1.4.1). On note
G(x) = P(X > x) .
Nous venons d?observer que la fonction G e?tait solution de l?e?quation fonctionnelle
?x, y ? IR+ ,
g(x + y) = g(x)g(y) .
Un re?sultat d?analyse tre?s classique garantit que les solutions continues (a? droite) de
cette e?quation sont de la forme
?x ? IR+ ,
g(x) = e??x .
Ainsi, nous devons avoir
?x ? IR+ ,
P(X ? x) = 1 ? e??x .
La proprie?te? d?absence de me?moire de la loi exponentielle se traduit sur une grandeur
appele?e taux de panne ou taux de hasard.
De?finition 1.4.2 Soit X une variable ale?atoire re?elle de densite? f et de fonction de
re?partition F . On appelle taux de hasard la fonction de?finie par
?t ? 0 ,
r(t) =
f (t)
.
1 ? F (t)
(1.4.3)
1.4. RE?VISIONS DE PROBABILITE? : LA LOI EXPONENTIELLE
15
Cette grandeur s?interpre?te de la manie?re suivante. Supposons qu?un mate?riel de dure?e
de vie X soit en e?tat de bon fonctionnement au temps t > 0. On de?sire calculer la
probabilite? d?une panne dans l?intervalle de temps (t, t + dt). Cette probabilite? est
e?gale a?
P(X ? (t, t + dt) | X > t) .
Or
P(X ? (t, t + dt) ; X > t)
P(X > t)
P(X ? (t, t + dt) )
=
P(X > t)
f (t)dt
'
1 ? F (t)
= r(t)dt .
P(X ? (t, t + dt) | X > t) =
La fonction r(t) repre?sente le taux (conditionnel) avec lequel un mate?riel cesse de
fonctionner a? la date t. Pour la loi exponentielle, ce taux se doit d?e?tre constant par
absence d?usure. On ve?rifie bien
?t ? 0 , r(t) = ?e??t /e??t = ? .
Proposition 1.4.3 Soit X une variable ale?atoire positive amettant une densite? f . Le
taux de hasard de X caracte?rise la loi de cette variable.
De?monstration.
Notons que l?e?quation (1.4.3) se formule de manie?re e?quivalente
?t ? 0 ,
F 0 (t)
.
1 ? F (t)
r(t) =
En inte?grant des deux cote?s, on obtient
Z
ln(1 ? F (t)) = ?
t
r(s)ds + k
0
soit
Z t
1 ? F (t) = e exp ?
r(s)ds .
k
0
En prenant t = 0, on obtient, puisque F (0) = 0,
Z t
F (t) = 1 ? exp ?
r(s)ds .
0
Exercice 5. De?terminer la loi d?une variable ale?atoire dont le taux de panne est e?gal
a?
a) r(t) = ?t , t ? 0 ,
b) r(t) = e?t , t ? 0 .
16
1.5
CHAPITRE 1. INTRODUCTION ET GE?NE?RALITE?S
Exercices de re?vision de probabilite?
Exercice 6. Mickey Markov vient de faire l?acquisition d?une Buick limousine mode?le
California de de 12 me?tres de long. Mais il n?a pas pense? a? ranger son garage pour
pouvoir la rentrer chez lui. Alors, il doit la garer le long de la rue voisine comportant
12 places de parking. Huit ve?hicules plus modestes sont de?ja gare?s. Quelle chance !
Mickey trouve quatre places attenantes ! Mais cela est-il si surprenant ?
Exercice 7. (Source AB et David Bowie) L?engin spatial StarJojo pilote? par le
Major Tom s?e?loigne de la terre a? vitesse constante. Il envoie un message toutes les
secondes, mais son syste?me gyroscopique est de?fectueux et le message est envoye? dans
une direction ale?atoire, de sorte que la probabilite? qu?un message envoye? a? une distance
r arrive a? la station de contro?le est proportionnelle a? 1/r2 . Montrer qu?a? partir d?un
moment la station ne recevra presque su?rement plus de message en provenance du
Major Tom ?
Exercice 8. (Source AB) On suppose que le nombre de clients pre?sents au magasin
Jojo Megastore suit une loi de Poisson de parame?tre ? > 0. Dans ce magasin, chaque
client a la probabilite? p de se faire voler son portefeuille. Quelle est la loi du nombre
de portefeuille vole?s ?
Exercice 9. Montrer que si M et N sont des variables ale?atoires inde?pendantes
suivant une loi de Poisson de parame?tres respectifs ? et х, alors M + N suit la loi de
Poisson de parame?tre ? + х.
Exercice 10. (Source AB) Cyclisme.
La distance maximale en km qu?un enfant
de cinq ans accepte de parcourir sur son ve?lo avant de le laisser sur place est une
variable ale?atoire de loi de Poisson de moyenne 2. Le tour de l?e?tang de Saint-Pierrelez-Echalotes fait trois kilome?tres.
a) Calculer la probabilite? pour un enfant de terminer le tour du lac a? bicyclette.
b) Sept pe?res de famille accompagnent leurs enfants (un chacun) qui chevauchent fie?rement leurs VTT dans un pe?riple dominical autour du lac.
On note N le nombre de pe?res qui termineront la grande boucle en portant
le ve?lo de leur enfant. De?terminer la loi de N . Calculer son espe?rance et sa
variance.
Exercice 11. Soit n un entier strictement positif. Une particule de?crit une marche
ale?atoire sur l?ensemble
E = {1, 2, . . . , 2n ? 1}
de la manie?re suivante. On note (Xk ) la suite des positions de la particule dans le
temps. La position initiale de la particule est X0 = i. Si i < n alors la particule se
de?place en j = i + 1. Si i > n alors la particule se de?place en j = i ? 1. Si i = n alors la
1.5. EXERCICES DE RE?VISION DE PROBABILITE?
17
particule se de?place en une position j choisie au hasard de manie?re uniforme dans E
mais diffe?rente de n. A partir de la position X1 , le processus est re?ite?re? a? l?identique.
a) Montrer que (Xk ) est une cha??ne de Markov homoge?ne dont on pre?cisera la
matrice de transition.
b) On suppose n > 2. Montrer que la suite (Xk ) converge en loi.
c) De?terminer la loi invariante de la cha??ne (Xk ).
d) On suppose n = 2. De?terminer la loi invariante de la cha??ne (Xk ). On
suppose que X0 = 2. De?terminer la loi de la variable Xk , pour tout k.
e) Calculer la position moyenne de la particule en re?gime stationnaire pour
n = 2 et pour n quelconque.
Exercice 12. On conside?re une cha??ne de Markov (Xn )n?0 homoge?ne, irre?ductible
dont l?espace d?e?tat E est fini. Soit (pij )i,j?E la matrice de transition associe?e. Pour
(n)
tout couple i, j d?e?le?ments de E, on note fij la probabilite? pour que le premier passage
en j partant de i ait lieu au temps n.
a) Montrer, pour tout i, j ? E,
(n+1)
fij
=
X
(n)
pik fkj .
k6=j
b) On pose mi,j =
P?
n=1
(n)
nfij . Que repre?sente cette grandeur ? Montrer
mij = 1 +
X
pik mkj .
k6=j
Exercice 13.
Proble?me de la sentinelle.
Joe Blacksmith est enrole? dans le XX e de cavalerie dans un fort du de?sert de l?Arizona. C?est son jour de sentinelle. Il doit garder le fort dont la ge?ome?trie et celle d?un
pentagone. Enerve? par la monotonie du paysage, il de?cide de se de?placer d?un sommet
a? l?autre du pentagone selon une marche au hasard avec une probabilite? p d?aller dans
le sens des aiguilles d?une montre et 1 ? p d?aller dans le sens contraire. Pas de chance
pour Joe, c?est ce jour la? que Chacal Raleur, un indien sioux (et ruse? de surcroit),
cherche a? s?introduire dans le fort par l?un des 5 sommets.
a) De?crire les transitions de la cha??ne de Markov associe?e a? la marche de Joe.
Quelle est la loi stationnaire de cette cha??ne ?
b) Sachant que Joe parcourt une are?te du pentagone en dix minutes et ayant
observe? qu?il vient de quitter un sommet, quel sommet Chacal va-t-il choisir ? De combien de temps peut-il espe?rer disposer (Application : on prend
p = 31 ) ?
18
CHAPITRE 1. INTRODUCTION ET GE?NE?RALITE?S
Exercice 14. Un message e?lectronique doit e?tre transmis par l?utilisateur d?une
machine A vers l?utilisateur d?une machine C. Ce transfert s?effectue par l?interme?diaire
d?une machine B. Mais Mickey Markov est administrateur du re?seau et il y a parfois
des messages perdus ou de?truits. On suppose que
? le transfert de A vers B est effectif avec la probabilite? p et e?choue avec la probabilite? 1 ? p. En cas d?e?chec, le message est retourne? a? l?utilisateur A ;
? le transfert de B vers C est effectif avec la probabilite? q et e?choue avec la probabilite? 1 ? q. En cas d?e?chec, le message est a? nouveau retourne? a? l?utilisateur
A;
? en cas d?e?chec, A renouvelle l?envoi du message ;
? tous les transferts sont inde?pendants entre eux.
On note (Xn )n?0 la succession des machines sur lesquelles le message transite.
a) De?montrer que (Xn )n?0 est une cha??ne de Markov homoge?ne d?espace d?e?tats
{A, B, C}, de condition initiale X0 = A, dont on e?crira le matrice de transition P .
b) On s?inte?resse au nombre N de transitions ne?cessaires pour que le message
atteigne son destinataire :
N = inf{n ? 1 , Xn = C}.
1) De?montrer que, pour tout entier n,
(n)
P(N ? n) = pAC
(n)
ou? pAC est le coefficient correspondant a? la ligne A et a? la colonne C de
la matrice P n , puissance ne de P .
2) En utilisant l?identite?
P n+1 = P P n ,
de?montrer la relation suivante :
(n+1)
pAC
(n)
(n?1)
= (1 ? p) pAC + p(1 ? q) pAC
+ pq .
3) Existe-t-il une suite constante solution particulie?re de l?e?quation de recurrence
un+1 = (1 ? p) un + p(1 ? q) un?1 + pq ?
(0)
(1)
4) Que valent pAC et pAC ?
? On suppose maintenant p = q = 12 . Pour tout n ? 0, on pose vn = un ? 1.
Quelle est la forme ge?ne?rale de la solution de l?e?quation de re?currence
satisfaite par la suite {vn }n?0 ?
5) En de?duire P(N ? n) pour tout n ? IN .
6) Calculer E[N ].
Chapitre 2
Processus de renouvellement
Il s?agit dans ce chapitre d?e?tudier des processus ale?atoires constitue?s de se?ries
d?e?ve?nements pour lesquelles les dure?es se?parant les occurrences sont des variables
ale?atoires strictement positives inde?pendantes et de me?me loi. Le processus de Poisson
de parame?tre ? > 0 est un exemple de re?fe?rence pour une telle famille de processus.
En ce qui concerne le processus de Poisson, les variables inter-occurrences sont de
loi exponentielle de parame?tre ?. Les processus de renouvellement interviennent dans
la mode?lisation de phe?nome?nes lie?s par exemple au renouvellement d?un mate?riel, a?
la fiabilite? d?un syste?me, aux instants d?arrive?e de clients dans une file d?attente, a?
l?occurrence de sinistres pour une compagnie d?assurance etc
2.1
2.1.1
De?finitions
Processus et fonction de renouvellement
Soit F une fonction de re?partition continue telle que F (0) = 0. Un processus de
renouvellement est un processus ponctuel sur IR+ repre?sentant les instants d?occurrence d?un e?ve?nement tel que les dure?es inter-occurrences successives sont des variables
ale?atoires re?elles inde?pendantes, de me?me loi, de fonction de re?partition F . Un tel
processus peut e?tre de?fini indiffe?remment par
? la suite (Xn ) des dure?es entre les occurrences successives,
? la suite (Tn ) des instants d?occurrences
?n ? 1 ,
Tn = X1 + . . . + Xn ,
? le processus de comptage {Nt ; t ? 0} ou? Nt repre?sente le nombre d?occurrences
dans l?intervalle [0, t]. En effet, on passe du processus de comptage aux instants
d?occurrence par la relation suivante
?n ? 0 ,
(Nt ? n) = (Tn ? t) .
(2.1.1)
En premier lieu, nous cherchons a? caracte?riser la loi de la variable Tn e?gale au ne instant
d?occurrence. Soit Fn la fonction de re?partition de la variable Tn . Bien entendu, nous
19
20
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
avons
F1 = F
et
Tn = Tn?1 + Xn .
La formule e?tablie dans le cours de premie?re anne?e montre que
Z x
Z ?
F (x ? y)dF (y) =
F (x ? y)dF (y) .
F2 (x) =
0
0
De me?me, nous pouvons e?crire
x
Z
Fn?1 (x ? y)dF (y) .
Fn (x) =
0
D?apre?s l?e?quation (2.1.1), nous obtenons la loi de la variable Nt pour tout t ? 0. En
effet, nous avons
?n ? 0 , P(Nt ? n) = Fn (t) .
L?espe?rance de la variable Nt de?finit pour tout t ? 0 une grandeur particulie?rement
importante appele?e fonction de renouvellement.
De?finition 2.1.1 On appelle fonction de renouvellement, la fonction de?finie sur IR+
par
?t ? 0 , M (t) = E[Nt ] .
Nous pouvons e?noncer le re?sultat suivant.
Proposition 2.1.1
?t ? 0 ,
M (t) =
?
X
Fn (t) .
n=1
De?monstration.
La de?monstration utilise le fait suivant
E[Nt ] =
?
X
P(Nt > n) =
n=0
?
X
Fn (t) .
n=1
La fonction de renouvellement est donc de?finie comme une somme de fonctions de
re?partition. Cela lui confe?re un certain nombre de proprie?te?s imme?diates. En particulier,
la fonction M est croissante, continue a? droite et
lim M (t) = +? .
t??
Puisque les Tn sont positives, nous avons M (0) = 0. Enfin, il est utile de remarquer
que M (t) est toujours bien de?finie. Ce re?sultat me?rite un peu d?attention. Il est l?objet
de la proposition suivante.
2.1. DE?FINITIONS
21
Proposition 2.1.2
?t ? 0 ,
M (t) =
?
X
Fn (t) < ? .
n=1
De?monstration.
Nous avons, pour tout m ? n
Z t
Fn?m (t ? y)dFm (y) .
Fn (t) =
0
Comme Fn?m est croissante,
?y ? t ,
Fn?m (t ? y) ? Fn?m (t) .
Ainsi, nous pouvons e?crire
?1 ? m ? n ? 1 ,
Fn (t) ? Fn?m (t)Fm (t)
De me?me, pour tout r ? 1 et 0 ? k ? r ? 1
Fnr+k (t) ? F(n?1)r+k (t)Fr (t)
? Fk (t)[Fr (t)]n .
Pour tout t ? 0, il existe un r ? 1 tel que Fr (t) < 1. Ceci implique que la se?rie converge
au moins aussi vite qu?une se?rie ge?ome?trique.
Exemple.
Soit 0 < t < 1. On conside?re le processus de renouvellement associe? a? la
loi uniforme sur l?intervalle (0, 1).
a) De?montrer, par re?currence, que
?n ? 1 ,
P(Tn ? t) =
tn
.
n!
b) De?montrer que
?0 < t < 1 ,
Solution abre?ge?e.
M (t) = et ? 1 .
Nous avons
?0 < t < 1 ,
F1 (t) = t
et
Fn (t) = (Fn?1 ? 1)(t) =
tn
.
n!
Le re?sultat suit facilement.
Nous donnons l?expression de la transforme?e de Laplace de la fonction de renouvellement. Ce re?sultat sera utile dans la section suivante.
22
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Proposition 2.1.3 La transforme?e de Laplace de la fonction de renouvellement est
e?gale a?
LF (s)
LX (s)
=
?s > 0, LM (s) =
1 ? Lf (s)
s(1 ? LX (s))
ou? f est la densite? de la loi de renouvellement et LX la transforme?e de cette densite?.
De?monstration.
Nous avons
?s > 0,
LM (s) =
?
X
LFn (s).
n=1
Or LFn (s) = LFn?1 (s)Lf (s), et par re?currence,
LFn (s) = LF (s) (Lf (s))n?1 .
Le re?sultat annonce? provient de la se?rie ge?ome?trique de raison Lf (s) < 1.
2.1.2
Temps re?siduel. Temps courant.
Nous donnons quelques de?finitions usuelles concernant les processus de renouvellement. Il s?agit des temps re?siduel et courant.
De?finition 2.1.2 Pour tout t ? 0, on de?finit
? le temps re?siduel courant
?t = TNt +1 ? t
? l?a?ge courant
?t = t ? TNt
? le temps total courant
?t = TNt +1 ? TNt
associe?s a? un processus de renouvellement donne?.
Commentaires. Le temps re?siduel courant est a? l?instant t le temps qu?il reste a?
attendre pour la prochaine occurrence du processus. En guise d?illustration, il s?agit
du temps que l?on passe a? l?arre?t d?autobus lorsque l?on arrive a? l?instant t (dans cet
exemple, une occurrence est repre?sente?e par l?arrive?e d?un bus). L?a?ge courant est la
dure?e se?parant la date courante t de la dernie?re occurrence du processus et le temps
total courant est la somme des deux temps pre?ce?dents
?t = ?t + ?t = XNt +1 .
2.1. DE?FINITIONS
2.1.3
23
Exemples
Nous terminons cette section en pre?sentant deux exercice simples illustrant l?inte?re?t
des processus de renouvellement.
Exemple 1 : Des trous dans le gruye?re.
Une suite de reque?tes arrivent a? un
serveur selon un processus de renouvellement dont la loi inter-arrive?es a pour fonction
de re?partition F . Au temps t = 0, le serveur lance l?exe?cution une ta?che dont la dure?e
est de?termine?e et vaut C > 0. Lorsqu?elle est interrompue par l?arrive?e d?une reque?te,
l?exe?cution de cette ta?che est annule?e puis re?initialise?e et relance?e imme?diatement apre?s
l?arrive?e de la reque?te. Pour mener a? bien l?exe?cution de la ta?che, le serveur doit donc
attendre le premier intervalle de renouvellement d?une dure?e supe?rieure a? C.
a) Soit N le rang de l?intervalle de temps dans lequel l?exe?cution de la ta?che
pourra e?tre acheve?e. Quelle est la loi de la variable ale?atoire N ? Exprimer
sa fonction ge?ne?ratrice GN .
b) Soit T le temps d?attente du premier intervalle de renouvellement d?une
dure?e supe?rieure a? C. Donner l?expression de T en fonction de N . Calculer
la transforme?e de Laplace de T .
c) De?duire E[T ] de la question pre?ce?dente.
d) On suppose que les reque?tes arrivent selon un processus de Poisson de
parame?tre ? > 0. Donner l?expression de E[T ] en fonction de ?.
Solution abre?ge?e.
a) La variable N e?gale au rang de l?intervalle dans lequel l?exe?cution de la
ta?che pourra e?tre acheve?e est une variable de loi ge?ome?trique de parame?tre
p = 1 ? F (C) .
Sa fonction ge?ne?ratrice est donc e?gale a?
?|z| < 1 ,
GN (z) =
(1 ? F (C))z
.
1 ? F (C)z
b) Notons tout d?abord que la loi conditionnelle de X sachant X ? C admet
pour densite?
f (x)
.
?x ? C , fXX?C (x) =
F (C)
De plus, la loi conditionnelle du vecteur ale?atoire T(X1 , . . . , Xn?1 ) sachant
que N = n admet pour densite?
?i, ?xi ? C ,
N =n
f(X
(x1 , . . . , xn?1 )
1 ,...,Xn?1 )
=
n?1
Y
i=1
ou? f est la densite? commune des (Xi ). Puisque,
T = X1 + . . . + XN ?1 + C ,
f (xi )
F (C)
24
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
nous avons
E[e?sT ] = e?sC E[E[e?s(X1 +...+XN ?1 ) | N ]]
Z C
n?1
?
X
?sC
?sx f (x)
P(N = n)
dx
.
= e
e
F
(C)
0
n=1
En utilisant la se?rie ge?ome?trique, nous obtenons
?s > 0 ,
LT (s) = e?sC
1 ? F (C)
.
RC
1 ? 0 e?sx f (x)dx
c) Nous obtenons par de?rivation
RC
E[T ] = C +
xf (x)dx
.
1 ? F (C)
0
Cette formule est e?videmment e?quivalente a? la suivante
E[T ] = C + E[N ? 1]E[X|(X < C)] .
d) Dans le cas de la loi exponentielle, nous trouvons
E[T ] =
e?C ? 1
?
Exercice 15. Processus de de?faillance.
Un syste?me dont on suppose la re?ponse instantane?e est sollicite? a? des instants
ale?atoires (Tn ) suivant un processus de renouvellement dont la loi a pour fonction de
re?partition F . A? chaque sollicitation, le syste?me a une probabilite? p d?e?tre de?faillant.
On suppose que les de?faillances sont inde?pendantes du processus de sollicitations.
a) Montrer que la suite des instants successifs de de?faillance de?finit un processus de renouvellement.
b) Donner l?expression de la transforme?e de Laplace de la loi associe?e aux
instants de de?faillance en fonction de Lf , ou? f est la densite? de la loi F .
c) Donner l?expression de la fonction de renouvellement.
d) De?crire le processus de de?faillance lorsque F est la loi exponentielle de
parame?tre ? > 0.
Solution abre?ge?e.
Notons Y1 l?instant de la premie?re de?faillance. Nous avons
Y1 = X1 + и и и + XN
2.2. PROCESSUS DE POISSON
25
ou? N est de loi G(p), inde?pendante des (Xn ). Les hypothe?ses d?inde?pendance garantissent que le processus de de?faillance est un processus de renouvellement dont la loi
est identique a? celle de Y1 . Nous avons
LY (s) =
?
X
P(N = n)(LX (s))n =
n=1
pLX (s)
.
1 ? qLX (s)
En notant Mp la fonction de renouvellement du processus des de?faillances, nous avons
LMp (s) =
LY (s)
1 pLX (s)
=
= pLM (s).
s(1 ? LY (s))
s 1 ? LX (s)
Nous avons donc
?t ? 0,
Mp (t) = pM (t).
Lorsque les Xn sont de loi E(?), nous avons
LY (s) =
p?
,
p? + s
et Y suit la loi E(p?). Dans ce cas, nous verrons que le processus de sollicitation est
un processus de Poisson de parame?tre ? > 0 et retrouverons cette proprie?te? classique
d?extraction plus loin.
2.2
2.2.1
Processus de Poisson
Processus de Poisson et renouvellement
Le processus de Poisson a e?te? pre?sente? durant le cours de premie?re anne?e. Intuitivement, il s?agit de compter le nombre d?occurrences d?e?ve?nements qui surviennent au
hasard et inde?pendamment les uns des autres au cours du temps. La de?finition classique
du processus de Poisson est la suivante.
De?finition 2.2.1 Le processus de comptage {Nt ; t ? 0} est un processus de Poisson
de taux ? > 0, si
i) le processus est a? accroissements inde?pendants ;
ii) le nombre d?occurrences dans un intervalle de temps quelconque de longueur t
suit la loi de Poisson de parame?tre ?t.
? s, t ? 0 ,
P(Nt+s ? Ns = n) = e??t (?t)n /n! , n = 0, 1, ...
Commentaires. Il vient imme?diatement d?une telle de?finition qu?un processus de
Poisson est un processus a? accroissements stationnaires et de plus
E[Nt ] = ?t .
Dans cette section, nous donnons une autre de?finition du processus de Poisson, vu
comme un processus de renouvellement.
26
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
De?finition 2.2.2 Soit (Xn ) un processus de renouvellement de loi F e?gale a? la loi
exponentielle de parame?tre ? > 0. Soit
Tn = X1 + и и и + Xn , pour n ? 1;
T0 = 0.
Le processus de comptage {Nt ; t ? 0} de?fini par
Nt = max{n : Tn ? t}
est appele? processus de Poisson de taux ? > 0.
Pour comprendre la raison de l?appellation processus de Poisson (pluto?t que processus exponentiel), cherchons la loi de Nt pour un t fixe?. Tout d?abord, notons que
?n ? IN , ?t > 0 ,
Nt ? n
??
Tn ? t .
(2.2.2)
Les variables ale?atoires Tn sont de?finies comme somme de n variables inde?pendantes
de loi E(?). Par conse?quent, Tn suit la loi Gamma G(n, ?). Montrons qu?une variable
Nt de?finie a? partir de la relation (2.2.2) suit la loi de Poisson de parame?tre ?t. Soit
n ? IN , nous avons
P(Nt ? n) =
P(Tn ? t)
Z t
?n
xn?1 e??x dx
=
(n ? 1)! 0
?n
=
In
(n ? 1)!
En inte?grant par parties, on obtient
xn
In = [ e??x ]t0 +
n
Z
t
?
0
xn ??x
e ds .
n
Donc
(?t)n ??t ?n+1
e +
In+1 .
P(Nt ? n) =
n!
n!
Par conse?quent, puisque le dernier terme est e?gal a? P(Nt ? n + 1),
(?t)n ??t
e .
n!
Notons qu?il est possible de faire cette de?monstration directement a? l?aide de la
transforme?e de Laplace. En effet, nous avons
n
?
?1
LFn (s) = s
= s?1 LG(n, ?)(s).
s+?
P(Nt = n) = P(Nt ? n) ? P(Nt ? n + 1) =
Par ailleurs, nous avons
P(Nt = n) = P(Tn ? t) ? P(Tn+1 ? t).
Ainsi, nous avons apre?s simplification
n+1
?
?1
L P(Nt = n)(s) = ?
= ??1 LG(n + 1, ?)(s)
s+?
Le re?sultat suit par inversion de la transforme?e de Laplace.
2.2. PROCESSUS DE POISSON
2.2.2
27
E?quivalence des de?finitions
Afin de ve?rifier l?e?quivalence des deux de?finitions, nous devons en particulier ve?rifier
que les accroissements sont inde?pendants et stationnaires. Nous supposons que le processus de Poisson est de?fini comme un processus de renouvellement et nous proce?dons
en deux e?tapes (lemmes).
Lemme 2.2.1 Soit s > 0. Le processus de?fini par Lt = Nt+s ? Ns , pour tout t ? 0 est
encore un processus de Poisson de parame?tre ? > 0. Il est inde?pendant de Nr , quel que
soit r ? s.
De?monstration. Nous donnons en fait l?ide?e de la de?monstration peu agre?able a?
formaliser. Imaginons pour fixer les ide?es que Ns = 4. Ainsi, il y a eu 4 occurrences aux
temps T1 = t1 , T2 = t2 , T3 = t3 et T4 = t4 . Nous savons alors que le temps se?parant la
quatrie?me et la cinquie?me occurrence doit ve?rifier
X5 > s ? t4 .
Puisque la loi exponentielle est sans me?moire, nous avons
P(X5 > t + (s ? t4 ) | X5 > s ? t4 ) = P(X5 > t) = e??t .
Ceci montre que la loi de la premie?re arrive?e du processus Lt est la loi E(?) et que la
premie?re arrive?e dans le processus de?cale? est inde?pendante des Ti (i ? 4). Ce re?sultat
anticipe par ailleurs sur la description du temps re?siduel pour le processus de Poisson.
La loi de ce temps est exponentielle de parame?tre ?.
Lemme 2.2.2 Le processus (Nt ) est a? accroissements inde?pendants. Si t0 < t1 < . . . ?
tn , alors
Nt1 ? Nt0 , . . . , Ntn ? Ntn?1 ,
sont des variables inde?pendantes.
De?monstration. D?apre?s le premier lemme, Ntn ?Ntn?1 est inde?pendant de Nt1 ?Nt0 ,
. . . , Ntn?1 ? Ntn?2 . Le re?sultat annonce? s?obtient par recurrence.
Ces lemmes traduisent une proprie?te? fondamentale de renouvellement. Intuitivement, le processus rede?marre de la me?me manie?re a? n?importe quel instant positif. A?
tout instant, l?e?tat du processus est inde?pendant de tous les e?tats passe?s du processus.
En d?autres termes, il s?agit d?un processus sans me?moire.
De?monstration de l?e?quivalence des propositions.
Les lemmes pre?ce?dents
donnent la premie?re implication (la de?finition 2.2.2 entra??ne la de?finition 2.2.1). La
re?ciproque est fournie par le re?sultat suivant.
28
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Proposition 2.2.1 Supposons que le processus de Poisson est de?fini par la de?finition
2.2.1. Alors les variables ale?atoires X1 , . . . , Xn sont inde?pendantes et de loi exponentielle de parame?tre ?.
De?monstration. Notons, tout d?abord, que l?e?ve?nement (X1 > t) se re?alise si et
seulement si il n?y a aucune occurrence du processus de Poisson dans l?intervalle (0, t).
Ainsi,
P(X1 > t) = P(Nt = 0) = e??t .
Donc X1 suit la loi exponentielle de parame?tre ?. De plus,
Z ?
P(X2 > t) = E[ P(X2 > t | X1 )] =
P(X2 > t | X1 = s)?e??s ds .
0
Calculons
P(X2 > t | X1 = s) = P(0 occurrence dans (s, s + t) | X1 = s)
= P(0 occurrence dans (s, s + t))
= P(Nt+s ? Ns = 0)
= e??t .
Les deux dernie?res e?quations de?coulent de la proprie?te? d?accroissements inde?pendants
et stationnaires du processus de Poisson. On conclut que X2 suit la loi exponentielle
de parame?tre ? et qu?elle est inde?pendante de X1 . En re?pe?tant cet argument pour tout
n > 2, on de?montre la proposition.
Commentaires. Nous avons vu en premie?re anne?e et justifierons a? nouveau dans la
suite une troisie?me de?finition du processus de Poisson. Cette dernie?re de?finition met
l?accent sur la caracte?risation du processus de Poisson comme processus de Markov.
Dans ce contexte, l?e?quivalence avec le renouvellement de loi exponentielle appara??tra
imme?diat.
De?finition 2.2.3 Le processus de comptage {Nt ; t ? 0} est un processus de Poisson
de taux ? > 0, si
i) le processus est a? accroissements inde?pendants et stationnaires ;
ii) P(Nh = 1) = ?h + o(h) ;
iii) P(Nh ? 2) = o(h).
2.2.3
Temps re?siduel et courant. Le paradoxe de l?inspection.
Conside?rons donc le processus de Poisson de parame?tre ? > 0 comme un processus
de renouvellement de fonction de re?partition
?t ? 0 ,
F (t) = 1 ? e??t .
Par de?finition, la fonction de renouvellement est e?gale a?
?t ? 0 ,
M (t) = E[Nt ] .
2.2. PROCESSUS DE POISSON
29
La variable ale?atoire Nt admet pour loi la loi de Poisson de parame?tre ?t. En conse?quence,
nous avons
?t ? 0 , M (t) = ?t .
Le temps re?siduel courant est tel que
P(?t > x) = P(Nt+x ? Nt = 0) = P(Nx = 0) = e??x .
?x ? 0 ,
La loi du temps re?siduel est donc la loi exponentielle de parame?tre ?. Le temps re?siduel a
donc me?me loi que les dure?es inter-occurrences. Ceci peut para??tre paradoxal puisque le
temps re?siduel est toujours plus court que la dure?e se?parant les occurrences pre?ce?dant
et suivant l?instant ou? il est mesure?. Il est aussi remarquable que la loi du temps
re?siduel ne de?pende pas de t. En fait, ces proprie?te?s traduisent l?absence de me?moire
du processus de Poisson et de la loi exponentielle.
L?a?ge courant ne peut e?tre supe?rieur a? t. Mais, pour tout x < t,
P(?t > x) = P(Nt ? Nt?x = 0) = P(Nx = 0) = e??x .
La fonction de re?partition de cette variable ale?atoire est donc donne?e par
1 ? e??x si 0 ? x ? t ,
F?t (x) =
1
si x ? t .
Il s?agit de la loi exponentielle tronque?e en t.
L?espe?rance du temps total courant vaut donc
1
[1 + (1 ? e??t )] .
?
Il faut remarquer que la loi de la variable ?t est diffe?rente de la loi exponentielle (loi des
dure?es inter-occurrences). L?identite? pre?ce?dente conduit en effet au paradoxe suivant
E[?t ] = E[?t ] + E[?t ] =
2 ? e??t
1
> E[Xi ] =
?
?
Lorsque t tend vers l?infini, le temps total courant se?parant deux occurrences successives du processus de Poisson est en moyenne deux fois plus long que la dure?e interoccurrences moyenne. Ce paradoxe est appele? parfois appele? paradoxe de l?inspection.
L?inspection, i.e. l?observation de l?e?tat du processus au temps t, a pour effet d?agrandir
la dure?e moyenne d?attente de l?occurrence suivante.
E[?t ] =
La loi conjointe du couple (?t , ?t ) se de?termine de la me?me manie?re
?x ? 0 , 0 ? y ? t ,
P(?t > x, ?t > y) = P(Nt+x ? Nt?y = 0) = P(Nx+y = 0) .
Ainsi, nous obtenons
P(?t > x, ?t > y) =
e??(x+y)
0
si 0 ? y < t ,
si y ? t .
Ceci de?montre que les variables ale?atoires ?t et ?t sont inde?pendantes. Cette proprie?te?,
e?quivalente a? l?absence de me?moire, caracte?rise le processus de Poisson.
30
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
2.2.4
Quelques exemples lie?s au processus de Poisson
Ce premier exemple pre?sente un moyen de construire algorithmiquement des re?alisations de la loi de Poisson. Pour simuler le processus, nous verrons plus tard une
autre me?thode de simulation fonde?e sur le conditionnement (qui s?ave?re plus efficace
en pratique).
Exemple 2.2.1 Soit ? un re?el positif. La loi de la variable N en sortie de l?algorithme
suivant
X <1
N <- -1
Repeter
X <- X * ALEA
N <- N + 1
Tant que ( X > exp(-lambda) )
est la loi de Poisson de parame?tre ?.
Solution. Pour un entier n fixe?, on cherche a? calculer la probabilite? de l?e?ve?nement
(N ? n). La loi de N , caracte?rise?e par sa fonction de re?partition, se de?duira de ce
calcul. On note (Ui )i?1 la suite des appels au ge?ne?rateur ALEA.
?n ? 1 , P(N ? n) = P( (U1 > exp(??)) ? и и и ? ( U1 U2 и и и Un > exp(??)) )
= P( U1 U2 и и и Un > exp(??) )
car les e?ve?nements (U1 U2 и и и Ui > exp(??))i?1 sont emboite?s. En passant au logarithme, on obtient
n
X
P(N ? n) = P(
? ln(Ui ) ? ?).
i=1
Les variables Xi = ? ln(Ui ) sont inde?pendantes et de loi E(1). Si l?on introduit un
processus de Poisson {N?t , t ? 0} de parame?tre 1, on peut e?crire
P(
n
X
Xi ? ?) = P(N?? ? n).
i=1
Ceci conduit a?
P(N?? ? n) = P(N ? n)
et N suit la loi de Poisson de parame?tre ?.
L?exemple que nous pre?sentons maintenant est particulie?rement important. Il montre
que si l?on extrait des occurrences au hasard dans un processus de Poisson avec une
probabilite? fixe, on obtient de nouveau un processus de Poisson.
2.2. PROCESSUS DE POISSON
31
Exemple 2.2.2 Soit {Nt ; t ? 0} un processus de Poisson de parame?tre ? > 0. On
suppose que les occurrences successives du processus peuvent e?tre classe?es selon deux
types que l?on note type I et type II. On suppose de plus que lorsqu?une occurrence
survient, elle est de type I avec probabilite? p inde?pendamment de toutes les autres
occurrences du processus. On note respectivement Nt1 et Nt2 les nombres d?occurrences
de type I et de type II survenues dans l?intervalle de temps [0, t].
a) A? t ? 0 fixe?, quelle est la loi du couple (Nt1 , Nt2 ) ? (On pourra conditionner a?
l?e?ve?nement (Nt = k), k ? 0.)
b) En de?duire, pour tout t ? 0, la loi de la variable Nt1 .
c) Montrer, pour tout t ? 0, que les variables ale?atoires Nt1 et Nt2 sont inde?pendantes.
d) Montrer que {Nt1 ; t ? 0} et {Nt2 ; t ? 0} sont des processus de Poisson
inde?pendants de parame?tres respectifs p? et (1 ? p)?.
Solution 1.
En remarquant que Nt = Nt1 +Nt2 , il devient judicieux de conditionner
a? la valeur de la variable Nt . Ainsi, pour tout k, l ? IN ,
P(Nt1 = k ; Nt2 = l) = E[ P(Nt1 = k ; Nt2 = l | Nt ) ]
= P(Nt1 = k ; Nt2 = l | Nt = k + l) P(Nt = k + l)
k
Il existe bien su?r Ck+l
manie?res d?ordonner k occurrences de type I parmi k + l occurrences de types I et II. Ceci donne, compte tenu que Nt suit une loi de Poisson de
parame?tre ?t,
k
P(Nt1 = k ; Nt2 = l) = Ck+l
pk (1 ? p)l e??t
(?t)k+l
(k + l)!
(?pt)k (?(1 ? p)t)l ??pt ??(1?p)t
e
e
k!
l!
Les variables Nt1 et Nt2 sont donc inde?pendantes (la loi du couple se factorise) et de loi
de Poisson de parame?tres respectifs p?t et (1 ? p)?t.
2
On montre de la me?me fac?on que les accroissements N 1 (t + s) ? Nt1 et Nt+s
? Nt2 ,
t, s ? 0 sont e?galement poissoniens de parame?tres p?s et (1 ? p)?s.
En se re?fe?rant au cours (p. 189), le processus {Nt1 ; t ? 0} est un processus de Poisson de
parame?tre p? si l?on montre que ses accroissements sont inde?pendants. Soient s, t > 0,
on peut e?crire
=
1
1
P(Ns1 = k ; Nt+s
? Ns1 = l) = E[ P(Ns1 = k ; Nt+s
? Ns1 = l | Ns ; Nt+s ? Ns )].
En conditionnant aux variables Ns et Nt+s ? Ns , on fait disparaitre l?ale?a lie? au nombre
1
total d?occurrences au temps t + s. Les accroissements Nt+s
? Ns1 et Ns1 ne de?pendent
plus que des tirages de type I ou II et sont donc inde?pendants (conditionnellement a?
Ns et Nt+s ? Ns ). Ainsi
1
P(Ns1 = k ; Nt+s
? Ns1 = l) = E[ P(Ns1 = k | Ns ; Nt+s ? Ns )
1
О P(Nt+s
? Ns1 = l | Ns ; Nt+s ? Ns )]
= E[ P(Ns1 = k | Ns ) ]
1
ОE[ P(Nt+s
? Ns1 = l | Nt+s ? Ns )]
1
1
= P(Ns = k) P(Nt+s
? Ns1 = l)
(2.2.3)
32
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
ou? l?on a utilise?, pour la deuxie?me identite?, l?inde?pendance des accroissements Ns et
Nt+s ? Ns du processus de Poisson {Nt ; t ? 0}. Le me?me raisonnement s?applique
avec un nombre fini d?accroissements du processus {Nt1 ; t ? 0} comme du processus
{Nt2 ; t ? 0}.
Solution 2.
Puisque (Nt ) est un processus de renouvellement, et que les types
sont affecte?s inde?pendamment de (Nt ), il est clair que (Nt1 ) est aussi un processus de
renouvellement. Soit Y1 l?instant de premie?re occurrence, nous avons
LY1 (s) = GN (LX1 (s)) =
pLX1 (s)
.
1 ? (1 ? p)LX1 (s)
Or, nous avons
LX1 (s) =
et
LY1 (s) =
?
,
?+s
s>0
p?
p?
?+s
=
.
? + s ? + s ? (1 ? p)?
p? + s
On reconnait la transforme?e de Laplace de la loi E(p?).
2.2.5
Loi conditionnelle des instants de renouvellement
Soit {Nt ; t ? 0} un processus de Poisson de parame?tre ? > 0. Nous supposons que
le nombre d?occurrences au temps t est e?gal a? n. Nous allons montrer, dans ce paragraphe, que les n premiers instants d?occurrence sont re?partis de la me?me manie?re que
des variables inde?pendantes de loi uniforme sur l?intervalle de temps (0, t) et range?es
dans l?ordre croissant. On dit dans ce cas que les variables correspondent aux statistiques d?ordre d?un e?chantillon de loi uniforme. Nous donnons ci-dessous une de?finition
pre?cise.
De?finition 2.2.4 Soient X1 , . . . , Xn , n variables ale?atoires a? valeurs re?elles. On dit
que X(1) , . . . , X(n) sont les statistiques d?ordre correspondant a? X1 , . . . , Xn si, pour tout
k = 1, . . . , n, X(k) est la k e plus petite valeur parmi X1 , . . . , Xn .
Convention. S?il y a e?galite? entre certaines variables, la statistique d?ordre est mal
de?finie. On de?cidera en cas d?e?galite? pour X(k) de choisir la variable de plus petit indice
parmi les ex aequo. Cette situation critique n?intervient jamais dans la suite car les
variables que nous conside?rons admettent une loi a? densite?.
Proposition 2.2.2 On suppose que X1 , . . . , Xn sont inde?pendantes et de me?me loi de
densite? f . Alors, la densite? f ? du vecteur (X(1) , . . . , X(n) ) est
?
f (x1 , . . . , xn ) = n!
n
Y
i=1
f (xi )11{x1 <...<xn } .
2.2. PROCESSUS DE POISSON
33
De?monstration. Conside?rons la permutation ? de {1, . . . , n} et la transformation
?? de IRn dans lui-me?me qui permute les coordonne?es du vecteur (x1 , . . . , xn )
?(x1 , . . . , xn ) ? IRn ,
?? (x1 , . . . , xn ) = (x?(1) , и и и , x?(n) ) .
Alors, pour tout sous-ensemble mesurable A ? {x1 < . . . < xn }, nous avons
X
P( (X(1) , . . . , X(n) ) ? A) =
P( (X1 , . . . , Xn ) ? ?? (A))
?
=
XZ
?
f (x1 ) . . . f (xn )dx1 . . . dxn .
?? (A)
Le changement de variable (line?aire)
(y1 , . . . , yn ) = ??1
? (x1 , . . . , xn )
dans chacun des termes de la somme conduit, en remarquant que
|Jac?? | = 1,
a?
Z
P( (X(1) , . . . , X(n) ) ? A) = n!
f (y1 ) . . . f (yn )dy1 . . . dyn
A
ou? n! repre?sente bien entendu le nombre de permutations des n indices.
Proposition 2.2.3 La loi conditionnelle des instants de renouvellement (T1 , . . . , Tn )
sachant (Nt = n) est celle de n variables inde?pendantes de loi uniforme sur (0, t)
range?es dans l?ordre croissant. Elle admet pour densite?
?(t1 , . . . , tn ) ? IRn ,
Nt =n
f(T
(t1 , . . . , tn ) =
1 ,...,Tn )
n!
1 {0<t1 <...<tn ?t} .
tn
De?monstration. Soient 0 < t1 и и и < tn ? t. Utilisons les variables inter-occurrences
(Xi ). L?observation
(T1 = t1 ; и и и ; Tn = tn ; Nt = n)
se re?alise si et seulement si
(X1 = t1 ; X2 = t2 ? t1 ; и и и ; Xn = tn ? tn?1 ; Xn+1 > tn ? t)
se re?alise aussi. Or, les (Xi ) sont inde?pendantes et de loi exponentielle de parame?tre
? > 0. Ceci implique que
Nt =n
f(T
(t1 , . . . , tn ) =
1 ,...,Tn )
1
fX (t1 ) fX2 (t2 ?t1 ) . . . fXn (tn ?tn?1 )P(Xn+1 > tn ?t) .
P(Nt = n) 1
34
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Apre?s simplification, nous obtenons
Nt =n
(t1 , . . . , tn ) =
f(T
1 ,...,Tn )
?n e??tn e??(t?tn )
n!
= n.
n
??t
(?t) e
t
Commentaires. Ce re?sultat nous permet de proposer un algorithme permettant
d?obtenir une re?alisation du processus de Poisson sur l?intervalle (0, t). On commence
par simuler une variable N selon la loi de Poisson de parame?tre ?t. Puis on fait appel
N fois au ge?ne?rateur ale?atoire pour obtenir N variables de loi uniforme sur l?intervalle
(0, t). Il suffit ranger ces variables dans l?ordre croissant afin d?obtenir les instants
d?occurrence du processus. En langage R (ou S), cette simulation peut s?e?crire
> N <- rpois(1, lambda *t) #simule la loi de Poisson
> U <- runif(N, 0, t) #echantillon de taille N de loi uniforme sur (0,t)
> T <- sort(U) #tri rapide
En sortie, la variable T contient les instants d?occurrence du processus de Poisson de
parame?tre ? au temps t. Si N = 0, la situation est triviale, T0 = 0.
Le re?sultat posse?de un inte?re?t applicatif certain. Il permet de justifier que l?on puisse
faire comme si les variables Ti e?taient inde?pendantes et de loi uniforme pour le calcul
de certaines espe?rances.
Proposition 2.2.4 Soient T1 < и и и < Tn les instants d?occurrence d?un processus de
Poisson homoge?ne {Nt ; t ? 0} de parame?tre ? > 0. Soit U une variable ale?atoire de
loi uniforme sur l?intervalle (0, t). Soit g une fonction de la variable re?elle, inte?grable
sur (0, t). Alors
Z t
n
1
E[g(T1 ) . . . g(Tn ) | Nt = n] =
g(u)du = E[g(U )]n .
t 0
Soient Y1 , . . . , Yn des variables ale?atoires re?elles inde?pendantes et de me?me loi. Soit h
une fonction de deux variables re?elles telle que E[h(U, Y1 )] < ?. Alors
E[h(T1 , Y1 ) . . . h(Tn , Yn ) | Nt = n] = E[h(U, Y1 )]n .
De?monstration. Nous de?montrons la premie?re affirmation. La seconde est laisse?e
en exercice. La de?monstration repose sur la remarque que
?(t1 , . . . , tn ) = g(t1 ) и и и g(tn )
est invariante par la permutation des coordonne?es. De plus, nous avons
Z
n!
E[g(T1 ) . . . g(Tn ) | Nt = n] = n
g(t1 ) и и и g(tn )dt1 и и и dtn .
t t1 ?иии?tn ?t
2.2. PROCESSUS DE POISSON
35
Ainsi, en conside?rant toutes les permutations, nous avons
Z
1 X
E[g(T1 ) . . . g(Tn ) | Nt = n] = n
g(t1 ) и и и g(tn )dt1 и и и dtn .
t ? t?(1) ?иии?t?(n) ?t
Cela revient a? inte?grer sur (0, t)n
1
E[g(T1 ) . . . g(Tn ) | Nt = n] = n
t
Z
g(t1 ) и и и g(tn )dt1 и и и dtn .
(0,t)n
et le re?sultat de?coule du the?ore?me de Fubini.
Nous terminons ce paragraphe par un exemple ou? le conditionnement intervient de
manie?re utile. Cet exemple est repre?sentatif d?un proble?me de stock. Il pourrait tout
aussi bien concerner un organisme biologique.
Exemple 2.2.3 Une organisation non-gouvernementale dispose d?une ressource initiale u ? 0. Des subventions arrivent a? cet organisme selon un processus de Poisson
{Nt ; t ? 0} d?intensite? ? > 0. La ne subvention augmente les ressources dont dispose
l?organisme d?une variable ale?atoire Yn (n ? 1) de fonction de re?partition F . les variables (Yn ) sont inde?pendantes. Les ressources sont disperse?es par l?organisme a? une
vitesse qui est proportionnelle a? leur quantite? selon un coefficient de proportionnalite?
?. Conditionnellement a? l?absence d?arrive?e de subventions dans l?intervalle [0, t], la
quantite? de ressources Rt dont dispose l?organisme au temps t est solution de l?e?quation
R0 = ??R
avec la condition initiale R0 = u. Nous cherchons a? de?terminer la loi de la variable Rt ,
et plus pre?cisement sa transforme?e de Laplace, pour en de?duire par exemple l?espe?rance
de Rt .
Solution. L?inte?gration de l?e?quation diffe?rentielle qui dirige le comportement de Rt
conduit au re?sultat suivant
?t ? 0 ,
Rt =
Nt
X
Yk exp(??(t ? Tk ))
k=0
ou? l?on a pose? Y0 = u et note? Tk l?instant d?arrive?e de la k e occurrence du processus de Poisson. Afin de donner l?expression de la transforme?e de Laplace de Rt , nous
conside?rons que les arrive?es du processus de Poisson sont inde?pendantes et distribue?es
de manie?re uniforme dans [0, t] conditionnellement a? Nt = n. Ainsi, d?apre?s la proposition pre?ce?dente,
?s > 0 , E[e?s
PNt
k=0
Yk exp(??(t?Tk ))
| Nt = n] = e?su exp(??t) E[e?sY1 exp(??(t?U )) ]n
36
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
ou? U est une variable de loi uniforme sur [0, t]. En inte?grant suivant les valeurs possibles
de Nt , on obtient
Z t
??x
??t
1 ? LY1 (se )dx .
?s, t ? 0 , LRt (s) = exp ?sue
??
0
Si l?on de?rive en 0 (sous le signe somme), on obtient
Z t
?
??t
E[Rt ] = ue
??
e??x L0Y1 (0)dx = ue??t + (1 ? e??t )E[Y1 ] .
?
0
Nous voyons que la valeur moyenne des ressources disponibles au temps t converge
rapidement vers une constante
lim E[Rt ] =
t??
2.2.6
?
E[Y1 ].
?
Exercices
Exercice 16. Soient {Nt ; t ? 0} et {Mt ; t ? 0} deux processus de Poisson
inde?pendants de parame?tres respectifs ? > 0 et х > 0. Pour tout t ? 0, on pose
L t = Nt + M t .
Montrer que {Lt ; t ? 0} est un processus de Poisson de parame?tre ? + х.
Solution abre?ge?e. Utiliser la de?finition du processus de Poisson comme un processus
de renouvellement. En superposant les deux processus, la loi de la premie?re occurrence
Z1 est e?gale a? la loi du minimum des temps de premie?re occurence de chacun des deux
processus
Z1 = min{X1 , Y1 }.
Puisque X1 suit la loi E(?) et Y1 suit la loi E(х), nous obtenons que Z1 suit la loi E(?+х).
L?inde?pendance des variables inter-occurrences provient de l?absence de me?moire de la
loi exponentielle (inde?pendance du passe? et temps re?siduel de loi exponentielle).
Exercice 17. Sachant qu?une occurrence exactement d?un processus de Poisson de
parame?tre ? a eu lieu dans l?intervalle de temps (0, t), montrer que la loi de l?instant
de cette occurrence dans l?intervalle est la loi U(0, t).
Solution abre?ge?e.
Soit x ? t, nous avons
P(X1 ? x | Nt = 1) =
P(Nx = 1 ; Nt ? Nx = 0)
.
P(Nt = 1)
2.2. PROCESSUS DE POISSON
37
En utilisant l?inde?pendance des accroissements, nous avons
P(X1 ? x | Nt = 1) =
?x e??(x+t?x)
x
=
??t
?t
e
t
Exercice 18. Soient {Nt1 ; t ? 0} et {Nt2 ; t ? 0} deux processus de Poisson de
2
les instants respectifs des ne
parame?tres respectifs ?1 > 0 et ?2 > 0. On note Sn1 et Sm
2
e
1
et m occurrences des processus {Nt ; t ? 0} et {Nt ; t ? 0}.
a) On suppose n = m = 1. Montrer que
P(S21 < S12 ) =
?1
.
?1 + ? 2
b) On suppose n = 2 et m = 1. En conditionnant a? l?e?ve?nement (S21 < S12 ),
montrer que
?1
P(S11 < S12 ) = (
)2 .
?1 + ?2
c) Montrer, pour tout n, m > 0, que
P(Sn1
<
2
Sm
)
=
n+m?1
X
k
Cn+m?1
(
k=n
?1
?2
)k (
)n+m?1?k .
?1 + ? 2 ?1 + ? 2
(superposer les processus N1 et N2 )
Exercice 19. Soit {Nt ; t ? 0} un processus de Poisson de parame?tre ? > 0 et n un
entier positif. Montrer, pour tout 0 ? s < t et tout 0 ? k ? n, que
s
s
P(Ns = k|Nt = n) = Cnk ( )k (1 ? )n?k .
t
t
En d?autres termes, la loi conditionnelle de la variable Ns sachant Nt = n est la loi
binomiale de parame?tres n et s/t.
Exercice 20. Au football, on suppose que les buts sont marque?s aux instants d?un
processus de Poisson (Nt ) de parame?tre ? > 0. Dans ce proble?me, nous nous inte?ressons
aux parties qui se sont termine?es avec 2 buts marque?s. La dure?e d?une partie est une
constante note?e T .
1) Soit 0 < s < t < T et CT = [0, T ]О[0, T ] le carre? de cote? T . On de?finit l?ensemble
D(s, t) = {(t1 , t2 ) ? CT , t1 ? s, t2 ? t, t1 ? t2 }.
Dessiner cet ensemble.
38
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
2) On conside?re deux variables X et Y inde?pendantes, de loi uniforme sur (0, T ) et
le couple (X 0 , Y 0 ) construit en rangeant X et Y dans l?ordre croissant. A? l?aide
d?un raisonnement ge?ome?trique, montrer que
?0 < s < t < T,
P(X 0 ? s; Y 0 ? t) = 2 P((X, Y ) ? D(s, t)).
En de?duire que la fonction de re?partition du couple (X 0 , Y 0 ) ve?rifie
?0 < s < t < T,
P(X 0 ? s; Y 0 ? t) =
2st ? s2
.
T2
3) Soit T1 l?instant du premier but et T2 l?instant du second. Justifier l?e?galite?
suivante
?0 < s < t < T,
P(T1 ? s; T2 ? t) = P(Ns ? 1; Nt = 2 | NT = 2).
4) En utilisant l?inde?pendance des accroissements du processus de Poisson, montrer
que
2st ? s2
.
?0 < s < t < T, P(T1 ? s; T2 ? t) =
T2
(On prendra soin de bien distinguer deux cas, selon que deux buts sont marque?s
a? l?instant s ou non.)
5) Comment simuler les deux instants de but a? l?aide d?un ge?ne?rateur ale?atoire de
loi uniforme ?
Exercice 21. Soit ?(u) une fonction positive, de?finie sur R+ , inte?grable sur tout
intervalle de la forme (0, t), t > 0. On pose
Z
?t ? 0,
t
?(u)du.
?(t) =
0
On dit que le processus de comptage (Nt ) est un processus de Poisson non-homoge?ne
si
i) (Nt ) est a? accroissements inde?pendants ;
ii) Nt ? Ns suit la loi de Poisson de parame?tre ?(t) ? ?(s), pour tout couple (s, t)
tel que s < t.
1) Soit T1 l?instant de premie?re occurrence du processus. Calculer la probabilite? de
l?e?ve?nement (T1 > t). En de?duire la loi de T1 .
2) On note T2 l?instant de deuxie?me occurrence du processus. Exprimer l?e?ve?nement
As,t = (T1 > s ; T2 > t),
0 < s < t,
en fonction des accroissements Ns et (Nt ? Ns ). Calculer la probabilite?
G(s, t) = P(As,t ).
2.2. PROCESSUS DE POISSON
39
3) En de?duire l?expression de la densite? conjointe du couple (T1 , T2 )
?0 < t1 < t2 ,
f (t1 , t2 ) = ?(t1 )?(t2 )e??(t2 ) .
(Indication : On pourra utiliser la relation f = ?G/?s?t.)
4) Soit X1 = T1 et X2 = T2 ?T1 . De?terminer la densite? conjointe du couple (X1 , X2 ).
Les variables sont-elles inde?pendantes ?
Exercice 22. Mickey Markov rend visite a? son ami Khalid qui est rentre? au bled pour
aider sa me?me? Aziza a? garder les che?vres quelque part entre Marrakech et Agadir. Depuis peu, il y a une belle quatre-voies qui coupe le pays et cela oblige Aziza et Khalid a?
faire un de?tour de 10 km pour mener les che?vres au point d?eau le plus proche. Traverser la route avec tout le troupeau prend environ 3 minutes et les ve?hicules, bien visibles
de tre?s loin, passent en moyenne toutes les minutes. Combien de temps en moyenne
va durer l?attente avant de pouvoir faire traverser tout le troupeau ? Application : Loi
uniforme.
Exercice 23. Mickey Markov est dans le Larzac au concert de soutien de Jose? Bove?.
Mais il fait tre?s chaud et le bar ne sert que la piquette bio d?un petit producteur du
Languedoc. Mickey va se de?salte?rer en moyenne toutes les 30 minutes. Cela a pour effet
d?accro??tre son taux d?e?brie?te? de 0.05 g (d?alcool dans le sang). L?alcool est de?grade? de
manie?re constante a? raison de 0.1 g par heure. Au de?but, Mickey est a? jeun. Quel est
son taux moyen d?e?brie?te? apre?s 4h, 8h ?
Exercice 24. L?intervalle (0, 1) est muni de sa tribu de Borel. Soit 0 < t < 1 et It
un sous-ensemble mesurable de (0, 1) de mesure de Lebesgue
?(It ) = t .
Soit N une variable ale?atoire de loi de Poisson de parame?tre e?gal a? 1.0. On choisit
ale?atoirement de manie?re uniforme et inde?pendante N points de l?intervalle (0, 1). On
note Nt le nombre de points appartenant a? It .
a) Soit n ? 0. Quelle est la loi conditionnelle de la variable Nt sachant que
N = n ? En de?duire que
E[Nt |N = n] = nt .
b)
c)
d)
e)
Calculer E[Nt ].
De?terminer la loi de la variable Nt .
Montrer que Cov(Nt , N ) = t.
On suppose que T est une variable ale?atoire inde?pendante de N et du tirage
des points dans (0, 1) admettant pour densite?
f (t) = (e ? 1)?1 et 1 (0,1) (t) .
De?terminer la loi de la variable ale?atoire NT . Calculer E[NT ].
40
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Exercice 25. Soit {Nt ; t ? 0} un processus de Poisson de parame?tre ? > 0. On suppose que chaque occurrence de ce processus est susceptible d?e?tre classe?e selon k types.
On suppose, de plus, que la probabilite? pour qu?une
P occurrence soit de type i de?pend
de l?instant t de cette occurrence et vaut pi (t) ( ki=1 pi (t) = 1) inde?pendamment des
autres occurrences.
a) Soit Nti , i = 1, . . . , k le nombre d?occurrences de type i survenues a? l?instant
t > 0. De?monter que, conditionnellement a? l?e?ve?nement (Nt = n), n > 0, la
probabilite? qu?il y ait une occurrence de type i dans l?intervalle [0, t] est
Z
1 t
pi =
pi (s)ds.
t 0
b) Calculer la probabilite? conditionnelle
P(Nt1
=
n1 , . . . , Ntk
= n k | Nt =
k
X
ni = n).
i=1
c) De?terminer la loi du n-uplet (Nt1 , . . . , Ntk ) pour tout t > 0. En de?duire que
les variables Nti sont des variables de loi de Poisson de moyennes respectives
e?gales a?
Z
t
E[Nti ] = ?
pi (s)ds,
?i = 1, . . . , k.
0
Exercice 26.
Transforme?e de Laplace du processus de Poisson.
On appelle transforme?e de Laplace d?un processus de comptage {Nt ; t ? 0} sur
IR+ , la fonctionnelle ? de?finie sur le co?ne C + des fonctions mesurables re?elles positives
sur (IR+ , B(IR+ )) pour tout f ? C + par :
?(f ) = E[e?
R?
0
f (t)dNt
].
a) De?montrer que la transforme?e de Laplace du processus de Poisson homoge?ne
d?intensite? ? > 0 vaut pour tout f ? C + :
Z ?
?f (t)
?(f ) = exp ??
(1 ? e
)dt .
0
On prouvera tout d?abord ce re?sultat pour l?indicatrice d?un sous ensemble
borne? de IR+ puis on utilisera le fait que f est limite croissante de combinaisons line?aires positives de telles fonctions.
b) Un organisme de planification de?sire mode?liser le temps ne?cessaire a? une
de?couverte ou a? la production d?un re?sultat par une e?quipe de recherche
dans un domaine donne?, par une variable T appele?e temps d?innovation.
On suppose que :
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS
41
i) l?e?quipe acquiert des connaissances nouvelles qui surviennent au cours
du temps selon un processus de Poisson homoge?ne {Nt ; t ? 0} d?intensite? ? > 0.
ii) Conditionnellement a? ce processus, le taux instantanne? d?innovation
est, a? chaque instant t, proportionnel au nombre de connaissances
acquises jusqu?a? cet instant, c?est a? dire pour tout t ? 0 :
1
P (t ? T ? t + ?t | T > t; {Nu ; 0 ? u ? t})
?t?0 ?t
?{Nu ;0?u?t} (t) := lim
{Nu ;0?u?t}
:=
fT
(t)
{N ;0?u?t}
1 ? FT u
= ?Nt , ? > 0.
(t)
1. De?montrer
?t ? 0, 1 ?
{N ;0?u?t}
FT u
(t)
Z
t
?Nu du).
= exp(?
0
2. De?montrer
Z t
Z
?Nu du =
0
?
g(s)dNs ,
g(s) = ?1[0,t] (s)(t ? s).
0
3. En de?duire
e??t
FT (t) = 1 ? exp ??(t ? (1 ?
) ;
?
t ? 0.
4. Calculer la densite? de T .
5. De?terminer le taux d?innovation ?(t), t ? 0. Tracer sa courbe repre?sentative
et interpre?ter.
Pour toute fonction de?rivable de IR+ dans IR, l?inte?grale stochastique prise par
rapport au processus de Poisson est de?finie par
Z b
Z b
f (t)dNt = f (b)Nb ? f (a)Na ?
Nt f 0 (t)dt.
a
2.3
a
Equations de renouvellement et applications
Cette section a? caracte?re the?orique a pour objectif d?e?tablir les principaux re?sultats
lie?s au comportement asymptotique des processus e?tudie?s. Il s?agit pour l?essentiel de
re?sultats d?analyse portant sur une famille d?e?quations inte?grales connues sous le nom
d?e?quations de renouvellement.
42
2.3.1
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
La fonction de renouvellement comme solution d?une
e?quation fonctionnelle
Une fonction croissante G de?finie sur IR+ continue a? droite et telle que G(0) = 0
induit une mesure positive sur IR+ muni de sa tribu de Borel. Une telle mesure se note
? et se de?finit gra?ce aux valeurs prises sur les intervalles de IR+
?0 ? a ? b ,
?((a, b]) = G(b) ? G(a)
On dit parfois que ? est une mesure de Lebesgue-Stieljes. Une fonction de re?partition
fournit un exemple standard d?une telle mesure. Dans le paragraphe pre?ce?dent, nous
avons de?montre? que la fonction de renouvellement M fournissait aussi un exemple de
mesure de Lebesgue-Stieljes (mais, dans ce cas pre?cis, la mesure n?est pas borne?e).
L?inte?grale se note
Z
Z ?
f d? =
f (x)dG(x) .
IR+
0
L?un des objectifs de la the?orie du renouvellement est de de?crire le comportement
asymptotique de la fonction de renouvellement M et plus ge?ne?ralement le comportement asymptotique du processus lui-me?me. Pour atteindre cet objectif, nous avons
besoin de montrer que M est solution d?une certaine e?quation fonctionnelle.
Proposition 2.3.1 On conside?re un processus de renouvellement de loi F et de fonction de renouvellement M . Alors,
Z t
?t ? 0 , M (t) = F (t) +
M (t ? x)dF (x) .
0
De?monstration. Il s?agit d?utiliser le ?renouvellement? en conditionnant a? l?instant
de premie?re occurrence du processus. Soit t > 0, nous avons
M (t) = E[E[Nt |X1 ]] .
Or, nous avons
E[Nt |X1 = x] =
0
1 + M (t ? x)
si t < x ,
si x ? t .
Finalement, en inte?grant, nous obtenons
Z ?
Z t
M (t) =
E[Nt |X1 = x]dF (x) =
(1 + M (t ? x))dF (x) .
0
0
Cette e?quation, dite de renouvellement, posse?de des proprie?te?s que nous allons de?tailler
dans les paragraphes suivants.
Commentaires.
En prenant la transforme?e de Laplace, l?e?quation
Z t
?t ? 0 , M (t) = F (t) +
M (t ? x)dF (x)
0
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS
43
devient
?s > 0 ,
LM (s) = LF (s) + LM (s)(sLF (s)).
Ainsi, nous retrouvons de manie?re simple la transforme?e de Laplace de la fonction de
renouvellement
LF (s)
LM (s) =
.
1 ? sLF (s)
2.3.2
Solution des e?quations de renouvellement
Soit F une fonction de re?partition de?finie sur IR+ et telle que F (0) = 0. On appelle
e?quation de renouvellement associe?e a? F , toute e?quation inte?grale de la forme
Z t
?t ? 0 , A(t) = a(t) +
A(t ? x)dF (x)
(2.3.4)
0
ou? A est un fonction inconnue et a est une fonction de?finie sur IR+ donne?e.
Commentaires. Bien entendu, la fonction de renouvellement est solution d?une
e?quation de renouvellement. Dans ce cas pre?cis, nous avons a(t) = F (t) pour tout
t ? 0.
Comme dans le paragraphe pre?ce?dent, nous utilisons les notations suivantes
?t ? 0 ,
F1 (t) = F (t)
et, de proche en proche, pour tout n
Z
?t ? 0 ,
t
Fn?1 (t ? x)dF (x) .
Fn (x) =
0
Le the?ore?me suivant est un re?sultat d?analyse qui nous sera utile par la suite.
The?ore?me 2.3.1 Soit a une fonction de?finie sur IR+ et borne?e. Alors, l?e?quation de
renouvellement associe?e a? F
Z t
?t ? 0 , A(t) = a(t) +
A(t ? x)dF (x)
0
admet une solution unique, borne?e sur tout intervalle fini, donne?e par
Z t
?t ? 0 , A(t) = a(t) +
a(t ? x)dM (x)
0
ou?
?t ? 0 ,
M (t) =
?
X
n=1
Fn (t) .
44
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
De?monstration.
Utiliser la transforme?e de Laplace.
Commentaires. Le re?sultat est imme?diat pour la fonction de renouvellement. Nous
pouvons le ve?rifier a? l?aide de l?inte?gration par parties, ou bien de la transforme?e de
Laplace. En effet, l?e?quation
Z t
?t ? 0 , M (t) = F (t) +
M (t ? x)dF (x)
0
se transforme en
?s > 0 ,
LM (s) = LF (s) + LM (s)(sLF (s)) = LF (s) + (sLM (s))LF (s).
Cette dernie?re factorisation montre que
Z
?t ? 0 ,
t
F (t ? x)dM (x).
M (t) = F (t) +
0
Le re?sultat posse?de de nombreuses implications pour les processus de renouvellement.
Notons F la fonction de re?partition des dure?es inter-occurrences. Rappelons que, pour
tout entier n, Tn est l?instant de ne occurrence du processus.
Proposition 2.3.2 On conside?re un processus
de renouvellement de fonction de re?R?
partition F et on suppose que E[X1 ] = 0 xdF (x) < ?, alors
E[TNt +1 ] = E[X1 ](1 + E[Nt ]) .
De?monstration.
Posons
A(t) = E[TNt +1 ]
et conditionnons a? la valeur de la variable X1 . Puisque
x
si t < x ,
E[TNt +1 |X1 = x] =
x + A(t ? x) si x ? t ,
nous obtenons, apre?s inte?gration,
Z t
Z
A(t) =
x + A(t ? x)dF (x) +
0
?
Z
A(t ? x)dF (x) .
xdF (x) = E[X1 ] +
t
t
0
Ainsi, d?apre?s le the?ore?me 2.3.1,
Z
A(t) = E[X1 ] + E[X1 ]
t
dM (x) = E[X1 ](1 + M (t)) .
0
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS
Commentaires.
45
A? l?instant t, nous avons
TNt +1 = X1 + . . . + XNt +1 .
En moyenne, l?instant de la prochaine occurrence est e?gal a? M (t) + 1 fois la moyenne
d?une dure?e inter-occurrence. Nous aurions obtenu un re?sultat similaire si les variables
(Xi ) e?taient inde?pendantes de Nt (formule de Wald). Cette condition n?est bien entendu
pas ve?rifie?e. Toutefois, Nt + 1 est ce que l?on appelle un temps d?arre?t et la formule de
Wald se ge?ne?ralise aux temps d?arre?t (voir l?exercice suivant).
Exercice 27. Soit (Xn ) une suite de variables ale?atoires inde?pendantes de me?me
loi et telle que E[X1 ] < ?. On dit que N est un temps d?arre?t pour la suite (Xn ), si
l?e?ve?nement (N ? n) ne de?pend que de X1 , . . . , Xn . Soit {Nt ; t ? 0} un processus de
renouvellement de loi F
a) Montrer que N = Nt + 1 est un temps d?arre?t.
b) Montrer que Nt n?est pas un temps d?arre?t.
c) Supposons que E[N ] < ?. De?montrer la formule de Wald
E[
N
X
Xi ] = E[X1 ]E[N ].
i=1
d) En de?duire une nouvelle de?monstration du re?sultat
E[TNt +1 ] = E[X1 ](1 + M (t)).
Solution abre?ge?e.
Nous avons
SN =
N
X
Xi =
i=1
?
X
Xi 1 (N ?i) .
i=1
Puisque N est un temps d?arre?t, l?e?ve?nement (N ? i?1) est inde?pendant de Xi , Xi+1 , . . ..
Or, nous avons
?
X
E[SN ] =
E[Xi 1 (N ?i) ]
i=1
et
E[Xi 1 (N ?i) ] = E[E[Xi 1 (N ?i) |Xi , Xi+1 , . . .]] = E[Xi E[11(N ?i) ]].
On en de?duit que
E[SN ] =
?
X
i=1
E[X1 ]P(N ? i) = E[N ]E[X1 ].
46
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
2.3.3
Exemples et exercices
Nous traitons quelques exemples significatifs, e?nonce?s sous forme d?exercice.
Exercice 28. Cre?ation d?entreprise.
Une socie?te? de service est sollicite?e pour des contrats de dure?es ale?atoires. Nous
supposons que les instants de sollicitation (Tn ) forment un processus de Poisson de
parame?tre ? > 0. Par ailleurs, les dure?es des contrats (Cn ) forment un processus de
renouvellement de loi F . Toute sollicitation tombant au cours d?un contrat est perdue.
Nous nous inte?ressons a? l?instant T ou? pour la premie?re fois un contrat est perdu. On
note
? V (t) la probabilite? qu?aucune sollicitation ne soit perdue entre 0 et t, sachant
qu?un contrat commence a? l?instant 0 ;
? U (t) la probabilite? qu?aucune sollicitation ne soit perdue entre 0 et t.
a) Impliquer V dans une e?quation fonctionnelle similaire a? une e?quation de
renouvellement. En de?duire la transforme?e de Laplace de V .
b) Calculer la transforme?e de Laplace de U .
c) En de?duire l?espe?rance de T .
d) Application : la loi commune des Ci est une loi exponentielle de parame?tre
х > 0.
e) De?montrer qu?en choisissant une constant R ade?quate, la fonction W (t) =
eRt V (t) est solution d?une e?quation de renouvellement. Utiliser les the?ore?me
de renouvellement de la section suivante pour en de?duire le comportement
asymptotique de V (t).
Solution. Pour montrer que V est solution d?une e?quation fonctionnelle, nous conditionnons a? l?instant de premie?re sollicitation
1
si t < x ,
T1 =x
V
(t) =
V (t ? x) P(C1 < x) si x ? t .
Ainsi, V est solution de l?e?quation
??t
?t ? 0 ,
V (t) = e
Z
+
t
V (t ? x)F (x)?e??x dx .
0
La transforme?e de Laplace de V est donc solution de
?s > 0 ,
LV (s) =
1
+ ?LV (s)LF (s + ?) .
s+?
Apre?s re?solution, nous obtenons
LV (s) =
1
.
(? + s)(1 ? ?LF (s + ?))
Conside?rons le temps T correspondant au premier contrat perdu. Nous avons
?t ? 0 ,
P(T > t) = V (t) .
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS
Ainsi
47
?
Z
V (t)dt = LV (0)
E[T ] =
0
soit
1
1
.
? 1 ? ?LF (?)
E[T ] =
La fonction U n?est pas solution d?une e?quation de renouvellement. Toutefois en
conditionnant comme pre?ce?demment, nous obtenons
1
si t < x ,
T1 =x
U
(t) =
V (t ? x) si x ? t .
En inte?grant, nous obtenons
??t
?t ? 0 ,
U (t) = e
Z
+
t
V (t ? x)?e??x dx .
0
Ainsi la transforme?e de Laplace de U est
?s > 0 ,
LU (s) =
?
1
+
LV (s) .
s+? s+?
Supposons que la socie?te? de?marre sans contrat et conside?rons le temps T correspondant
au premier contrat perdu. Nous avons
?t ? 0 ,
Ainsi
P(T > t) = U (t) .
Z
?
U (t)dt = LU (0)
E[T ] =
0
soit
E[T ] =
1
1
(1 +
).
?
1 ? ?LF (?)
Si la loi commune des Ci est une loi exponentielle de parame?tre х > 0, alors
?s > 0 ,
sLF (s) =
et
E[T ] =
х
х+s
2
х
+ 2 .
? ?
Exercice 29. Compteur d?impulsion.
Un compteur d?impulsions peut s?ave?rer
imparfait s?il ne peut enregistrer toutes les impulsions auxquelles il est soumis (une
impulsion bloque en ge?ne?ral le compteur pendant un temps ale?atoire). On doit donc
distinguer le processus des impulsions effectives du processus des impulsions enregistre?es et obtenir des renseignements sur le premier a? partir du second.
48
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Soit (Xi )i?1 le processus des dure?es se?parant les impulsions effectives. On suppose
qu?il s?agit d?un processus de renouvellement de loi F . On suppose de plus que la
suite des dure?es pendant lesquelles le compteur reste bloque? forme un processus de
renouvellement (Yi )i?1 dont la loi a pour fonction de re?partition G. Ce dernier processus
est inde?pendant du processus des impulsions effectives. Nous souhaitons de?crire le
processus (Zi )i?1 des temps d?attente entre les impulsions enregistre?es. On suppose
ensuite que (Xi )i?1 est une processus de Poisson homoge?ne de parame?tre ? > 0.
Solution abre?ge?e.
Nous avons
Z1 = Y1 + ?Y1 = TNY1 +1
ou? Tn correspond a? l?instant d?arrive?e de la ne arrive?e effective. Nous avons donc
Z ?
Z z
?z ? 0 , P(Z1 ? z) =
P(Y1 + ?Y1 ? z | Y1 = y)dG(y) =
F?y (z ? y)dG(y) .
0
0
Si le processus d?arrive?e est poissonnien, d?intensite? ?, alors
?t ? 0 ,
F?y (t) = 1 ? e??t .
Ainsi, nous trouvons
Z
?z ? 0 ,
P(Z1 ? z) =
z
G(z ? y)?e??y dy .
0
On peut terminer le calcul de manie?re explicite lorsque G est connue en utilisant par
exemple la transforme?e de Laplace.
2.3.4
Le the?ore?me de renouvellement
Le the?ore?me de renouvellement pre?cise le comportement asymptotique de la solution
d?une e?quation de renouvellement
Z t
?t ? 0 , A(t) = a(t) +
A(t ? x)dF (x)
0
lorsque la fonction a est borne?e et inte?grable pour la mesure de Lebesgue sur IR+ .
Il convient de noter que l?e?quation ve?rifie?e par la fonction de renouvellement M ne
posse?de pas cette proprie?te?.
The?ore?me 2.3.2 The?ore?me de renouvellement.
tone sur IR+ , telle que
Z ?
|a(t)|dt < ? .
Soit a une fonction mono-
0
Soit F une fonction de re?partition continue telle que F (0) = 0. Soit
Z ?
х=
xdF (x) .
0
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS
49
Alors la solution A de l?e?quation de renouvellement (Eq. 2.3.4, ci-dessus) est telle que
1 R?
a(t)dt si х < ? ,
х 0
lim A(t) =
t??
0
si х = ?.
De?monstration.
Nous admettons ce re?sultat.
Nous donnons ci-dessous quelques applications de ce the?ore?me ayant pour objectif de
de?terminer les loi limites des temps courants d?un processus de renouvellement (temps
re?siduel, a?ge courant, temps total).
Exemple 2.3.1 On conside?re un processus de renouvellement de fonction de re?partition
F . On suppose que l?espe?rance E[X1 ] = х est finie. Son temps re?siduel courant est
?t ? 0 ,
?t = TNt +1 ? t .
Fixons y > 0 et posons
?t ? 0 ,
Ay (t) = P(?t > y) .
Nous souhaitons montrer que ?t converge en loi lorsque t tend vers l?infini vers la loi
Z
1 y
F?? (y) =
P(X1 > t)dt.
х 0
Solution.
En conditionnant a? la premie?re occurrence du processus, nous obtenons
?
si x > t + y ,
? 1
0
si t < x ? t + y ,
P(?t > y | X1 = x) =
?
Ay (t ? x) si 0 < x ? t.
apre?s inte?gration, nous avons
Z
?
P(?t > y | X1 = x)dF (x)
Z t
Z ?
=
Ay (t ? x)dF (x) +
dF (x)
Ay (t) =
0
0
t+y
Z
t
Ay (t ? x)dF (x)
= ay (t) +
0
La fonction
?t ? 0 ,
ay (t) = 1 ? F (t + y)
est monotone, positive. On peut aussi ve?rifier que cette fonction est inte?grable
Z ?
Z ?
1 ? F (t + y)dt =
P(X1 > t)dt < E[X1 ] < ? .
0
y
50
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Les hypothe?ses du the?ore?me de renouvellement sont satisfaites. L?application de ce
the?ore?me conduit au re?sultat suivant
Z
1 ?
lim Ay (t) = lim 1 ? F?t (y) =
ay (t)dt
t??
t??
х 0
Une translation a? l?origine permet de formuler l?e?quation pre?ce?dente de la manie?re
suivante
Z
1 y
F?? (y) =
P(X1 > t)dt.
х 0
Commentaires. Pour illustrer ce re?sultat, conside?rons le processus de Poisson de
parame?tre ?. Nous avons
F (y) = 1 ? e??y ,
?y ? 0.
Ainsi, le re?sultat pre?ce?dent est e?gal a?
Z y
F?? (y) = ?
e??t dt = 1 ? e??y ,
?y ? 0.
0
Nous retrouvons ainsi un re?sultat connu (voir la section concernant le processus de
Poisson)
Exercice 30. De?terminer la loi asymptotique du temps re?siduel pour le processus de
renouvellement de loi U(0, 1).
Solution abre?ge?e.
Nous avons E[X1 ] = 1/2 et pour tout y ? [0, 1],
Z y
F?? (y) = 2
(1 ? t)dt = 2y ? y 2 .
0
Proposition 2.3.3 Petit the?ore?me de renouvellement.
On conside?re un prode renouvellement de fonction de re?partition F et on suppose que E[X1 ] =
Rcessus
?
xdF
(x) < ?. Alors,
0
M (t)
1
lim
=
.
t??
t
E[X1 ]
Intuition.
Nous avons d?apre?s l?identite? de Wald
E[TNt +1 ]
1 + M (t)
= E[X1 ]
.
t
t
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS
51
De plus, d?apre?s le re?sultat pre?ce?dent,
E[TNt +1 ] = t + E[?t ] ? t + E[?? ]
Puisque E[?? ] < ?, le re?sultat est imme?diat.
De?monstration. Nous donnons une de?monstration directe de ce re?sultat. Technique,
elle peut e?tre omise en premie?re lecture. Pour de?montrer l?e?galite? pre?ce?dente, nous
proce?dons en deux e?tapes.
Etape 1.
La relation
TNt +1 > t
est toujours ve?rifie?e. D?apre?s la proposition 2.3.2, nous avons
?t ? 0 ,
E[X1 ](1 + M (t)) > t .
Ceci implique
M (t)
1
1
>
?
t
E[X1 ] t
?t ? 0 ,
et
lim inf
t??
M (t)
1
?
.
t
E[X1 ]
Etape 2.
Il s?agit de de?montrer que l?on peut ?inverser? l?ine?galite? pre?ce?dente. Pour
ce faire, choisissons un re?el ? > 0 et posons
?i ? 1 ,
Xi? = min(?, Xi ) .
Conside?rons maintenant le processus de renouvellement associe? la fonction de re?partition
des Xi? . Nous notons M ? la fonction de renouvellement correspondante. Puisque
Xi? ? ?,
nous avons
M (t) ? M ? (t)
et
E[TN?t? +1 ] ? t + ? .
Ceci implique que
E[X1? ](1 + M (t)) ? t + ?
et
M (t)
1
1
?
?
+ (
? 1) .
?
t
E[X1 ] t E[X1? ]
Finalement, puisque ? peut e?tre arbitrairement grand
lim sup
t??
M (t)
1
1
? lim
=
.
?
???
t
E[X1 ]
E[X1 ]
52
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Les ine?galite?s obtenues aux e?tapes 1 et 2 montrent que la limite existe et que
lim
t??
M (t)
1
=
.
t
E[X1 ]
Commentaires. Ce re?sultat traduit un comportement asymptotique poissonnien
des processus de renouvellement. Lorsque t est grand, le nombre moyen d?occurrences
par unite? de temps est constant et e?gal, comme pour le processus de Poisson, a? l?inverse
de l?espe?rance des dure?es inter-occurrences.
Nous terminons ce paragraphe en pre?sentant quelques exercices supple?mentaires en
application des re?sultats de la the?orie du renouvellement.
Exercice 31. Loi limite de l?a?ge courant.
On conside?re un processus de
renouvellement de fonction de re?partition F . On suppose que l?espe?rance E[X1 ] est
finie. L?a?ge courant est
?t ? 0 , ?t = t ? TNt .
a) Montrer l?identite? des e?ve?nements
?x, y ? 0 ,
(?t > x; ?t > y) = (?t?y > x + y)
b) En de?duire que la loi limite de l?a?ge courant est identique a? la loi limite du
temps re?siduel.
Exercice 32. Loi limite du temps courant.
On note ?t le temps courant d?un
processus de renouvellement de fonction de re?partition F , de moyenne х > 0 et on pose
?t ? 0 ,
Kz (t) = P(?t > z) .
a) Montrer que Kz est solution d?une e?quation de renouvellement.
b) En de?duire
Z
Z
1 ?
1 ?
1 ? F (max{z, t}) dt =
xdF (x).
lim Kz (t) =
t??
х 0
х z
c) Retrouver le fait que ?? a me?me loi que X1 + X2 dans le processus de
Poisson.
d) A l?aide de l?ine?galite? de Schwarz, de?montrer
E[ lim ?t ] ? х.
t??
Exercice 33. Soit (Xn )n?1 un processus de renouvellement de fonction de re?partition
F . On suppose, de plus, E[X1 ] = х et ? 2 [X1 ] = ? 2 finies. On note ?t le temps re?siduel
au temps t associe? a? ce processus et U (t) = E[?t ].
2.3. EQUATIONS DE RENOUVELLEMENT ET APPLICATIONS
53
a) Impliquer U (t) dans une e?quation de renouvellement.
b) Montrer que
? 2 + х2
lim U (t) =
.
t??
2х
Exercice 34. Pour un processus de renouvellement {Nt ; t ? 0} de fonction de
renouvellement M , de?montrer, a? l?aide d?une e?quation de renouvellement, que
Z t
1
2
E[Nt ] = 2 [M (t ? x) + ]dM (x).
2
0
Exercice 35.
Soit {Nt ; t ? 0} un processus de renouvellement de loi F , tel que
Z ?
xdF (x) < ? .
х=
0
De?montrer la loi forte des grands nombres
Nt
1
?
t
х
lorsque t ? ?.
Attention ce re?sultat n?implique pas le petit the?ore?me de renouvellement !
Solution abre?ge?e.
Utiliser que
TNt
t
TNt +1 Nt + 1
?
?
Nt
Nt
Nt + 1 Nt
Exercice 36. Soit U un nombre pris au hasard dans (0, 1). On de?finit Yt = c si
U > 1/t et Yt = c + t sinon. Montrer que Yt ? c ps et que E[Yt ] ? c + 1.
Exercice 37. Vie Communautaire.
Mickey Markov vit dans un F3 avec 5 autres
collocs, et personne n?aime se pre?ter aux ta?ches me?nage?res. Mickey et ses collocataires
se nourrissent exclusivement de pizzas, et le me?nage se re?sume a? descendre la poubelle
lorqu?elle contient n bo??tes de pizza vides. Il n?y a pas d?heure pour les pizzas, et on
suppose que chaque colloc porte une bo??te vide dans la poubelle selon un taux propre
e?gal a? ?i (i = 1, . . . , 6). C?est celui qui trouve la poubelle pleine qui doit la descendre.
De?terminer la loi du temps e?coule? avant que Mickey descende la poubelle pour la
premie?re fois. Calculer son espe?rance et sa variance. Calculer l?espe?rance conditionnelle
de ce temps sachant que Mickey n?a toujours pas descendu de poubelle au temps t.
Etudier le processus des instants de descente de poubelle de Mickey.
54
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Exercice 38. Sante? publique.
La re?publique centrale du Brouzoukstan vient de
conna??tre une terrible e?pide?mie de SRAGG (Syndro?me Re?tro Actif GuiliGuili) pendant
l?e?te?. Pour faire face et secourir la population de?sempare?e, le ministre de la Sante?
rentre des Bahamas et prend une mesure d?urgence. Un nume?ro de te?le?phone gratuit
est ouvert, et un expert compe?tent re?pond aux questions. Mickey Markov a de?croche?
l?emploi. Mickey dispose d?une (seule) ligne. Il peut seulement recevoir des appels. Un
appel est perdu s?il survient pendant qu?une conversation est en cours. On note
? Ti l?instant du ie appel ;
? Ci la dure?e de la ie conversation ;
? U (t) la probabilite? qu?aucun appel ne soit perdu entre 0 et t, sachant que la ligne
est libre a? l?instant 0.
On suppose que les appels (Tn ) se succe?dent selon un processus de Poisson de parame?tre
? > 0 et que les (Cn ) forment un processus de renouvellement de loi F . On note T
l?instant du premier appel perdu. Calculer la transforme?e de Laplace de la fonction de
re?partition FT et en de?duire l?espe?rance du temps d?attente du premier appel perdu
quand la ligne est libre a? l?instant 0. Application : la loi commune des Ci est une loi
exponentielle de parame?tre х > 0.
2.4
2.4.1
Applications
Sommes ale?atoires indexe?es par un processus de renouvellement
Dans de nombreuses situations pratiques, un cou?t est associe? a? chaque occurrence
d?un processus de renouvellement. Par exemple, la valeur d?une automobile de?cro??t
apre?s chaque choc sur la carrosserie. Dans ce cas, le processus de renouvellement correspond au processus des chocs. Pour une compagnie d?assurance, un montant est
associe? a? chaque occurrence de sinistre dont est victime un client. Le cou?t en question
peut aussi repre?senter la somme de?pense?e par un client dans un service. Dans ce dernier cas, il est positif. Formellement, nous conside?rons un processus de renouvellement
(Xn )n?1 de fonction de re?partition F et {Nt ; t ? 0} son processus de comptage. Une
variable ale?atoire Yn est associe?e a? la ne occurrence de ce processus (elle peut e?tre positive ou ne?gative et elle de?pend e?ventuellement de Xn ). On suppose que les variables
ale?atoires (Yn )n?1 sont inde?pendantes et de me?me loi. Le cou?t total au temps t > 0 est
une variable ale?atoire note?e C(t) de?finie par
C(t) =
Nt
X
Yn .
n=1
Pour des raisons e?videntes de pre?vision, il est tre?s important de pouvoir contro?ler
le cou?t total. La pre?vision permet par exemple de de?terminer la date optimale pour
renouveller un mate?riel (l?automobile de l?exemple pre?ce?demment cite?), de fixer le taux
de cotisation pour l?assurance, de ge?rer des stocks pour un centre commercial etc.
2.4. APPLICATIONS
55
En ge?ne?ral, il est extre?mement difficile de de?terminer avec exactitude la loi de la
variable C(t). Nous nous contenterons ici d?e?tudier le comportement asymptotique de
cette variable. Cela constitue un bel exemple d?utilisation des processus de renouvellement.
Proposition 2.4.1 On conside?re un processus de renouvellement (Xn ) de fonction de
re?partition F et une suite (Yn ) de variables ale?atoires re?elles inde?pendantes et de me?me
loi. On suppose de plus que
E[X1 ] < ? et E[|Y1 |] < ? .
Alors le cou?t asymptotique moyen est e?gal a?
E[C(t)]
E[Y1 ]
=
.
t??
t
E[X1 ]
lim
Intuition.
Nous avons
Y1 + и и и + YN t Nt
E[C(t)]
= E[
].
t
Nt
t
Puisque Nt tend vers l?infini, nous pouvons appliquer la loi forte des grands nombres
Y1 + и и и + YN t
? E[Y1 ]
Nt
p.s.
Ainsi, nous avons
E[Y1 ] Nt
E[Y1 ]
E[C(t)]
= lim E[
]=
,
t??
t??
t
t
E[X1 ]
lim
d?apre?s le petit the?ore?me de renouvellement.
De?monstration.
1e e?tape.
Nous proce?dons en plusieurs e?tapes pour une preuve directe.
Tout d?abord, montrons que la fonction de?finie par
?t ? 0 ,
A(t) = E[YNt +1 ]
est solution d?une e?quation de renouvellement. En conditionnant a? la premie?re occurrence du processus de renouvellement, nous obtenons
?x > t ,
E[YNt +1 | X1 = x] = E[Y1 | X1 = x]
et
?x ? t ,
E[YNt +1 | X1 = x] = E[YNt ?Nx +Nx +1 | X1 = x]
= E[YNt?x +1 ]
56
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Apre?s inte?gration, nous obtenons
?
Z
E[YNt +1 | X1 = x]dF (x)
Z t
= a(t) +
A(t ? x)dF (x)
?t ? 0 ,
A(t) =
0
0
ou?
Z
?t ? 0 ,
?
E[Y1 | X1 = x]dF (x) .
a(t) =
t
Il est imme?diat de ve?rifier que la fonction a est borne?e. En effet,
?t ? 0 ,
|a(t)| ? E[|Y1 |] < ? .
D?apre?s le the?ore?me de renouvellement, nous avons donc
Z t
?t ? 0 , A(t) = a(t) +
a(t ? x)dM (x)
0
ou? M est la fonction de renouvellement.
2e e?tape.
Il est clair que a(t) converge vers 0 lorsque t tend vers l?infini. Soit > 0.
Il existe t0 > 0 tel que
?t > t0 , |a(t)| < .
Ceci entra??ne, pour tout t > t0 , que
Z t?t0
Z
Z t
|a(t ? x)|dM (x) ?
|a(t ? x)|dM (x) +
0
t
|a(t ? x)|dM (x)
t?t0
0
= M (t ? t0 ) + E[|Y1 |](M (t) ? M (t ? t0 ))
et
Rt
|a(t ? x)|dM (x)
M (t ? t0 )
(M (t) ? M (t ? t0 ))
?
+ E[|Y1 |]
.
t
t
t
D?apre?s le petit the?ore?me de renouvellement (proposition 2.3.3), nous avons
0
lim
t??
M (t ? t0 )
M (t)
1
= lim
=
t??
t
t
E[X1 ]
et par suite, puisque est arbitraire,
A(t)
= 0.
t??
t
lim
3e e?tape.
Voici comment l?on conclut a? partir du re?sultat pre?ce?dent. Nous avons
E[C(t)] = E[
N
t +1
X
n=1
Yn ? YNt +1 ] = E[Y1 ]E[Nt + 1] ? E[YNt +1 ] .
2.4. APPLICATIONS
57
et
E[Y1 ]
E[C(t)]
=
.
t??
t
E[X1 ]
lim
Commentaires.
tion suivante
A la fin de la de?monstration pre?ce?dente, nous avons utilise? la relaN
t +1
X
E[
Yn ] = E[Y1 ]E[Nt + 1] .
n=1
Elle repose sur la ge?ne?ralisation de la formule de Wald classique pour les temps d?arre?t.
2.4.2
Remplacement pre?ventif
Ce paragraphe concerne une strate?gie de remplacement pre?ventif d?un mate?riel
susceptible de tomber en panne. La dure?e de vie d?un mate?riel est une variable ale?atoire
X de fonction de re?partition F . Une politique de remplacement pre?ventif consiste a?
renouveller syste?matiquement le mate?riel de?s qu?il tombe en panne ou qu?il a de?passe?
une dure?e de bon fonctionnement e?gale a? a > 0. Nous cherchons en premier lieu a?
determiner la loi de probabilite? conditionnelle de la variable X sachant que X < a.
Elle est de?finie par la fonction de re?partition suivante
(
F (t)
si t ? a ,
F
(a)
?t ? 0 , Ga (t) = P(X ? t|X < a) =
1
sinon.
Si Xa est une variable de fonction de re?partition Ga , alors son espe?rance est e?gale a?
Ra
xdF (x)
E[Xa ] = 0
.
F (a)
On s?inte?resse a? la variable ale?atoire T correspondant a? l?instant du premier remplacement effectivement
P0 pre?ventif. Remarquons que T peut s?e?crire de la manie?re suivante
(par convention 1 = 0)
N
X
T =a+
Yi
i=1
ou? les variables Yi sont inde?pendantes et ont me?me loi que que la variable Xa . En ce
qui concerne N , nous avons
?k ? 0 ,
P(N = k) = F (a)k (1 ? F (a)) .
La variable N est donc une variable de loi ge?ome?trique de?cale?e vers 0. Nous obtenons
alors
Ra
xdF (x)
.
E[T ] = a + E[N ]E[Xa ] = a + 0
1 ? F (a)
58
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
On note H la fonction de re?partition de la variable ale?atoire T ? a. Montrons que l?on
peut e?crire, pour tout t > 0,
Z t
H(t) = 1 ? F (a) + F (a)
H(t ? x)dGa (x)
0
ou? Ga est la fonction de re?partition de la variable Xa . Nous avons en effet
?t ? 0
H(t) =
?
X
k=0
P(
k
X
Yn < t) P(N = k)
n=1
= 1 ? F (a) +
?
X
P(
Yn < t)F (a)k (1 ? F (a))
n=1
k=1
= (1 ? F (a)) 1 +
k
X
Z tX
?
P(
0 k=1
t
k?1
X
!
Yn < t ? x)F (a)k?1 dGa (x)
n=1
Z
= 1 ? F (a) + F (a)
H(t ? x)dGa (x) .
0
ou? Ga est la fonction de re?partition de Ga . La transforme?e de Laplace de la variable
ale?atoire T se de?duit du calcul pre?ce?dent. En effet,
?s > 0 ,
LT (s) = sLH(s)e?sa =
1 ? F (a)
e?sa .
1 ? F (a)LXa (s)
Les diffe?rents moments de T peuvent e?tre calcule?s a? partir de cette expression.
Remarque. Le calcul de la transforme?e de Laplace de la variable T peut s?effectuer
directement a? partir de la repre?sentation pre?ce?dente
T =a+
N
X
Yi .
i=1
Un processus de cou?t est associe? a? la politique de remplacement pre?ventif de la
manie?re suivante.
? Lorsque l?on peut renouveler le mate?riel avant qu?il ne soit hors d?usage, le cou?t
est Z1 = C1 > 0.
? Lorsque le mate?riel tombe en panne avant le remplacement pre?ventif, le cou?t est
Z1 = C1 + C2 ou? C2 > 0.
Soit C(t) le cou?t total au temps t associe? a? la politique de remplacement pre?ventif.
Nous avons
Nt
X
?t ? 0 , C(t) =
Zn
n=1
ou? {Nt ; t ? 0} est le processus de renouvellement associe? a? la fonction de re?partition
F (t) si t ? a
?t ? 0 , V (t) =
1
sinon.
2.4. APPLICATIONS
59
L?espe?rance de cette loi est
Z
a
xdF (x) + a(1 ? F (a)) .
E=
0
L?espe?rance de Z1 est
E[Z1 ] = C1 P(X > a) + (C1 + C2 )P(X ? a) .
Finalement, le cou?t moyen asymptotique associe? a? la politique de remplacement pre?ventif
est
C1 + F (a)C2
Ra
.
xdF (x) + a(1 ? F (a))
0
Commentaires. Il est tre?s facile d?utiliser cette formule pour ?optimiser? le remplacement pre?ventif. On choisira a de sorte a? minimiser le cou?t moyen asymptotique.
En ge?ne?ral, cela se fait nume?riquement.
Exercice 39. Mickey Markov ne roule qu?en 2CV. Il voudrait calculer la meilleure
date pour revendre sa 2CV du moment, dont la dure?e de vie est une variable de loi
uniforme sur (0, 20) ans. Comme c?est une voiture de collection, il peut la vendre 1500
euros en e?tat de fonctionnement, en seulement 500 euros si elle est en panne. Pouvezvous l?aider ?
2.4.3
Renouvellement alterne?
A un instant donne? conside?re? comme instant initial, un syste?me est mis en fonctionnement. Ce syste?me est susceptible d?e?tre en de?rangement ou bien de tomber en panne.
A la suite d?une panne ou d?un de?rangement, le syste?me est remis en marche apre?s une
pe?riode de maintenance d?une dure?e ale?atoire. On suppose que les dure?es de bon fonctionnement (Xn )n?1 constituent une suite de variables ale?atoires inde?pendantes et de
me?me loi, de fonction de re?partition F continue, tandis que les dure?es de re?paration
(Yn )n?1 inde?pendantes entre elles et de la suite (Xn ), de me?me loi de fonction de
re?partition G continue.
Nous nous inte?ressons a? la disponibilite? du syste?me au temps t > 0. Cette grandeur,
note?e A(t) est e?gale a? la probabilite? que le syste?me soit en fonctionnement a? l?instant
t.
Proposition 2.4.2 Les instants successifs (Zn )n?1 de remise en fonctionnement du
syste?me forment un processus de renouvellement de fonction de re?partition
Z
?t ? 0 ,
t
G(t ? x)dF (x) .
H(t) =
0
60
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
De?monstration.
Nous avons
?n ? 1 ,
Zn = Xn + Yn .
Ainsi
t
Z
?t ? 0 ,
G(t ? x)dF (x) .
H(t) =
0
La the?orie du renouvellement permet de de?terminer le comportement asymptotique de
la disponibilite? du syste?me.
Proposition 2.4.3 Supposons que E[X1 ] < ?. Alors, nous avons
E[X1 ]
E[X1 + Y1 ]
lim A(t) =
t??
De?monstration. La de?monstration repose sur le fait que la fonction A(t) est solution
de l?e?quation de renouvellement suivante
Z t
A(t) = [1 ? F (t)] +
A(t ? z)dH(z) .
0
En effet, en conditionnant a? Z1 = z, nous obtenons
A(t ? z)
Z1 =z
?t ? 0 , A
(t) =
P(X1 > t | Z1 = z)
Ainsi,
t
Z
Z
0
?
P(X1 > t | Z1 = z)dH(z) .
A(t ? z)dH(z) +
A(t) =
si z ? t
sinon.
t
Mais, on a e?videmment
P(X1 > t | Z1 = z) = 0
si z ? t et donc
Z
?
P(X1 > t | Z1 = z)dH(z) = 1 ? F (t) .
t
En notant que 1 ? F est borne?e et inte?grable, d?inte?grale e?gale a? E[X1 ], nous avons
d?apre?s le the?ore?me de renouvellement
lim A(t) =
t??
E[X1 ]
.
E[X1 + Y1 ]
Dans le cas ou le syste?me ve?rifie l?hypothe?se d?absence d?usure, la fonction de disponibilite? peut e?tre parfois calcule?e explicitement. Nous supposons par exemple que les
dure?es de fonctionnement suivent la loi exponentielle de parame?tre ? > 0 et que les
2.4. APPLICATIONS
61
dure?es de re?paration suivent la loi exponentielle de parame?tre х > 0. La transforme?e
de Laplace de A est alors e?gale a?
?s > 0 ,
LA(s) =
s2
х+s
.
+ s(х + ?)
L?expression de A(t) se de?duit par inversion de la transforme?e de Laplace.
?t ? 0 ,
A(t) =
? ?(?+х)t
х
+
e
.
?+х ?+х
Commentaires. Ce cas particulier peut e?tre mode?lise? a? l?aide d?un processus de
Markov binaire. Ce formalisme sera pre?sente? dans un chapitre ulte?rieur. Nous laisserons
alors au lecteur le soin de retrouver les re?sultats pre?ce?dents en utilisant un processus
de Markov a? deux e?tats. On pourra poursuivre par l?exercice donne? ci-dessous.
Exercice 40. Les fonctions de re?partition F et G sont a? nouveau celles de lois
exponentielles de parame?tres respectifs ? > 0 et х > 0. On conside?re la grandeur V (t)
e?gale a? la dure?e totale de fonctionnement a? l?instant t
Z t
11{le systeme fonctionne a l0 instant s} ds .
?t ? 0 , V (t) =
0
Pour exe?cuter une ta?che pre?cise, on doit solliciter le syste?me pendant une dure?e de
globale de fonctionnement c fixe?e. On s?inte?resse au temps effectif ne?cessaire pour
accomplir cette ta?che (re?parations comprises) soit
T (c) = inf{t > 0 : V (t) = c}.
a) Montrer que l?on peut e?crire T (c) = c +
caracte?ristique la variable T (c).
b) Montrer que E[T (c)] = c( х+?
).
х
c) Montrer que V ar(T (c)) = 2c х?2 .
d) Montrer que la variable ale?atoire
PNc
n=1
Yn . En de?duire la fonction
хT (c) ? c(х + c)
?
2c?
converge en loi vers une variable gaussienne centre?e re?duite lorsque c tend
vers l?infini.
e) En de?duire une valeur approche?e, lorsque c est grand, du temps au bout
duquel avec une probabilite? 0.95 la ta?che sera termine?e.
62
CHAPITRE 2. PROCESSUS DE RENOUVELLEMENT
Chapitre 3
Analyse du risque
Dans ce chapitre, nous de?crivons le mode?le classique de risque pour une compagnie
d?assurance. Dans le domaine de l?actuariat, on qualifie de risque la probabilite? de
banqueroute de la compagnie, c?est-a?-dire la probabilite? pour que son capital devienne
nul un jour, du fait d?un mauvais calcul du taux de cotisations des assure?s ou de
sinistres trop importants a? couvrir.
3.1
Pre?sentation du mode?le
Dans le mode?le le plus simple, une compagnie d?assurance dispose d?un capital
initial positif u, chiffre? dans une unite? quelconque. Au cours du temps, le capital de
cette compagnie peut e?voluer en fonction des cotisations des assure?s, de la fre?quence des
sinistres dont sont victimes les assure?s et des montants a? rembourser que ces sinistres
occasionnent.
On convient de noter u + Xt le capital au temps t. On suppose que
? les occurrences des sinistres suivent un processus de Poisson {Nt ; t ? 0} de
parame?tre ? > 0 ;
? le sinistre k occasionne pour la compagnie une perte ale?atoire Zk > 0 ;
? les cotisations des assure?s sont capitalise?es line?airement au cours du temps a? un
taux constant c > 0.
Nous interpre?tons les parame?tres de ce mode?le en remarquant que ? repre?sente l?intensite? des sinistres et c est appele? le taux de cotisation. Dans la pratique, les cotisations
sont rarement capitalise?es continu?ment au cours du temps, mais en ge?ne?ral a? des instants discrets. L?hypothe?se de line?arite? est simplificatrice, et nous supposons donc que
les pre?le?vements des cotisations chez les assure?s seront faits de manie?re homoge?ne et
constante dans le temps. Conditionnellement a? l?e?ve?nement Nt = 0, la valeur du capital
de la compagnie au temps t est donc e?gal a? u + ct.
On suppose, de plus, que les variables ale?atoires (Zk )k?1 correspondant au montants
des remboursement forment un processus de renouvellement de loi F , et telle que
E[Zk ] = х
63
64
CHAPITRE 3. ANALYSE DU RISQUE
et
V ar(Zk ) = ? 2 .
De?finition 3.1.1 Nous appelons processus de risque, le processus de?fini par
?t ? 0,
Xt = ct ?
Nt
X
Zk
k=1
avec la convention habituelle
P0
1
= 0.
Il vient imme?diatement de cette de?finition que le capital de la socie?te? au temps t
est e?gal a? u + Xt . De plus, le risque moyen pour un intervalle (0, t] est e?gal a?
E[Xt ] = ct ? E[Nt ]х = (c ? ?х)t.
Nous notons
c
c ? ?х
=
?1
?х
?х
que nous appelons le coefficient relatif de se?curite?. On suppose par la suite que ? > 0,
cela garantit que le processus de risque de?rive presque-su?rement vers +?. D?apre?s la
loi forte des grands nombres,
?=
Xt
= c ? ?х p.s..
t?? t
lim
En effet, nous avons
TNt
t
TNt +1
?
?
.
Nt
Nt
Nt
D?apre?s la loi forte des grands nombres, nous avons
?t ? 0,
TNt
1
?
Nt
?
p.s.
et
Nt
? ? p.s.
t
Ceci entraine
PNt
Z i Nt
Xt
= c ? i=1
? c ? х? p.s.
t
Nt
t
Puisque ? > 0, (Xt ) devient ne?gatif (i.e., passe sous l?axe 0t) un nombre fini de fois.
De?finition 3.1.2 Nous appelons probabilite? de ruine, la fonction de?finie par
?u ? 0,
?(u) = P(? t > 0 t.q. u + Xt ? 0)
Il sera parfois plus commode d?utiliser la probabilite? de non-ruine
?u ? 0,
?(u) = 1 ? ?(u)
3.2. L?ARGUMENT DE RENOUVELLEMENT
3.2
65
L?argument de renouvellement
Nous montrons que la probabilite? de non-ruine est solution d?une e?quation inte?grodifferentielle ;
Proposition 3.2.1 Soit fZ1 la densite? de probabilite? de la variable Z1 . Nous avons
?0 (u) =
?
?
?(u) ? ? ? fZ1 (u).
c
c
De?monstration. De manie?re habituelle, la premie?re e?tape permettant de calcul ?(u)
est de conditionner au premier sinistre, et de remarquer que le capital de l?assurance se
comporte de manie?re identique a? u + Xt mais a? partir de la valeur initiale u + cT1 ? Z1 .
Nous avons donc
?(u) = P( non ruine ) = E[P( non ruine | T1 ; Z1 )]
et
?(u) = E[?(u + cT1 ? Z1 )]
En utilisant la densite? conjointe du couple (T1 , Z1 )
f(T1 ,Z1 ) (x, z) = ?e??x fZ1 (z),
?x > 0, z > 0 ,
nous obtenons
?
Z
??x
?(u) =
Z
u+cx
?(u + cx ? z)dF (z)dx.
?e
0
0
Le changement de variable affine x ? u + cx, nous permet de simplifier cette e?quation.
Nous obtenons en de?finitive le re?sultat suivant
Z
Z
? ?u/c ? ??x/c x
?(u) = e
e
?(x ? z)dF (z)dx.
c
u
0
Nous ve?rifions que ? est une fonction differentiable, et la diffe?renciation conduit au
re?sultat e?nonce?.
L?inte?gration de l?e?quation inte?gro-diffe?rentielle conduit a? une autre relation plus
simple.
Proposition 3.2.2 Nous avons
?
?(u) = ?(0) +
c
De?monstration.
Z
u
?(u ? z)(1 ? F (z))dz.
0
On utilise la transforme?e de Laplace. L?e?quation diffe?rentielle
?0 (u) =
?
?
?(u) ? ? ? fZ1 (u),
c
c
66
CHAPITRE 3. ANALYSE DU RISQUE
devient
sL?(s) = ?(0) +
?
(L?(s)(1 ? sLF (s))) .
c
En divisant par s, nous obtenons
?(0) ?
L?(s) =
+
s
c
1
L?(s)( ? LF (s)) .
s
Puisque
1
( ? LF (s)) = L(1 ? F )(s),
s
nous avons
?
L? = L(?(0) + ? ? (1 ? F )),
c
et le re?sultat de?coule de l?injectivite? de la transforme?e de Laplace.
D?apre?s le the?ore?me de convergence monotone, nous obtenons lorsque u ? ? que
?х
?(?) = ?(0) +
?(?).
c
Puisque ?(?) = 1, nous avons
?(0) =
1
?х
=
,
c
1+?
si ?х > c.
Finalement, ?(0) ne de?pend de la distribution des montants occasionne?s par les sinistres
qu?a? travers sa moyenne х. Plus pre?cisement ?х est le montant moyen rembourse? par
unite? de temps. Ce re?sultat est montre que l?analyse est robuste si l?on modifie la loi
F sans changer sa moyenne.
3.3
Remboursements de loi exponentielle
Un cas particulier inte?ressant est celui des montants de remboursement des sinistres
selon la loi exponentielle
F (x) = 1 ? exp(?x/х),
x > 0.
C?est l?un des rares cas que l?on pourra re?soudre comple?tement.
Proposition 3.3.1 Lorsque F est la loi exponentielle de parame?tre 1/х, nous avons
?u ? 0,
De?monstration.
?(u) =
1 ??u/х(1+?)
e
1+?
Nous avons
?
?(u) = ?(0) +
cх
Z
u
?(u ? z)e?z/х dz.
0
A? nouveau, le re?sultat s?obtient en prenant la transforme?e de Laplace des deux termes
a? identifier.
3.4. L?APPROXIMATION DE CRAMER-LUNDBERG
3.4
67
L?approximation de Cramer-Lundberg
L?approximation de Cramer-Lundberg de?crit le comportement asymptotique de la
probabilite? de ruine lorsque le capital initial u tend vers l?infini. Ce comportement sera
typiquement exponentiellement de?croissant comme dans le paragraphe pre?ce?dent. Pour
de?crire ce comportement asymptotique, nous utiliserons les re?sultats de la the?orie du
renouvellement.
Une premie?re remarque est que ?(u) est solution de l?e?quation
Z
? u
?(u) = a(u) +
?(u ? z)(1 ? F (z))dz
c 0
ou?
?
a(u) =
c
Z
?
(1 ? F (z))dz.
u
Cette e?quation n?est sans doute pas une e?quation de renouvellement car
Z
1
? ?
(1 ? F (z))dz =
< 1.
c 0
1+?
mais l?ide?e de la transformer en une telle e?quation par une normalisation ade?quate est
tentante. Supposons qu?il existe une constante R telle que
Z
? ? Rz
e (1 ? F (z))dz = 1.
c 0
Une telle constante s?appelle l?exposant de Lundberg. Une inte?gration montre que l?exposant de Lundberg est solution de l?e?quation
Z ?
cr
erz dF (z) ? 1.
(3.4.1)
= h(r) ?
?
0
Nous supposons que b(u) = eRu a(u) est une fonction borne?e, monotone et inte?grable.
Proposition 3.4.1 (Approximation de Cramer-Lundberg) Soit R une solution positive
de l?e?quation 3.4.1. Nous avons
lim eRu ?(u) =
u??
De?monstration.
?х
.
h0 (R) ? c/?
Nous ve?rifions de?sormais que
g(z) =
? Rz
e (1 ? F (z))
c
est bien la densite? d?une loi de probabilite?. En multipliant par eRu , nous obtenons
Z u
Ru
Ru
e ?(u) = e a(u) +
eR(u?z) ?(u ? z)g(z)dz.
0
68
CHAPITRE 3. ANALYSE DU RISQUE
Cette dernie?re e?quation est une e?quation de renouvellement, le the?ore?me de renouvellement permet de conclure que
lim eRu ?(u) =
u??
ou?
?
C1 =
c
Z
?
Ru
Z
C1
C2
?
(1 ? F (z))dzdu
e
0
u
et
?
Z
zg(z)dz.
C2 =
0
Concernant le calcul de C1 , en utilisant Fubini pour inverser l?ordre d?inte?gration, nous
obtenons
Z ?Z z
?
1
C1 =
eRu du (1 ? F (z))dz = (1 ? х?/c).
c
R
0
0
Finalement, cela se simplifie en
1 ?
C1 =
.
R1+?
En inte?grant par parties, et en utilisant que h0 (R) s?exprime de la manie?re suivante
Z ?
0
h (R) =
zeRz dF (z),
0
et que la primitive de zeRz est (z/R ? 1/R2 )eRz , nous obtenons
C2 =
1 1 0
(h (R) ? c/?).
1 + ? Rх
Revenons maintenant sur l?exemple de la section pre?ce?dente : le cas ou? F est la loi
exponentielle de moyenne х. Dans ce cas, nous avons
хr
h(r) =
1 ? хr
et l?exposant de Lundberg se calcule a? l?aide la formule
хR
cR
=
.
1 ? хR
?
Cela donne
R=
?
.
х(1 + ?)
De plus, nous avons
h0 (R) = х(1 + ?)2
et nous retrouvons bien que
lim eRu ?(u) =
u??
1
.
1+?
3.5. MAJORATION DE LA PROBABILITE? DE RUINE
3.5
69
Majoration de la probabilite? de ruine
Nous conside?rons dans cette section une approche diffe?rente pour majorer la probabilite? de ruine. Cette approche est fonde?e sur l?introduction d?une martingale exponentielle et elle constitue une de?marche courante pour les questions d?atteinte.
Comme nous le verrons plus loin, une martingale (Mt ) est un processus ale?atoire
sans tendance, c?est-a?-dire que l?espe?rance conditionnelle de la variable Mt sachant le
passe? du processus jusqu?au temps s ? t est tout simplement Ms
E[Mt | Ms0 , 0 ? s0 ? s] = Ms
avec l?abus officiel de notation utilise? pour le conditionnement (voir le paragraphe sur
les martingales dans le chapitre sur le mouvement brownien). Nous supposons de plus
que les variables Mt sont inte?grables.
Un temps d?arre?t pour un processus est un temps ale?atoire ? tel que l?e?ve?nement
(? ? t) ne de?pend que du passe? du processus au temps t, pour tout t ? 0. Par ailleurs,
?t = inf(t, ? ) est aussi un temps d?arre?t, cette fois ne?cessairemement borne?. Dans une
version simplifie?e, le the?ore?me d?arre?t s?e?nonce de la manie?re suivante. Ce resultat est
tre?s utile pour estimer des probabilite?s de ruine.
Proposition 3.5.1 Soit ? un temps d?arre?t borne?, i.e, ? < t0 < ?. Alors
E[M? ] = E[M0 ].
D?une manie?re similaire a? celle utilise?e lors de l?e?tude des temps d?atteinte de marche
brownienne, nous introduisons le processus ale?atoire
Mt =
e?r(u+Xt )
.
LXt (r)
Notons que
LXt (r) = E[e?rXt ] = e?crt E[er
PNt
k=1
Zk
].
En conditionnant selon les valeurs de Nt , nous obtenons
r
E[e
PNt
k=1
Zk
]=
?
X
rZ1 ]?1)
P(Nt = k)E[erZ1 ]k = e?t(E[e
.
k=0
Finalement, nous avons
LXt (r) = et(?h(r)?rc) ? etg(r) .
Notons ? (u) le temps de ruine (atteinte de 0). Il s?agit d?un temps d?arre?t non borne?,
et nous avons
?(u) = P(? (u) < ?).
70
CHAPITRE 3. ANALYSE DU RISQUE
Proposition 3.5.2 Le processus (Mt ) est une martingale, aussi appele?e martingale de
Wald.
De?monstration. Nous utilisons l?inde?pendance des accroissements de (Xt ). Cette
proprie?te? provient du fait que les (Zk ) sont inde?pendantes et que le processus (Nt ) est
a? lui-me?me accroissements inde?pendants. Soit s < t, les variables Xs et Xt ? Xs sont
donc inde?pendantes. D?ou?
E[e?r(u+Xt ) | Ms0 , s0 ? s] = E[e?r(u+Xs ) e?r(Xt ?Xs ) | Ms0 , s0 ? s] = Ms LXs (r) E[e?r(Xt ?Xs ) ].
Nous avons donc
E[e?r(u+Xt ) | Ms0 , s0 ? s] = Ms LXs (r)LXt ?Xs (r).
Puisque LXs (r)LXt ?Xs (r) = LXt (r), nous obtenons le re?sultat anonce?.
Proposition 3.5.3 (Ine?galite? de Lundberg) Nous avons
?u ? 0,
?(u) ? e?Ru
ou? R est l?exposant de Lundberg.
De?monstration. Soit t0 < ?. Conside?rons ? = ? (u) (u est fixe? pour la de?monstration)
et ?0 = ?t0 . D?apre?s la proposition 3.5.1, nous avons
E[M?0 ] = M0 = e?ru .
En conditionnant, nous avons
E[M?0 ] = E[M?0 | ? ? t0 ] P(? ? t0 ) + E[M?0 | ? > t0 ] P(? > t0 ),
et
E[M?0 ] ? E[M?0 | ? ? t0 ] P(? ? t0 ) = E[M? | ? ? t0 ] P(? ? t0 ).
Par ailleurs, nous avons u + X? ? 0 si (? ? t0 ) est re?alise?. Ceci entra??ne, en utilisant
l?ine?galite? de Jensen (pour la fonction 1/x),
E[M? | ? ? t0 ] ?
1
? E[e?? g(r) | ? ? t0 ].
E[LX? (r) | ? ? t0 ]
En re?unissant les deux ine?galite?s, nous avons
e?ru
P(? ? t0 ) ?
.
E[e?? g(r) | ? ? t0 ]
En prenant le sup sur l?intervalle (0, t0 ] dans l?espe?rance, puis en faisant t0 ? ?, nous
avons
?(u) ? e?ru sup et(?h(r)?rc) .
t?0
Dans cette dernie?re ine?galite?, r est une variable libre quelconque. Un choix possible est
e?videmment l?exposant de Lundberg tel que
?h(R) ? Rc = 0,
qui conduit au re?sultat annonce?.
Chapitre 4
Processus de Markov et Files
d?attente
4.1
Processus de Markov
Les processus ale?atoires que l?on conside?re dans ce chapitre ont un large champ
d?application dans la mode?lisation de syste?mes re?els. Ce sont des processus en temps
continu analogues aux cha??nes de Markov etudie?es dans le cours de premie?re anne?e. Ils
se caracte?risent par la proprie?te? de me?moire a? court terme suivante. Connaissant l?e?tat
du processus au temps pre?sent, la pre?diction de l?e?tat futur se fait inde?pendamment
du passe? du processus. Un exemple de processus de Markov en temps continu a de?ja?
e?te? rencontre?. Il s?agit du processus de Poisson. Si l?on pose pour e?tat au temps t
le nombre total d?arrive?es a? cet instant, le processus de Poisson est un processus de
Markov a? valeurs dans N et qui n?effectue des sauts que de l?e?tat n vers l?e?tat (n + 1),
n ? 0. Un tel processus s?appelle un processus de naissance pure. Plus ge?ne?ralement,
un mode?le dont les dure?es inter-transitions sont de loi exponentielle et qui effectue des
transitions entre les e?tats n et (n + 1) ou (n ? 1) uniquement est appele? processus de
naissance et de mort. On trouve des processus de naissance et de mort dans l?e?tude de
populations biologiques par exemple, mais aussi lors de l?e?tude de files d?attente. Dans
ce cas, le processus de naissance et de mort mode?lise la longueur de la file d?attente.
4.1.1
De?finitions
Soit {Xt ; t ? 0} un processus ale?atoire a? valeurs entie?res.
De?finition 4.1.1 On dit que le processus {Xt ; t ? 0} est un processus de Markov si,
pour tout s, t ? 0, i, j ? IN et xu ? IN , 0 ? u < s,
P(Xt+s = j | Xs = i, Xu = xu , ?0 ? u < s) = P(Xt+s = j | Xs = i) .
En d?autres termes, un processus de Markov est un processus ayant la proprie?te?
suivante. La loi conditionnelle de la variable future Xt+s sachant l?e?tat pre?sent Xs
71
72
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
et toute l?histoire du processus jusqu?au temps s ne de?pend que du pre?sent et est
inde?pendante du passe?. Si, de plus,
Pij (s, t) = P(Xt+s = j | Xs = i)
ne de?pend pas de s, le processus {Xt ; t ? 0} est dit homoge?ne. Tous les processus de
Markov conside?re?s dans ce chapitre seront homoge?nes.
Supposons qu?un processus de Markov homoge?ne {Xt ; t ? 0} se trouvait en i
au temps t = 0 et qu?il n?ait pas quitte? cet e?tat durant l?intervalle de temps [0, t].
Cherchons a? caracte?riser la loi conditionnelle de la variable ale?atoire Ti e?gale a? la dure?e
de se?jour dans l?e?tat i. Soit s, t ? 0
P(Ti > t + s | Ti > t) =
=
P(Ti > t + s | Xt = i) par la proprie?te? de Markov,
P(Ti > s) par homoge?ne?ite?.
Ainsi, la variable Ti posse?de la proprie?te? d?absence de me?moire qui caracte?rise la loi
exponentielle. Le parame?tre de cette loi de?pend de l?e?tat i. On note ce parame?tre ?i .
Cette proprie?te? d?absence de me?moire sugge?re une manie?re intuitive de construire un
processus de Markov homoge?ne quelconque.
1) Pour tout i dans IN , le temps de se?jour dans l?e?tat i (avant d?effectuer une
transition vers un autre e?tat) est une variable ale?atoire de loi exponentielle de
parame?tre ?i .
2) Lorsque le processus ?quitte? l?e?tat i, il choisit d?aller en j 6= i avec la probabilite?
pij . Les probabilite?s de transition ve?rifient donc
pij ? 0 ;
X
pij = 1 .
j6=i
3) Toutes les dure?es de se?jour sont inde?pendantes entre elles, et inde?pendantes des
e?tats de la cha??ne.
Commentaires. En d?autres termes, un processus de Markov est un processus ale?atoire
qui effectue des transitions d?e?tat en e?tat suivant une cha??ne de Markov (la cha??ne incluse) de probabilite?s de transition pij et tel que le temps passe? dans chaque e?tat avant
d?en visiter un autre est de loi exponentielle. Si les temps de se?jour n?e?taient pas des variables inde?pendantes, alors la pre?diction de la valeur future du processus devrait tenir
compte des temps passe?s dans chaque e?tat. Ceci est en contradiction avec la proprie?te?
de Markov.
Exemple 4.1.1 Simulation.
L?algorithme suivant simule la variable XT du processus {Xt ; t ? 0} a? un temps T arbitraire. L?algorithme est initialise? de manie?re
quelconque.
Solution.
4.1. PROCESSUS DE MARKOV
73
t := 0
Choisir un entier X
Repeter
i := X
Si ( nu[i] = 0 ) alors t := T
Sinon
Choisir j avec la probabilite
X := j
t := t - log(ALEA) / nu[i]
FinSi
Jusqu?a (t > T) .
p[i][j]
Dans le cas ou? ?i = 0 (nu[i] = 0), l?e?tat i est dit absorbant. Quand le processus entre
dans i, il y se?journe inde?finiment.
Exemple 4.1.2 Un syste?me re?parable.
Un syste?me est constitue? d?un composant dont la dure?e de vie suit la loi exponentielle de parame?tre ? (penser a? une ampoule
e?le?ctrique, par exemple). Lorsque le composant tombe en panne, il est remplace? par un
composant identique. La dure?e de re?paration est ale?atoire, de loi exponentielle de parame?tre х. Montrer que l?e?tat du syste?me au temps t e?volue selon un processus de
Markov dont on pre?cisera les parame?tres.
Solution. Il s?agit d?un processus susceptible de prendre deux e?tats que nous notons
0 et 1. La valeur 0 code pour l?e?tat de panne et 1 pour l?e?tat de bon fonctionnement.
Alors
?0 = х et p0,1 = 1
et
?1 = ?
4.1.2
et
p1,0 = 1 .
Equations de Kolmogorov
Soit {Xt ; t ? 0} un processus de Markov a? valeurs entie?res. Pour tout couple
(i, j) ? IN О IN , on pose
?i 6= j , ?ij = ?i pij .
La vitesse avec laquelle le processus sort de l?e?tat i est ?i et la probabilite? avec laquel il
entre dans j est pij . Ainsi, on peut interpre?ter ?ij comme le taux avec lequel le processus
partant de i entre en j. Bien entendu
X
X
?i =
?i pij =
?ij
j6=i
j6=i
et
?i 6= j ,
pij = ?ij /?i .
74
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Ainsi, la donne?e de la famille {?ij ; i 6= j} de?termine comple?tement le processus en
question. Posons, pour tout i, j ? IN et s, t ? 0,
Pij (t) = P(Xt+s = j | Xs = i) .
Il s?agit de la probabilite? conditionnelle pour que le processus en i au temps s se trouve
en j au temps t+s. Par homoge?ne?ite?, cette grandeur ne de?pend pas de s. La proposition
suivante justifie la de?nomination de taux de transition applique?e aux ?ij .
Proposition 4.1.1 Pour tout i ? IN, h > 0
1 ? Pii (h) = ?i h + o(h) ;
Pij (h) = ?ij h + o(h)
De?monstration.
lorsque j 6= i .
Nous avons, pour tout j 6= i, h > 0
P(Xh = j | X0 = i) = P(Ti < h)pij + o(h)
= ?i hpij + o(h)
= ?ij h + o(h) .
La premie?re assertion est e?vidente. Elle traduit simplement le fait que
X
Pij (h) = 1 .
j
La proposition suivante e?tablit une proprie?te? de semigroupe pour les probabilite?s de
transition analogue a? celle de?montre?e auparavant pour les cha??nes de Markov.
Proposition 4.1.2 Proprie?te? de semigroupe.
X
?s, t ? 0,
Pij (t + s) =
Pik (t) Pkj (s) .
k?IN
De?monstration.
kov.
Conditionner aux valeurs de Xt et appliquer la proprie?te? de Mar-
De?finition 4.1.2 Ge?ne?rateur infinite?simal.
On appelle ge?ne?rateur infinite?simal
la matrice dont le terme ge?ne?ral est ?ij pour i 6= j et ??i pour le terme diagonal d?ordre
i. Cette matrice est note?e ?
?
?
??0 ?01 ?02 ...
? ?10 ??1 ?12 ... ?
? .
?=?
? .
?
.
.
.
4.1. PROCESSUS DE MARKOV
75
Notons p(t) la loi de la variable ale?atoire Xt
?i ? IN,
pi (t) = P(Xt = i) .
La loi p(t) peut se calculer comme la solution d?un syste?me diffe?rentiel line?aire. Les
e?quations de ce syste?me sont appele?es e?quations de Kolmogorov.
The?ore?me 4.1.1 Equations de Kolmogorov.
d
p = p? ,
dt
Soit
X
d
pj =
pi ?ij ? ?j pj .
dt
i6=j
?j ? IN,
Commentaires. Les e?quations de Kolmogorov traduisent la dynamique du syste?me
inde?pendamment de la condition initiale. Lorsque l?espace d?e?tat du processus est fini
et que la loi initiale (loi de la variable X0 ) est pre?cise?e, il y a une solution unique aux
e?quations de Kolmogorov (il s?agit d?un proble?me de Cauchy).
De?monstration.
Soit h > 0. D?apre?s la formule des probabilite?s totales, nous avons
?j ? IN ,
P(Xt+h = j) =
X
P(Xt+h = j|Xt = i)pi (t) .
i
D?apre?s la proprie?te? d?homoge?ne?ite?, nous avons
?j ? IN ,
P(Xt+h = j|Xt = i) = P(Xh = j|X0 = i) .
Ainsi,
pj (t + h) =
X
P(Xh = j|X0 = i)pi (t)
i
=
X
pi (t)?ij h + pj (t)(1 ? ?j h) + o(h)
i6=j
d?apre?s la proposition 4.1.1. Nous avons donc
o(h)
pj (t + h) ? pj (t) X
=
pi (t)?ij ? ?j pj (t) +
.
h
h
i6=j
Le re?sultat suit lorsque h ? 0.
Exemple 4.1.3 exemple 4.1.2 (suite). Ecrire les e?quations de Kolmogorov
76
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Solution.
Dans cette situation, le ge?ne?rateur ? est donne? par
?х х
?=
? ??
Les e?quations de Kolmogorov sont
p00 = ?хp0 + ?p1
p01 = хp0 ? ?p1
En utilisant la relation,
p0 (t) + p1 (t) = 1 ,
On re?sout ce syste?me pour trouver
?
?
+ (p0 (0) ?
) e?(?+х)t
?+х
?+х
х
х
+ (p1 (0) ?
) e?(?+х)t
p1 (t) =
?+х
?+х
p0 (t) =
4.1.3
Processus de Poisson
Le processus de Poisson de parame?tre ? > 0 est un processus de Markov. En effet,
nous avons, pour tout i ? 0
?i = ?
et
pi,i+1 = 1 .
Dans cette section, nous justifions l?aspect intuitif du processus de Poisson en obtenant
la loi de Poisson a? partir des e?quations infinite?simales. La re?fe?rence a? la de?finition de
processus de Markov ne sera pas directement utilise?e dans ce qui suit. Nous pouvons
en fait donner une alternative a? la definition 2.2.1, la definition 2.2.3.
De?finition 4.1.3 Le processus de comptage {Nt ; t ? 0} est un processus de Poisson
de taux ? > 0, si
i) le processus est a? accroissements inde?pendants et stationnaires ;
ii) P(Nh = 1) = ?h + o(h) ;
iii) P(Nh ? 2) = o(h) .
Commentaires. Un argument heuristique permet de bien comprendre pourquoi la
loi de Poisson intervient de manie?re naturelle. Conside?rons l?intervalle de temps (0, t)
que nous subdivisons en n sous intervalles de longueur e?gale a? t/n. La probabilite? pour
qu?une occurrence survienne dans (kt/n, (k + 1)t/n) est approximativement e?gale a?
?t/n. Puisque les occurrences sont inde?pendantes, le nombre Nt d?occurrences dans
(0, t) ?suit? la loi binomiale B(n, ?t/n). L?approximation binomiale-Poisson montre
que l?on peut conside?rer que Nt suit la loi de Poisson de parame?tre n?t/n = ?t. Nous
justifions ceci de manie?re rigoureuse dans le the?ore?me suivant.
4.1. PROCESSUS DE MARKOV
77
The?ore?me 4.1.2 Les de?finitions sont e?quivalentes.
De?monstration.
Nous montrons que de?finition 2.2.3 =? de?finition 2.2.1. Posons
pn (t) = P(Nt = n) .
Montrons dans un premier temps que p0 est solution d?une certaine e?quation diffe?rentielle
p0 (t + h) = P(Nt+h = 0)
= P(Nt = 0 ; Nt+h ? Nt = 0)
= P(Nt = 0) P(Nt+h ? Nt = 0)
= p0 (t) [1 ? ?h + o(h)] .
Dans la troisie?me e?quation, nous avons utilise? l?assertion i). Nous avons pu poursuivre
en combinant ii) et iii) pour aboutir a? la dernie?re e?quation. On obtient finalement
o(h)
p0 (t + h) ? p0 (t)
= ?? p0 (t) +
.
h
h
En passant a? la limite h ? 0, on obtient
p00 = ?? p0 .
L?inte?gration de cette e?quation line?aire d?ordre un conduit, en tenant compte de la
condition initiale p0 (0) = 1, a?
p0 (t) = e??t .
En proce?dant de la me?me manie?re, pour tout n > 0, il vient
pn (t + h) =
=
P(Nt+h = n)
P(Nt = n ; Nt+h ? Nt = 0)
+ P(Nt = n ? 1 ; Nt+h ? Nt = 1)
n
X
+
P(Nt = n ? k ; Nt+h ? Nt = k) .
k=2
Par l?assertion iii), le dernier terme est d?ordre o(h). En utilisant a? nouveau l?assertion
i), on otient
pn (t + h) = pn (t) p0 (h) ? pn?1 (t) p1 (h) + o(h)
= (1 ? ?h) pn (t) + ?h pn (t) + o(h) .
Soit, en passant a? la limite h ? 0
p0n (t) = ?? pn (t) + ? pn?1 (t) .
Posons
qn (t) = e?t pn (t) .
(4.1.1)
78
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Alors, en multipliant les deux termes par e?t , l?e?quation (4.1.2) se formule de manie?re
e?quivalente
d
qn (t) = ?? qn?1 (t) .
dt
On termine la de?monstration en ve?rifiant par re?currence que
qn (t) =
?n tn
n!
est l?unique solution de ce syste?me sous la condition qn (0) = 0. La re?ciproque est facile
a? e?tablir. C?est un exercice.
4.1.4
Comportement asymptotique
Nous cherchons a? caracte?riser le comportement asymptotique d?un processus de
Markov homoge?ne {Xt ; t ? 0} dont l?espace d?e?tat est e?gal a? IN. Supposons que
P la
variable Xt converge en loi vers une loi ? et supposons que l?inversion des signes
et
lim soit licite. On obtient, par les e?quations de Kolmogorov
X
0=
?j ?ji ? ?i ?i .
j
soit
0 = ??
et, e?videmment
X
?i = 1 .
i
Par analogie avec les cha??nes de Markov, nous cherchons des conditions sous lesquelles
ce syste?me admet une solution unique. Pour simplifier la discussion, nous nous limitons
a? des ensembles d?e?tat finis. L?existence d?une solution au syste?me
0 = ??
est garantie par le fait que 0 est toujours valeur propre de ?. Un vecteur propre associe?
a? la valeur propre 0 est
? ?
1
? . ?
? ?.
? . ?
1
L?unicite? d?une solution stationnaire est, comme pour les cha??nes, lie?e a? une notion de
connexite? du diagramme de transition du processus {Xt ; t ? 0}.
De?finition 4.1.4 Le processus {Xt ; t ? 0} est dit irre?ductible si
?i, j ,
? k1 , . . . , kn t.q. ?ik1 > 0 et . . . et ?kn j > 0 .
4.1. PROCESSUS DE MARKOV
79
L?interpre?tation est la me?me que pour les cha??nes. Le proble?me de la pe?riodicite? ne se
pose pas puisque les temps de transition sont ale?atoires. On admet le re?sultat suivant
The?ore?me 4.1.3 Si le processus {Xt ; t ? 0} est irre?ductible, alors la variable Xt
converge en loi quand t ? ? vers la loi ? solution de
0 = ?? .
inde?pendamment de la loi de la condition initiale X0 .
Exemple 4.1.4 exemple 4.1.2 (suite). Loi stationnaire.
Solution. Dans cet exemple, on ve?rifie facilement l?irre?ductibilite?. La re?solution des
e?quations de Kolmogorov permet de ve?rifier l?unicite? du comportement asymptotique.
En effet, Xt converge en loi vers la loi
(
4.1.5
?
х
,
).
?+х ?+х
Exercices
Exercice 41.
On conside?re le processus ale?atoire {Xt ; t ? 0} de?fini sur l?ensemble
E = {1, 2, 3}
de la manie?re suivante. Les temps de se?jour dans l?e?tat 1 sont des variables inde?pendantes
de loi exponentielle de parame?tre e?gal a? 3.0. Lorsque le processus ?sort? de cet e?tat,
il effectue une transition vers l?e?tat 2 avec la probabilite? 2/3 et vers l?e?tat 3 avec la
probabilite? 1/3. Les temps de se?jour dans l?e?tat 2 sont des variables inde?pendantes de
loi exponentielle de parame?tre e?gal a? 1.0. Lorsque le processus ?sort? de l?e?tat 2, il
effectue une transition obligatoire vers l?e?tat 1. L?e?tat 3 est un e?tat absorbant.
a) Montrer que Xt est un processus de Markov homoge?ne (de?crire le ge?ne?rateur
infinite?simal de ce processus).
b) Ecrire les e?quations de Kolmogorov de ce processus.
c) On suppose que le processus de?marre dans l?e?tat 1 et on s?inte?resse au temps
d?atteinte de l?e?tat 3
T = inf{t ? 0 , Xt = 3} .
De?terminer la loi de T a? l?aide des e?quations pre?ce?dentes.
Solution abre?ge?e.
Le ge?ne?rateur est e?gal a?
?
?
?3 2 1
? = ? 1 ?1 0 ? .
0
0 0
80
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Soit pi (t) = P(Xt = i), pour tout i = 1, 2, 3. Nous avons
p03 = p1
et
p003 = p01 = ?3p1 + p2
Puisque p2 = 1 ? p1 ? p3 , nous avons
p003 = 1 ? 4p03 ? p3 .
Par ailleurs, nous avons
?t ? 0,
P(T ? t) = p3 (t)
et p3 (0) = 0, p03 (0) = p1 (0) = 1. L?inte?gration de l?e?quation diffe?rentielle conduit a? la
solution suivante
?
?
?
?
1
1
P(T ? t) = 1 ? (1 ? 1/ 3)e?(2+ 3)t ? (1 + 1/ 3)e?(2? 3)t .
2
2
Exercice 42. Un syste?me est constitue? de deux e?le?ments inde?pendants dont les
dure?es de vie sont des variables ale?atoires de lois E(?1 ) et E(?2 ). Lorsque l?e?le?ment i
(i = 1, 2) tombe en panne, il est remplace? par un e?le?ment dont les caracte?ristiques sont
identiques. La dure?e de remise en fonctionnement du syste?me est une variable ale?atoire
de loi E(хi ) inde?pendante de la dure?e de vie de l?e?le?ment en de?faut.
a) De?crire les diffe?rents e?tats du syste?me et les probabilite?s de transition entre
ces diffe?rents e?tats pendant un intervalle de temps infinite?simal.
b) En de?duire que le processus d?e?volution de ce syste?me est markovien. Donner son ge?ne?rateur infinite?simal.
c) Existe-t-il un re?gime stationnaire ? Le caracte?riser.
Solution abre?ge?e. Pour un couple de variables inde?pendantes (X1 , X2 ) de loi marginales E(х1 ) et E(х2 ), la loi du minimum
Z = min(X1 , X2 ) ,
est la loi E(х1 + х2 ). De plus nous avons
Z ?
P(X1 < X2 ) =
P(X2 > t)х1 e?х1 t dt =
0
х1
.
х1 + х2
Avec les conventions de notation 0 pour panne et 1 pour bon fonctionnement, nous
avons 4 e?tats
E = {(0, 0), (1, 0), (0, 1), (1, 1)}.
4.1. PROCESSUS DE MARKOV
81
D?apre?s la remarque pre?ce?dente, la loi du temps de se?jour dans (0, 0) est la loi E(х1 +х2 )
et la probabilite? de transition de (0, 0) vers (1, 0) est х1 /(х1 + х2 ). Le taux de transition entre ces deux e?tats est donc х1 . Les autres taux se de?duisent de raisonnements
similaires. En fin de compte, le ge?ne?rateur est
?
?
?(х1 + х2 )
х1
х2
0
?
?
?1
?(?1 + х2 )
0
х2
?.
?=?
?
?
?2
0
?(?2 + х1 )
х1
0
?2
?1
?(?1 + ?2 )
La loi de probabilite? invariante se de?duit de la remarque que les 2 composants sont
inde?pendants. Donc nous avons
?(i,j) = ?i1 ?j2 ,
?i, j = 0, 1
ou? ? 1 et ? 2 sont les lois invariantes associe?es a? chacun des composants
1
? =
?1
х1
,
?1 + х1 ?1 + х1
et
2
? =
?2
х2
,
? 2 + х2 ?2 + х2
.
Exercice 43. Un syste?me est constitue? de trois composants A, B, C dont les dure?es
de vie sont des variables ale?atoires X, Y, Z inde?pendantes de lois respectives E(?), E(х)
et E(?). A l?instant initial, les trois composants sont en e?tat de bon fonctionnement. La
mise en de?faut de C ou la mise en de?faut des deux composants A et B (simultane?ment)
entra??nent la panne du syste?me.
a) De?crire les diffe?rents e?tats susceptibles d?e?tre pris par le syste?me au cours
du temps.
b) Soit Wt l?e?tat du syste?me au temps t ? 0. Montrer que {Wt ; t ? 0} est un
processus de Markov homoge?ne. Pre?ciser son graphe de transitions et son
ge?ne?rateur infinite?simal.
c) Ecrire les e?quations de Kolmogorov associe?es a? ce processus puis les re?soudre.
d) Soit T la dure?e de vie du syste?me. A l?aide de la question pre?ce?dente, donner
une expression de la probabilite? P(T > t).
e) En de?duire E[T ].
Solution abre?ge?e. Conside?rons les 4 e?tats suivants. Dans l?e?tat 1, les 3 composants
A, B, C fonctionnent. Dans l?e?tat 2, A est en panne alors que B, C fonctionnent. Dans
82
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
l?e?tat 3, B est en panne alors que A, C fonctionnent. Dans l?e?tat 4, le syste?me est en
panne. Le ge?ne?rateur correspondant a? Wt est de?crit par
?
?
?(? + х + ?)
?
х
?
?
0
?(х + ?)
0
(х + ?) ?
?.
?=?
?
0
0
?(? + ?) (? + ?) ?
0
0
0
0
L?e?tat 4 est absorbant. D?apre?s les e?quations de Kolmogorov, nous avons
p01 = ?(? + х + ?)p1 .
Ceci conduit a?
?t ? 0,
p1 (t) = exp(?(? + х + ?)t).
De plus, nous avons
p02 = ?p1 ? (х + ?)p2 .
En prenant la transforme?e de Laplace `2 (s) = Lp2 (s), nous obtenons
1
1
?
=
?
.
`2 (s) =
(s + х + ?)(s + ? + х + ?)
s+х+? s+?+х+?
Nous inversons
?t ? 0,
p2 (t) = e?(х+?)t ? e?(?+х+?)t .
De me?me, nous obtenons
?t ? 0,
p3 (t) = e?(?+?)t ? e?(?+х+?)t .
Finalement, nous avons
?t ? 0,
et
P(T > t) = 1 ? p4 (t) = p1 (t) + p2 (t) + p3 (t)
?
Z
E[T ] =
P(T > t)dt =
0
1
1
1
+
?
?+? х+? ?+х+?
Pour des valeurs de parame?tre toutes e?gales a? 1, nous observons que E[T ] = 2/3. Cette
valeur naturellement infe?rieure a? la dure?e de vie du composant C.
Exercice 44.
de ge?ne?rateur
On conside?re un processus de Markov {Xt , t ? 0} sur E = {1, 2, 3}
?
?
?? ?
0
? = ? 0 ?? ? ?
?
0 ??
?>0.
a) Repre?senter le graphe de transition, e?crire les e?quations de Kolmogorov et
de?terminer la loi stationnaire de ce processus.
4.1. PROCESSUS DE MARKOV
83
b) Pour tout t ? 0, on pose p0 (t) = P(Xt = 0). Montrer que p0 est solution de
l?e?quation diffe?rentielle
p000 + 3?p00 + 3?2 p0 = ?2 .
(4.1.2)
c) Montrer que les solutions de l?e?quation (4.1.2) sont de la forme
!
?
?
1
3
3
?t ? 0 , p(t) = + e?3?t/2 A cos(
?t) + B sin(
?t)
3
2
2
ou? A et B sont des constantes re?elles.
d) On suppose X0 = 1. Quelle est la valeur de p00 (0) dans ce cas ? De?terminer
p0 et tracer la courbe correspondante en fonction de t ? 0.
Exercice 45. Un syste?me est compose? de deux unite?s identiques dont les dure?es de
vie sont des variables inde?pendantes de loi E(?). En cas de panne de l?une des deux
unite?s, le syste?me continue a? fonctionner avec la probabilite? c. L?unite? en panne est
alors re?pare?e avec un taux e?gal a? х (i.e la dure?e de re?paration est une variable ale?atoire
de loi E(х)). Lorsque le syste?me ne fonctionne plus, on le remplace avec un taux ? par
un syste?me neuf identique.
a) Mode?liser ce syste?me par un processus de Markov a? trois e?tats. En donner
le ge?ne?rateur.
b) Ecrire les e?quations de Kolmogorov. Re?soudre ce syste?me dans le cas
? = 1, х = 1, ? = 1, c = 1/2.
Conclusions ? En de?duire la disponibilite? du syste?me a? l?instant t c?est a? dire
la probabilite? pour qu?a? l?instant t le syste?me soit en e?tat de fonctionner.
c) La notion de dure?e de vie c?est a? dire la dure?e du fonctionnement en continu
est inte?ressante pour l?utilisateur. Pour l?e?tudier, on rend l?e?tat de panne
absorbant en supprimant la possibilite? de re?paration. Ecrire les e?quations
de Kolmogorov relatives a? ce syste?me et le re?soudre pour
? = 1, х = 1, c = 1/2.
En de?duire la loi du comportement en continu. Conclusions ?
Exercice 46. Soit {Zt , t ? 0} un processus de
d?e?tats {1, 2, 3, 4, 5, 6} de ge?ne?rateur ? e?gal a? :
?
?3 2
1
0
0
? 0 ?2 0
2
0
?
? 0
0 ?3 0
1
?
? 0
1
0
?1
0
?
? 0
0
4
0 ?4
0
0
2
0
0
Markov a? valeurs dans l?espace
0
0
2
0
0
?2
?
?
?
?
?
?
?
?
84
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
a) Repre?senter le diagramme de transitions e?le?mentaires de ce processus.
b) Supposons Z0 = 1. Quelle est la loi du temps total passe? dans l?e?tat 1 ?
c) Supposons Z0 = 2. De?terminer la loi de Zt pour tout T ? 0. Il y a t il
convergence en loi de la variable Zt lorsque t tend vers l?infini ?
d) Supposons Z0 = 5. Montrer que, pour tout t ? 0, la loi de la variable Zt
est donne?e par le sextuplet
(0, 0, 2?t (1 ? ?t ), 0, (1 ? ?t )2 , ?t2 )
ou? ?t est une fonction de t que l?on de?terminera. En de?duire la convergence
en loi de la variable Zt lorsque t tend vers l?infini.
e) De?crire l?ensemble des probabilite?s stationnaires.
f) La loi de Z0 e?tant donne?e, quelle est la limite en loi de Zt lorsque t tend
vers l?infini ?
Exercice 47. Un syste?me est de?crit par 3 e?tats diffe?rents. Les e?tats 1 et 2 correspondent au bon fonctionnement du syste?me, alors que l?e?tat 3 correspond a? l?e?tat de
panne. On suppose que l?e?volution du syste?me dans le temps peut e?tre mode?lise?e a?
l?aide d?un processus de Markov (Xt )t?0 a? valeurs dans E = {1, 2, 3} de ge?ne?rateur
?
?
?(? + ?)
?
?
?
?(? + ?) ? ?
?=?
х
0
?х
ou? ?, ? et х sont des constantes strictement positives. On suppose que X0 = 1.
1) Quelles sont les lois de probabilite? invariantes associe?es au ge?ne?rateur ? ? Le
processus (Xt )t?0 converge-t-il en loi ?
2) Quelle est la loi du temps de se?jour dans l?e?tat 1 avant la premie?re visite en 2
ou 3 ?
3) Calculer la probabilite? de l?e?ve?nement
At = ?Le syste?me est en panne au temps t? ,
pour tout t ? 0.
4) On note St le temps total passe? en e?tat de panne entre les instants 0 et t.
Ecrire St comme l?inte?grale entre 0 et t de la fonction indicatrice d?un e?ve?nement
de?pendant du temps. Calculer E[St ], pour tout t ? 0, et
E[St ]
.
t??
t
lim
5) Calculer la probabilite? pour que le syste?me se trouve dans l?e?tat 1 au temps t.
4.2. PROCESSUS DE NAISSANCE ET DE MORT
4.2
4.2.1
85
Processus de naissance et de mort
De?finition
De?finition 4.2.1 Un processus de naissance et de mort est un processus de Markov
homoge?ne a? valeurs dans IN tel que
?i i+1 = ?i ,
?i i?1 = хi ,
?i j = 0 si j 6= i, i ? 1, i + 1 ,
ou? ?i ? 0, хi ? 0 et i ? IN .
Commentaires. On interpre?te un tel processus en admettant que Xt est la taille
d?une population a? l?instant t. Si la population se compose de i individus au temps t, le
taux instantane? de naissance d?un nouvel individu est ?i tandis que le taux instantane?
de disparition d?un individu est хi .
Le ge?ne?rateur d?un processus de naissance et de mort est
?
??0
?0
.
.
? х1 ?(?1 + х1 )
?
.
1
?=?
? 0
х2
?(?2 + х2 ) ?2
0
0
.
.
?
.
. ?
?
. ?
.
Les e?quations de Kolmogorov d?un processus de naissance et de mort sont
p00 = ??0 p0 + х1 p1
p0j = ?j?1 pj?1 ? (?j + хj )pj + хj+1 pj+1 ,
?j ? 1 .
Les processus de naissance purs sont des processus pour lesquels
?i ? IN ,
хi = 0 .
Dans ce cas, nous avons
p00 = ??0 p0
p0j = ?j?1 pj?1 ? ?j pj ,
?j ? 1 .
On retrouve le processus de Poisson d?intensite? ? quand ?i = ?. La solution de ces
e?quations est alors
(?t)j
pj (t) = e??t
, ?j ? 0 .
j!
On dit qu?un processus de naissance et de mort n?explose pas en temps fini si
X
?t ? 0 , P(Xt < ?) =
P(Xt = n) = 1 .
n?IN
Remarque. On peut montrer qu?un processus
de naissance et de mort n?explose pas
P
en temps fini si et seulement si la se?rie
1/?i diverge.
86
4.2.2
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Comportement asymptotique
The?ore?me 4.2.1 Une condition ne?cessaire et suffisante pour qu?un processus de naissance et de mort irre?ductible admette une unique loi stationnaire est que la se?rie
S=
?
X
?0 ?1 . . . ?j?1
х1 х2 . . . хj
j=1
soit convergente. Dans ce cas, la distribution stationnaire est donne?e par
?0 =
1
1+S
et
?j =
De?monstration.
?0 ?1 . . . ?j?1
?0 , ?j ? 1.
х 1 х 2 . . . хj
D?apre?s les re?sultats du paragraphe pre?ce?dent, on doit avoir
?? = 0
et
?
X
?j = 1
j=0
soit
??0 ?0 + х1 ?1
?0 ?0 ? (?1 ?1 + х1 ?1 ) + х2 ?2
?j?1 ?j?1 ? (?j ?j + хj ?j ) + хj+1 ?j+1
.
.
=
=
=
=
=
0
0
0
.
.
De ces premie?res e?quations, on tire
?1 =
?2 =
. =
?j =
. =
?0
?0
х1
?0 ?1
?0
х1 х2
.
?0 ?1 и и и ?j?1
?0
х1 х2 и и и хj
.
La deuxie?me condition s?e?crit donc S?0 + ?0 = 1 soit ?0 = 1/(1 + S). Le syste?me admet
donc une solution ssi S < ?.
4.2. PROCESSUS DE NAISSANCE ET DE MORT
4.2.3
87
Exercices
Exercice 48. - Processus de Yule On conside?re un processus de naissance pur {Xt , t ? 0} dans lequel chacun des
individus peut donner naissance a? un nouvel individu avec un taux ? > 0.
a) Ecrire les e?quations de Kolmogorov de ce processus.
b) En supposant que la population initiale comporte un seul individu, montrer
que la variable Xt est, pour tout t ? 0, de loi G(e??t ).
c) En de?duire que la population n?explose pas en temps fini et donner la taille
moyenne de cette population au temps t.
d) Montrer que la variable Xt e??t converge L2 vers 1 lorsque ? tend vers ze?ro.
Exercice 49. Un biologiste observe une population cellulaire qui e?volue de la manie?re
suivante.
? Le nombre initial de cellules est e?gal a? n > 1 ;
? une cellule se divise aux instants ale?atoires d?un processus de Poisson de parame?tre ? > 0.
? lorsqu?une nouvelle cellule est apparue, son processus de division est inde?pendant
des autres cellules.
Soit Xt le cardinal de la population cellulaire au temps t > 0.
a) Montrer que {Xt ; t ? 0} est un processus de Markov dont on pre?cisera les
taux.
b) A l?aide des e?quations de Kolmogorov, montrer que
E[Xt ] = n exp(?t).
c) Soit T1 < T2 < . . . la suite des instants de cre?ation de nouvelles cellules.
Justifier que les variables Xn = Tn ? Tn?1 sont inde?pendantes. Quelle est
la loi de Xn ?
d) De?montrer
ln(1 + m/n)/? ? E[Tm ] ? ln(1 + m/(n ? 1))/?.
Exercice 50. Un syste?me en pe?riode de test est susceptible de produire un nombre
ale?atoire Nt de de?faillances au temps t > 0. Afin de prendre en compte l?ame?lioration
de ce syste?me au cours du temps, on mode?lise l?intensite? conditionnelle du processus
{Nt , t ? 0} de la manie?re suivante
?t =
?
, ? > 0 , ? > 0.
1 + ?Nt
a) Ve?rifier que {Nt , t ? 0} est un processus de Markov a? valeurs entie?res
dont on de?terminera les taux de transitions.
88
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
b) Montrer que
dE(Nt )
?
= E[
].
dt
1 + ?Nt
c) Ve?rifier que la fonction de?finie pour tout x > 0 par
?
1 + ?x
est convexe. En de?duire, a? l?aide de l?ine?galite? de Jensen,
?
1 + 2??t ? 1
E[Nt ] ?
.
2
Quelle est la loi de l?intervalle de temps Xn se?parant les nie?me et (n+1)ie?me
de?faillances ? Les variables (Xi ) sont elles inde?pendantes ?
Soit Tn l?instant de ne occurrence. Calculer E[Tn ].
De?duire de la question pre?ce?dente les e?quations des estimateurs de maximum de vraisemblance des parame?tres ? et ? au vu d?une observation
(X1 = x1 , . . . , Xn = xn ) des n premiers intervalles inter-de?faillances.
Reprendre la question pre?ce?dente au vu d?une observation (X1 = x1 , . . . , Xn =
xn , Nt = n) du processus au temps t.
g(x) =
d)
e)
f)
g)
4.3
Files d?attente
L?origine des travaux sur les phe?nome?nes d?attente remonte aux anne?es 1909-1920
avec les travaux de A.K. Erlang concernant le re?seau te?le?phonique de Copenhague.
La the?orie mathe?matique s?est ensuite de?veloppe?e notamment gra?ce aux contributions
de Palm, Kolmogorov, Khintchine, Pollaczek etc et fait actuellement toujours l?objet
de nombreuses publications scientifiques. Cette the?orie s?e?tend ensuite a? de nombreux
champs d?application comme la gestion de stocks, les te?le?communications en ge?ne?ral,
la fiabilite? de syste?mes complexes etc. Actuellement, les re?seaux de files d?attente interviennent dans la conception de nouveaux ordinateurs et dans l?e?valuation des performances des syste?mes existants. Voici une liste non exhaustive de proble?mes concrets
aborde?s par la the?orie des files d?attente.
? Combien de lignes te?le?phoniques doit on ge?rer pour que l?attente de communication soit raisonnable ?
? Combien de caisses dans un supermarche? ? Comment adapter le type de guichets
(caisses rapides, etc) et leur nombre au flux des clients ?
? Comment ge?rer les feux de circulation dans une grande agglome?ration afin d?obtenir un trafic fluide ?
? Comment de?terminer le nombre optimal de postes a? un pe?age autoroutier ?
4.3.1
Description d?un syste?me de file d?attente
Un syste?me de file d?attente se de?crit par un processus d?arrive?e de clients, un
me?canisme de service et une discipline d?attente.
4.3. FILES D?ATTENTE
89
A. Processus d?arrive?e. Nous supposons que les clients arrivent inde?pendamment
les uns des autres. Les dure?es inter-arrive?es (Xn )n?1 sont donc inde?pendantes. Nous
supposons de plus que ces variables sont de me?me loi : le processus d?arrive?e est un
processus de renouvellement. Voici une liste d?arrive?es possibles et les notations associe?es :
? arrive?es a? intervalles re?guliers (cha??ne de montage) : D (de?terministe),
? arrive?es poissonniennes : M (Markov),
? arrive?es a? intervalles suivant une loi d?Erlang : Ek e?gale a? la loi gamma G(k, ?),
? arrive?es a? intervalles suivant une loi ge?ne?rale : GI.
B. Discipline de service. Les dure?es de services (Yn )n?1 sont des variables positives
inde?pendantes et de me?me loi. Voici une liste de services possibles et les notations
associe?es :
? services de dure?e constante : D (de?terministe),
? services de dure?e suivant une loi exponentielle : M (Markov),
? services de dure?e suivant une loi d?Erlang : Ek ,
? services de dure?e suivant une loi ge?ne?rale : G.
C. Discipline d?attente. Nous listons ci-dessous les diffe?rentes disciplines d?attente.
FIFO
Premier arrive?, premier servi
FCFS
idem
LIFO
Dernier arrive?, premier servi
LCFS
idem
RSS Se?lection au hasard d?un client en attente
Cette liste n?est pas comple?te. On peut de?finir d?autres types de priorite?. Il faut alors
de?clarer pre?cise?ment la manie?re dont les clients entrent en service. Lorsqu?il y a plusieurs serveurs en particulier, on peut par exemple
? affecter les clients aux serveurs par rotation,
? cre?er une file d?attente unique,
? cre?er une file d?attente par serveur.
D. Classification des files d?attente. Il existe une nomenclature pour classer les
files d?attente. Cette nomenclature est de?finie de la manie?re suivante. Une file d?attente
spe?cifique est de?signe?e par le symbole
Arrive?e / Service / Nombre de serveurs / Capacite? maximale de la file / Nombre
maximal de clients potentiels / Discipline de service
90
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Exemple 4.3.1 La file de?crite par le symbole
M/M/1/5/?/LIFO
est une file dont les arrive?es se font selon un processus de Poisson. Les services suivent
la loi exponentielle et la file est constitue?e d?un unique serveur. On ne peut accepter
plus de 5 clients en attente alors que le nombre de clients potentiels est illimite?. La
discipline de service est celle du dernier arrive? premier servi.
Convention. La plupart du temps seul les trois premiers items sont spe?cifie?s pour
de?crire une file d?attente. Par de?faut, on utilise la convention suivante
? Capacite? maximale de la file : ?
? Nombre maximal de clients potentiels : ?
? Discipline de service : FIFO.
Ainsi la file d?attente
M/M/1/?/?/FIFO
se note simplement
M/M/1 .
Convention. On note ? le taux d?arrive?e des clients. Cela signifie que l?espe?rance de
la dure?e se?parant deux arrive?es successives est
E[X1 ] =
1
.
?
On note х le taux de service. Cela signifie que l?espe?rance de la dure?e de service est
E[Y1 ] =
1
.
х
L?intensite? de trafic s?exprime de la manie?re suivante
?=
?
E[Y1 ]
=
.
х
E[X1 ]
Ce rapport de deux dure?es est une variable sans dimension. On l?exprime pourtant
souvent dans une unite? appele?e Erlang.
Nous notons Xt le nombre de clients en attente ou en service a? l?instant t. La
the?orie des files d?attente s?inte?resse en particulier a? l?e?tude du processus {Xt ; t ? 0}
et a? son comportement asymptotique. Si ce processus admet un re?gime stationnaire
inde?pendamment de la condition initale, nous notons
?n ? 0 ,
et
?n = lim P(Xt = n),
t??
?
X
n=0
?n = 1 .
4.3. FILES D?ATTENTE
91
On dit alors que le processus {Xt ; t ? 0} est re?gulier.
Les notations suivantes seront utiles par la suite. Nous notons L le nombre de
clients dans l?e?tat stationnaire et Lq le nombre de clients en attente dans le re?gime
stationnaire. Ainsi, nous avons, pour la file M/M/1,
?n ? 0 ,
et
q
L =
?n = P(L = n)
L ? 1 si L ? 1 ,
0
si L = 0 .
Nous notons encore W la dure?e de se?jour d?un client en re?gime stationnaire et nous
admettrons finalement la ce?le?bre formule suivante connue sous la de?nomination de
formule de Little
E[L] = ?E[W ] .
Cette formule exprime tout simplement le fait qu?en re?gime stationnaire le nombre
moyen de client dans la file est e?gal au taux d?arrive?e des clients multiplie? par le temps
moyen d?attente des clients. Cette formule rappelle un comportement poissonnien de
la longueur de la file d?attente en re?gime stationnaire.
4.3.2
Files d?attente formant un processus de naissance et de
mort
Une file d?attente simple : M/M/1. Dans une file d?attente M/M/1, les clients se
pre?sentent a? un serveur selon un processus de Poisson de parame?tre ? et sont servis les
uns apre?s les autres. Les dure?es de service sont inde?pendantes et de loi exponentielle
de parame?tre х. Nous nous inte?ressons a? l?e?volution du nombre Xt de clients pre?sents
dans la file d?attente ou en service au temps t > 0. Le processus {Xt ; t ? 0} est un
processus de naissance et de mort de taux
?i ? IN ,
?i = ? ,
хi = х .
Posons ? = ?/х. La se?rie S s?e?crit
S = ? + ?2 + ?3 + . . .
Elle converge ssi ? < х. On a alors
?j ? IN ,
?j = (1 ? ?)?j
et ? est une loi ge?ome?trique de?cale?e a? gauche (i.e partant de 0).
La condition ? < х est bien entendu e?quivalente a? la condition ? < 1. Ainsi, un
re?gime stationnaire peut exister si (et seulement si) l?intensite? de trafic est infe?rieure a?
cent pour cent. On voit de plus l?importance synthe?tique que joue ce parame?tre lorsque
l?on calcule le nombre moyen de clients en re?gime stationnaire
E[L] =
?
X
n=0
n?n =
?
,
1??
92
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
la longueur moyenne de la file d?attente
q
E[L ] = E[(L ? 1)11(L?1) ] =
?
X
(n ? 1)?n =
n=1
?2
,
1??
et la dure?e moyenne d?attente en re?gime stationnaire
E[W ] =
?
.
?(1 ? ?)
Nous pouvons e?noncer le re?sultat suivant.
Proposition 4.3.1 Soit 0 < ? < х. Dans le syste?me M/M/1, la variable ale?atoire W
e?gale a? la dure?e de se?jour des clients dans le syste?me en re?gime stationnaire suit une
loi exponentielle de parame?tre х(1 ? ?) = х ? ?.
De?monstration.
arrive, nous avons
Sachant qu?il y a n clients dans le syste?me lorsqu?un nouveau client
W = Y1 + . . . + Yn+1 .
Le temps d?attente du nouveau client est la somme de n + 1 dure?es de services : celle
du nouveau client, celle du client en service, plus celles des (n ? 1) autres clients. Un
conditionnement classique donne la densite? de la variable W
?t ? 0 ,
fW (t) =
?
X
?n fY1 +...+Yn+1 (t) .
n=0
En prenant la transforme?e de Laplace des deux termes, nous obtenons
LfW (s) =
?
X
?n [LfY1 (s)]n+1
n=0
= (1 ? ?)
?
X
?
n
n=0
=
х
х+s
n+1
(1 ? ?)х
(1 ? ?)х + s
D?ou?, apre?s inversion
?t ? 0 ,
Commentaires.
formule de Little.
fW (t) = (1 ? ?)хe?(1??)хt .
Il est possible, dans ce cas tre?s simple de ve?rifier sans difficulte? la
Application. Temps de re?ponse d?un ordinateur.
Conside?rons un ordinateur ne
tole?rant qu?un seul utilisateur de son processeur a? la fois. On connecte n terminaux a?
4.3. FILES D?ATTENTE
93
cet ordinateur. Le fonctionnement de ce syste?me va alors e?tre identique a? celui d?une file
d?attente M/M/1. Supposons que le temps de traitement d?une ta?che sur le processeur
soit exponentiellement distribue? de moyenne 500 ms. Supposons encore que l?intervalle
de temps entre deux reque?tes provenant d?un me?me terminal suive une loi exponentielle
de moyenne 20 s. Les parame?tres de la file d?attente sont alors
х=2
et
?=
n
.
20
Le taux ? = n/20 se justifie si l?on se rappelle qu?une superposition de processus de
Poisson inde?pendants de parame?tre ? est a? nouveau un processus de Poisson dont le
parame?tre est n?. Par de?finition, le temps de re?ponse sera e?gal a? l?espe?rance du temps
d?attente dans le syste?me c.a.d E[W ]. Les calculs pre?ce?dents ont montre? que
E[W ] =
1
20
=
.
х??
40 ? n
La condition a? imposer pour que l?ordinateur puisse traiter toutes les ta?ches est
?<х
soit
n < 40 .
Pour n = 36 par exemple, nous trouvons un temps de re?ponse e?gal a? 5 secondes. On
verra que si l?ordinateur tole?re deux utilisateurs simultane?ment, le mode?le mathe?matique
est M/M/2 et le temps de re?ponse pour 36 terminaux devient
E[W ] = 0.28 sec,
soit un temps de re?ponse vingt fois moindre.
La file d?attente M/M/s. Dans cette file d?attente, les arrive?es se font selon un
processus de Poisson de parame?tre ?, les temps de services sont des variables ale?atoires
de loi exponentielle de parame?tre х. A la diffe?rence de la file M/M/1, le syste?me n?est
pas constitue? d?un unique serveur mais d?un nombre arbitraire s de serveurs (s ? 1).
dans ce cas, on a encore un processus de naissance et de mort avec, pour tout n ? 0,
?n = ?
et
хn =
nх si n ? s,
sх si n > s.
On conside?re pour ce syste?me une intensite? de trafic normalise?e par le nombre de
serveurs
?
?=
.
sх
94
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Le re?gime stationnaire du processus de naissance et mort associe? existe si et seulement
si
?<1.
Nous avons, pour tout n ? 0,
?n =
?
?
(s?)n
?0
n!
si n ? s,
?
(s?)n
?
s!sn?s 0
si n > s
et
?0 =
" s?1
X (s?)n
n=0
(s?)s
+
n!
s!(1 ? ?)
#?1
.
Exercice 51. De?montrer que la longueur moyenne de la file d?attente en re?gime
stationnaire est e?gale a?
ss ?s+1
E[Lq ] =
?0
(1 ? ?)2 s!
Solution. La longueur Lq est e?gale a? 0 si L ? s et elle est e?gale a? L ? s sinon. Nous
avons donc
?
?
X
(s?)n
s s ?s X n
q
(n ? s) n?s =
E[L ] =
? .
s!s
s! n=1
n=s+1
La file d?attente M/M/1/k. Dans cette file d?attente markovienne, il n?y a qu?un
seul serveur, mais la capacite? du syste?me est limite?e a? k clients au total. Cela signifie que
les clients qui arrivent lorsque le syste?me est sature? sont de?finitivement rejete?s. Avec
les conventions de notation utilise?es pre?ce?demment, nous avons affaire a? un processus
de naissance et de mort de taux de?finis pour tout n ? 0 par
хn = х
et
?n =
? si n < k,
0 si n ? k.
Puisque la capacite? est limite?e, nous obtenons un re?gime stationnaire inde?pendant des
conditions initiales quelle que soit la valeur de l?intensite? de trafic ? = ?/х. Nous avons
?n ? 0 ,
et, pour ? 6= 1,
?0 =
?n = ?0 ?n
1??
.
1 ? ?k+1
4.3. FILES D?ATTENTE
95
Exercice 52.
Pour ? 6= 1, montrer que le nombre moyen de clients en re?gime
stationnaire est e?gal a?
?
(k + 1)?k+1
E[L] =
?
.
1??
1 ? ?k+1
4.3.3
Files d?attente M/GI/1.
Des clients arrivent a? une unite? de service a? des instants ale?atoires suivant un
processus de Poisson homoge?ne d?intensite? ? > 0. Quand le serveur est occupe?, les
clients attendent leur tour. Les dure?es de service des clients successifs sont des variables
ale?atoires re?elles inde?pendantes de me?me loi de probabilite? de fonction de re?partition
G et de moyenne х1 et de variance ? 2 . Pour tout n > 0, on note Xn le nombre total de
e
clients dans l?unite? de service a? l?instant de de?part du n client servi et An le nombre
e
de clients arrive?s pendant le service du n client.
Proposition 4.3.2 La suite (Xn )
?
a0
? a0
?
? 0
?
? 0
0
est une cha??ne de Markov de matrice de transition
?
a1 a2 a3 .
?
a1 a2 a3 .
?
?
a0 a1 a2 a3
?
?
0
.
. .
0
0
. . .
ou?
Z
?k ? 0 ,
ak =
0
De?monstration.
?
e??t (?t)k
dG(t) .
k!
La de?monstration s?appuie sur la remarque suivante. Pour tout n,
Xn ? 1 + An+1 si Xn > 0,
Xn+1 =
An+1
si Xn = 0.
Par le caracte?re poissonnien du processus d?arrive?e, la variable ale?atoire An+1 est
inde?pendante des variables Xn , . . . , X1 . En conse?quent, le processus (Xn ) posse?de la
proprie?te? de Markov. De plus, nous avons
P(An+1 = j ? i + 1) si i > 0 ,
P(Xn+1 = j | Xn = i) =
P(An+1 = j)
si i = 0 .
Les variables (An ) sont inde?pendantes et de me?me loi. La cha??ne (Xn ) est donc hoe
moge?ne. Sachant que la dure?e du n service est e?gale a? t, nous avons
e
P(An = k | dure?e du n service = t) =
e??t (?t)k
.
k!
96
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Ainsi, apre?s conditionnement, nous avons
Z
?
ak = P(An = k) =
0
e??t (?t)k
dG(t) .
k!
Commentaires. L?approche utilise?e lors de la la de?monstration de ce re?sultat consiste
a? associer au processus {Xt , t ? 0} qui n?est pas markovien, des instants ?1 , ?2 , . . . pour
lesquels (X?n ) est une cha??ne de Markov. Cette cha??ne de Markov est appele?e cha??ne
incluse du processus et les instants ?1 , ?2 , . . . sont appele?s instants de re?ge?ne?ration du
processus. Cette approche est permise par l?hypothe?se d?arrive?e poissonnienne et ne
pourrait e?tre utilise?e dans le cadre d?une file d?attente GI/GI/1 par exemple...
Nous e?tudions maintenant le comportement asymptotique de la file d?attente a? travers
le comportement de la cha??ne incluse.
Proposition 4.3.3 La cha??ne de Markov (Xn ) est irre?ductible, ape?riodique. Elle admet une unique loi de probabilite? invariante si et seulement si
?=
?
<1.
х
Dans ce cas, nous avons
?k ? 0 ,
lim P(Xn = k) = ?k ,
n??
ou? ? est une loi de probabilite? sur N de fonction ge?ne?ratrice e?gale a?
?|z| < 1 ,
G(z) =
ou?
A(z) =
?
X
(1 ? ?)A(z)
1?
1?A(z)
1?z
.
ak z k .
k=0
De?monstration.
Cherchons les solutions du syste?me ? = ?P . Il s?e?crit ici
?n = an (?0 + ?1 ) + an?1 ?2 + и и и + a0 ?n+1 , n ? 0 .
Multiplions par z n . En sommant toutes les e?quations, nous obtenons
G(z) = (?0 + ?1 )A(z) + ?2 zA(z) + ?3 z 2 A(z) + и и и
A(z)
= ?0 A(z) +
[G(z) ? ?0 ]
z
4.3. FILES D?ATTENTE
97
On tire de cette e?quation
G(z) =
?0 A(z)
1?
1?A(z)
1?z
.
Cette e?quation admet une solution convenable si G(1) = 1. Comme A(1) = 1 et
lim
z?1
1 ? A(z)
= A0 (1) = ? ,
1?z
il faut donc que
?0 = 1 ? ? > 0 .
Ceci e?quivaut a?
?<1.
Nous terminons ce paragraphe en e?noncant la formule de Pollaczek-Khintchine. Cette
formule de?crit le temps moyen passe? dans le syste?me en re?gime stationnaire.
Proposition 4.3.4 (Pollaczek-Khintchine) Pour la file M/GI/1, nous avons
E[W ] =
De?monstration.
1 ? 2 ? 2 + ?2
+
.
х 2?(1 ? ?)
Conside?rons la fonction de Heavyside
0 si x ? 0 ,
?x ? IR , H(x) =
1 si x > 0 .
La variable Xn+1 se re?e?crit
Xn+1 = Xn + An+1 ? H(Xn ) .
Elevons les deux membres au carre?
2
E[Xn+1
] = E[Xn2 ]+E[A2n+1 ]+E[U 2 (Xn )]+2E[Xn An+1 ]?2E[Xn U (Xn )]?2E[An+1 U (Xn )] .
Soit L la longueur de la file en re?gime stationnaire. Nous avons
lim E[Xn ] = E[L] .
n??
Notons que
E[H(Xn )] = P(Xn > 0)
et que
lim E[H(Xn )] = lim E[An ] = 1 ? ?0 = ? .
n??
n??
Apre?s calculs, il vient
0 = lim E[A2n+1 ] + ? + 2?E[L] ? 2E[L] ? 2?2 .
n??
Comme V ar(An+1 ) = ?2 ? 2 +?2 (exercice a? traiter a? l?aide de la transforme?e de Laplace),
on a
? 2 ? 2 + ?2
E[L] = ? +
.
2?(1 ? ?)
Le re?sultat de?coule de la formule de Little.
98
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
4.3.4
Exercices
Exercice 53.
De?terminer la loi stationnaire de la file d?attente M/M/s/k.
Exercice 54. De?terminer la loi stationnaire de la file d?attente M/M/1/?/k. Calculer
E[L].
Exercice 55.
E[L].
De?terminer la loi stationnaire de la file d?attente M/M/?. Calculer
Exercice 56. Salon de coiffure.
Des clients arrivent dans un salon de coiffure
pour hommes suivant un processus de Poisson homoge?ne d?intensite? ?. Une proportion
p d?entre eux de?sirent une coupe de cheveux et 1 ? p un rasage. Les dure?es de service
sont de lois exponentielles de parame?tres х1 et х2 dans chaque cas. Lorsqu?un client
arrive et trouve deux clients (1 en service, 1 en attente), il se de?courage.
Soit Xt l?e?tat du salon a? l?instant t. Il y a cinq e?tats possibles.
a) 0 : pas de clients ;
b) 1 et 2 : 1 ou 2 clients, celui qui est en service se fait coiffer ;
c) 3 et 4 : 1 ou 2 clients, celui qui est en service se fait raser.
Quelle est la proportion de clients perdus en re?gime stationnaire ?
Exercice 57. Un serveur est sollicite? par l?arrive?e de clients selon un processus
de Poisson de parame?tre ? = 1. Les dure?es de service des clients sont des variables
ale?atoires inde?pendantes de loi E(х), х = 1. Le serveur traite une seule reque?te a? la fois
et tole?re au plus un client en attente. Les clients qui arrivent et trouvent le syste?me
sature? sont rejete?s.
a) Montrer que l?on peut mode?liser l?e?volution ce syste?me a? l?aide d?un processus de Markov a? trois e?tats. Donner le graphe de transition de ce processus
en pre?cisant les taux associe?s.
b) Ecrire les e?quations de Kolmogorov associe?es a? ce processus.
c) Exprimer la probabilite? qu?un client soit rejete? au temps t.
d) Chaque service occasionne un gain ? > 0 pour le serveur. Quel est le gain
asymptotique moyen par unite? de temps ?
Exercice 58. Des clients arrivent dans un syste?me constitue? de deux serveurs. Le
processus de comptage associe? a? l?arrive?e des clients est un processus de Poisson de
parame?tre ? > 0. Lorsqu?un client trouve les deux serveurs libres, il se dirige vers l?un
d?entre eux avec une probabilite? e?gale a? 1/2. Lorsqu?un serveur est occupe? et l?autre
libre, le client se dirige vers le serveur libre. Lorsque les deux serveurs sont occupe?s,
le client est rejete? de?finitivement du syste?me. A l?instant initial, les deux serveurs
sont libres. Toutes les dure?es de services sont inde?pendantes et de loi exponentielle de
parame?tre х > 0.
4.3. FILES D?ATTENTE
99
a) Montrer que l?on peut mode?liser l?e?volution du nombre de clients pre?sents
dans le syste?me par un processus de Markov a? valeurs dans {0, 1, 2}, de
ge?ne?rateur
?
?
??
?
0
? = ? х ?(? + х) ? ? .
0
2х
?2х
Montrer que ce processus admet une unique loi stationnaire. De?terminer
cette loi.
b) On suppose de?sormais que ? = х = 1. Quelle est la probabilite? stationnaire
pour qu?un client soit rejete? du syste?me a? son arrive?e ? Quel est le nombre
moyen de clients pre?sents dans le syste?me en re?gime stationnaire ?
c) On note p2 (t) la probabilite? pour que les deux serveurs soient occupe?s au
temps t > 0. Montrer que p2 est solution du proble?me diffe?rentiel
p002 = ?5p02 ? 5p2 + 1
p2 (0) = p02 (0) = 0
En de?duire l?expression de p2 (t) pour tout t > 0.
Exercice 59. Temps passe? dans la file M/M/1.
Des clients se pre?sentent a? un
serveur inde?pendamment les uns des autres. Nous supposons que les dure?es se?parant
deux arrive?es conse?cutives sont des variables ale?atoires de loi exponentielle de parame?tre ? < 1. Les clients sont servis par ordre d?arrive?e, puis sortent du syste?me. Les
dure?es de services sont inde?pendantes et de loi exponentielle de parame?tre 1. Soit Nt
le nombre de clients pre?sents dans le syste?me au temps t.
1) Soit h > 0 et n ? 1. De?montrer que
P(Nt+h = n + 1 | Nt = n) = ?h + o(h),
et
P(Nt+h = n ? 1 | Nt = n) = h + o(h).
2) Montrer que (Nt ) est un processus de Markov homoge?ne a? valeurs dans IN.
De?crire le ge?ne?rateur ale?atoire de ce processus.
3) De?montrer que le processus (Nt ) admet une mesure de probabilite? invariante ?
unique telle que
?i ? IN, ?i = K?i , K > 0.
De?duire la valeur de K.
On suppose de?sormais et dans le reste du proble?me que le syste?me est a? l?e?quilibre,
c?est a? dire P(N0 = i) = ?i , et on s?inte?resse au temps total T que passe un client
dans le syste?me.
100
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
4) Soit Si+1 une variable ale?atoire de loi Gamma G(i+1, 1). A? l?aide d?un argument
de conditionnement, de?montrer que
P(T ? t) = K
?
X
?i P(Si+1 ? t).
i=0
5) En introduisant la loi de Poisson, de?montrer que
?t
P(Si+1 ? t) = e
X tj
j>i
j!
.
6) En de?duire la loi de T et le temps moyen passe? par un client dans le syste?me.
Exercice 60. Un syste?me est constitue? de n serveurs inde?pendants. Chaque serveur
est susceptible d?e?tre libre (e?tat 0) ou occupe? (e?tat 1). La dure?e d?un service est une
variable ale?atoire de loi exponentielle de parame?tre х > 0. Lorsque le serveur est libre,
il le reste pendant une dure?e de loi exponentielle de parame?tre 1. Toutes les dure?es
sont inde?pendantes.
1) On suppose que n = 1 et qu?au temps t = 0, le serveur est libre.
De?terminer la probabilite? pour que le serveur soit occupe? au temps t > 0. Soit
T une variable ale?atoire de loi exponentielle de parame?tre ? > 0, inde?pendante
du syste?me. De?duire du calcul pre?ce?dent la probabilite? pour que le serveur soit
occupe? au temps T .
2) On suppose de?sormais que n > 1. Soit Nt le nombre de serveurs occupe?s au
temps t > 0.
a) Soit i un entier strictement positif et X1 , . . . , Xi des variables ale?atoires inde?pendantes de loi exponentielle de parame?tre ? > 0. De?terminer la loi de la
variable
Yi = min X` .
1?`?i
b) Montrer que (Nt ) est un processus de Markov homoge?ne de taux de transition
?
? ?i,i+1 = n ? i si 0 ? i < n
?i,i?1 = iх
si 0 < i ? n
?
?i,j = 0
si j 6= i ? 1, i, i + 1.
Donner le ge?ne?rateur infinite?simal ? de ce processus ainsi que son graphe de
transition.
3) On pose ? = 1/х. Montrer que le processus converge en loi vers une unique loi
invariante ? telle que
?1 ? i ? n, ?i = Cni ?i ?0 .
Reconna??tre dans la loi invariante une loi connue.
4) On suppose que n = 30 et х = 2. A? l?aide du the?ore?me central limite, donner
une valeur approche?e de la probabilite? pour que, en re?gime stationnaire, au moins
80% des serveurs soient libres.
4.3. FILES D?ATTENTE
101
5) On conside?re a? nouveau la variable T de la question 1). Calculer le nombre
moyen de clients dans le syste?me au temps T sachant que N0 = 0.
Exercice 61.
File d?attente M/G/? - Un mode?le de migration.
Des oiseaux migrateurs arrivent dans une zone A selon un processus de Poisson
d?intensite? ? > 0 et y se?journent un temps ale?atoire de fonction de re?partition G avant
de repartir. On note Xt le nombre d?oiseaux repartis de la zone au temps t > 0 et Yt
le nombre d?oiseaux encore pre?sents dans la zone au temps t (Xt + Yt = Nt ).
a) Soit 0 < s ? t. Quelle est la probabilite? p(s) pour qu?un oiseau arrive? au
temps s soit parti au temps t ?
b) Montrer que Xt et Yt sont des variables de loi de Poisson dont on de?terminera
les moyennes respectives.
c) Soit s, t > 0. Calculer les probabilite?s associe?es aux occurrences (arrive?es
d?oiseau) de types suivants
? type 1 : un oiseau arrive avant t et repart entre t et t + s :
? type 2 : un oiseau arrive avant t et repart apre?s t + s ;
? type 3 : un oiseau arrive entre t et t + s et repart apre?s t + s ;
? type 4 : tous les autres cas de figure.
i
d) Soit N i = Nt+s
le nombre d?occurrences de type i = 1, 2, 3, 4 au temps t+s.
Quelle est la loi de N i , i = 1, 2, 3, 4.
Ve?rifier que
Yt = N1 + N2
et
Yt+s = N2 + N3 .
Calculer Cov[Yt , Yt+s ].
Exercice 62.
A? propos de la file M/M/1. Partie 1.
Un syste?me est
constitue? d?une file d?attente de type M/M/1. Le processus d?arrive?e des clients dans
le syste?me est un processus de Poisson de parame?tre ? > 0. Les dure?es de services sont
inde?pendantes et de loi exponentielle de parame?tre х > 0. On note Xt le nombre de
clients dans le syste?me au temps t ? 0. On conside?re le premier instant pour lequel ce
nombre est e?gal a? n ? 1 :
Tn = inf{t ? 0 ; Xt = n} .
Pour tout m ? n ? 1, on note Fm,n la fonction de re?partition de la loi conditionnelle
de la variable Tn sachant X0 = m
?t ? 0 ,
Fm,n (t) = P(Tn ? t | X0 = m)
et fm,n la densite? de probabilite? associe?e.
1) De?terminer F0,1 et f0,1 .
102
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
2) On suppose que n ? 2 et m ? n ? 2. Montrer que
Z t
Fm+1,n (t ? x)dFm,m+1 (x) .
?t ? 0 , Fm,n (t) =
0
3) On note ?m,n la transforme?e de Laplace de la fonction fm,n . Montrer que
?s > 0 , n ? 2 ,
?0,n (s) = ?0,1 (s) ?1,2 (s) . . . ?n?1,n (s) .
4) Soit ?m la dure?e de se?jour dans l?e?tat m, 1 ? m ? n ? 1.
a) Quelle est la loi de ?m ?
b) Montrer que
Z t
?
х
?t ? 0 , Fm,m+1 (t) =
Fm?1,m+1 (t?x)(?+х)e?(?+х)x dx .
P(?m ? t)+
?+х
?+х 0
c) A l?aide des questions 2 et 4b), montrer que
?s > 0 ,
?m,m+1 (s) =
?
.
s + ? + х(1 ? ?m?1,m (s))
d) Calculer ?0,1 , ?1,2 , ?2,3 et ?0,3 .
e) Ve?rifier que
3 2х х2
E[T3 | X0 = 0] = + 2 + 3 .
? ?
?
5) Soit n ? 2. On note ? = х/?.
a) Montrer que
E[Tn | X0 = n ? 1] =
1
(1 + хE[Tn?1 | X0 = n ? 2]) .
?
b) En de?duire que
E[Tn | X0 = n ? 1] =
n
X
?i
i=1
х
.
c) Montrer que
E[Tn | X0 = 0] =
n
X
E[Ti | X0 = i ? 1] .
i=1
d) En de?duire la valeur de E[Tn | X0 = 0] pour ? 6= 1. Quelle est la valeur de
cette espe?rance pour ? = 1 ? Commenter ces diffe?rents re?sultats en fonction
des valeurs de ?.
Exercice 63. A? propos de la file M/M/1. Partie 2.
On suppose maintenant que la capacite? de la file d?attente est limite?e. Le nombre de
clients dans le syste?me (en service ou en attente) ne peut exce?der K = 3. Un client qui
trouve le syste?me sature? a? son arrive?e est de?finitivement rejete?. On note Zt le nombre
de clients dans le syste?me au temps t ? 0. On suppose que Z0 = 0.
4.3. FILES D?ATTENTE
103
1) E?crire les e?quations de Kolmogorov associe?es au processus de Markov {Zt ; t ?
0}. De?crire la loi stationnaire de ce processus.
2) En re?gime stationnaire, quel est le nombre moyen de clients rejete?s par unite? de
temps ?
3) Lorsque le syste?me atteint l?e?tat de saturation, il est instantane?ment re?initialise?
a? ze?ro. Tous les clients sont ainsi perdus. Cette re?initialisation engendre un cou?t
ale?atoire Yi d?espe?rance finie e?gale a? ?. On suppose que les variables Yi sont
inde?pendantes. De?terminer la valeur de la limite
c = lim
E[
PNt
t??
i=1
Yi ]
t
,
Nt de?signe le nombre de fois ou? le syste?me atteint l?e?tat de saturation dans
l?intervalle de temps (0, t).
Exercice 64. Des clients arrivent a? un serveur selon un processus de Poisson de
parame?tre ? = 1. Les dure?es de service sont des variables ale?atoires inde?pendantes de loi
exponentielle de parame?tre х > 0. On conside?re que le syste?me bloque instantane?ment
lorsque n clients se trouvent dans le syste?me (n ? 1). Lors d?un blocage, tous les clients
pre?sents sont perdus, et la dure?e de remise en fonction du syste?me est une variable
ale?atoire de loi exponentielle de parame?tre ? > 0. On mode?lise l?e?tat de cette file
d?attente au temps t ? 0 a? l?aide d?une variable ale?atoire Xt a? valeurs dans l?ensemble
{0, 1, . . . , n ? 1, B}. Les valeurs entie?res correspondent au nombre de clients dans le
syste?me et le symbole B a? l?e?tat de blocage.
1) Soit h > 0 et i = 0, . . . , n ? 2. Montrer que P(Xh = i + 1 | X0 = i) = h + o(h)
et que P(Xh = B | X0 = n ? 1) = h + o(h) . Pour tout i = 1, . . . , n ? 1, montrer
que P(Xh = i ? 1 | X0 = i) = хh + o(h) .
2) Justifier que (Xt )t?0 est un processus de Markov. Donner son ge?ne?rateur infinite?simal et son graphe de transition.
3) On conside?re la loi de probabilite? ? de?finie sur l?ensemble {0, 1, . . . , n ? 1, B} de
la manie?re suivante. Pour tout k = 1, . . . , n,
?n?k = ??B
k?1
X
хi .
i=0
Montrer que la loi ? est invariante pour le processus (Xt )t?0 . Montrer que
?B =
(1 ? х)2
.
(1 ? х)2 + ? (n(1 ? х) ? х(1 ? хn ))
La variable Xt converge-t-elle en loi lorsque t tend vers l?infini ?
4) On suppose que n = 3, х = 2 et ? = 0.5. Combien de clients en moyenne sont
pre?sents dans le syste?me en re?gime stationnaire ?
5) On suppose que n = 2 et que le syste?me ne comporte aucun client a? l?instant
initial. On conside?re la variable ale?atoire T e?gale a? l?instant de premier blocage,
104
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
ainsi que sa fonction re?partition note?e F . Montrer que F est solution de l?e?quation
differentielle
F 00 + (2 + х)F 0 + F = 1 .
(On pourra utiliser les equations de Kolmogorov associe?es au processus correspondant a? ? = 0). Re?soudre cette e?quation diffe?rentielle.
Exercice 65. Des clients arrivent a? un serveur selon un processus de Poisson de
parame?tre ? > 0 et sont servis selon des dure?es de loi exponentielle de parame?tre х. Le
serveur est susceptible d?e?tre en e?tat de blocage pour une raison inde?pendante des arrive?es de clients (panne du serveur, par exemple). La transition vers un e?tat de blocage
s?effectue avec un taux e?gal a? ? et les dure?es de blocage sont de loi exponentielle de
parame?tre ?. A chaque service est associe? un gain positif ale?atoire X, de loi exponentielle de moyenne ?. A chaque blocage est associe?e une perte Y e?gale a? ? fois la dure?e
de blocage. De plus, lors d?un blocage, tous les clients de la file d?attente sont perdus.
Afin d?augmenter le profit re?alise?, on de?cide d?installer un second serveur. Le ro?le
du second serveur est de relayer le premier en cas de blocage. On dira que le potentiel
de relais de ce serveur est p s?il peut couvrir la proportion p des blocages. L?installation
du serveur de relais a un cou?t qui est fonction de son potentiel de relais
C(p) = Kp2 .
L?objectif de ce (gros) exercice est de de?terminer la valeur de p qui maximise le profit
re?alise? en moyenne sur une pe?riode fixe?e de longueur T . Il comporte une partie the?orique
dans laquelle on essayera de de?terminer une approximation convenable du profit moyen
a? l?aide des outils standards du cours (formule de Wald, processus de Poisson compose?s,
renouvellement, etc). Il comportera une partie pratique ou? l?on simulera la variable de
profit pour diffe?rentes valeurs de p. On sugge?re d?analyser les donne?es produites par la
simulation a? l?aide des me?thodes de re?gression line?aire.
Pour fixer les ide?es, on pourra choisir les diffe?rents parame?tres de la manie?re suivante
1.0
?
х
1.5
?
0.5
?
1.0
?
1.0
?
1.0
K 4 ? 40
T 10 ? 100
Exercice 66. On conside?re une file d?attente M/M/1/k de taux d?arrive?e e?gal a? ?
et de taux de service e?gal a? х. On note Lk la taille de la file en re?gime stationnaire.
4.3. FILES D?ATTENTE
105
a) Montrer que
?n ? k ,
P(Lk = n) = P(L? = n | L? ? k) .
b) Calculer la longueur moyenne de la file d?attente en re?gime stationnaire.
En de?duire le temps moyen passe? par un client dans le syste?me en re?gime
stationnaire.
Exercice 67. Une forme produit pour deux files d?attente en re?seau.
Des clients en sortie d?une file M/M/1 sont dirige?s vers un second serveur dont
les dure?es de service sont de loi exponentielle de me?me parame?tre que dans le premier
serveur. On note Xt le nombre de clients pre?sents dans le premier service au temps t et
Yt le nombre de clients pre?sents dans le second. Montrer que le couple (Xt , Yt ) converge
en loi et que asymptotiquement, les deux variables sont inde?pendantes. En de?duire les
lois marginales asymptotiques.
106
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Chapitre 5
Mouvement brownien et diffusions
Le mouvement brownien est le plus ce?le?bre des processus ale?atoires. Il doit son
appellation au biologiste anglais Brown qui le de?couvre en 1828 lors de l?observation
du mouvement extre?mement de?sordonne? des particules de pollen dans un fluide. La
the?orie mathe?matique a de?bute? en 1900-1905 (Bachelier, Enstein) et s?est poursuivie
vers 1930 jusqu?a? nos jours. Ce processus intervient maintenant dans de nombreux
mode?les de phe?nome?nes naturels, physiques ou e?conomiques.
5.1
5.1.1
Limite de marches ale?atoires
Marche ale?atoire dans Zd
Une marche ale?atoire dans Zd est une cha??ne de Markov en temps discret qui visite
des points ale?atoirement dans cet ensemble en modifiant de la valeur +1 ou -1 une
coordonne?e du point courant. Afin de de?finir rigoureusement cette cha??ne de Markov,
conside?rons l?ensemble des directions de Zd . Cet ensemble est constitue? des d vecteurs
unitaires e1 , . . . , ed et de leurs vecteurs oppose?s ?e1 , . . . , ?ed (2d directions au total).
Soit
Y = T(Y1 , . . . , Yd )
un vecteur ale?atoire de loi uniforme sur l?ensemble de ces directions
?i ? d ,
P(Y = ei ) = P(Y = ?ei ) =
1
.
2d
Des calculs e?le?mentaires montrent que, pour tout k = 1, . . . , d,
P(Yk = 1) = P(Yk = ?1) =
et
1
.
d
En conse?quence, le vecteur Y est d?espe?rance nulle
P(Yk = 0) = 1 ?
E[Y ] = 0
107
1
2d
108
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
et de matrice de covariance diagonale (homothe?tique)
KY =
1
I
d
ou? I est la matrice identite? de dimension d О d. Conside?rons une suite (Yn ) de vecteurs
ale?atoires inde?pendants de me?me loi que Y . La suite de?finie par
?n ? 1 ,
Xn = Y1 + . . . + Yn
est appele?e marche ale?atoire dans Zd .
Proprie?tes des marches ale?atoires Certaines proprie?te?s de la suite (Xn ) de?coulent
imme?diatement de sa de?finition. En particulier,
a) le processus a? temps discret {Xn , n ? 1} est un processus a? accroissements
inde?pendants. En effet, les accroissements sont de?finis de la manie?re suivante
?n, k ? 1 ,
Xn,k = Xn+k ? Xn = Yn+1 + . . . + Yn+k .
Par l?inde?pendance des variables de la suite (Yn ), les accroissements distincts et disjoints sont ne?cessairement inde?pendants.
b) Le processus a? temps discret {Xn , n ? 1} est une cha??ne de Markov homoge?ne sur l?ensemble Zd . Les probabilite?s de transition d?une telle cha??ne
sont donne?es par les relations suivantes
d
?i, j ? Z ,
pij =
1
2d
0
si ki ? jk = 1
si ki ? jk =
6 1.
c) L?espe?rance et la matrice de covariance de la variable Yn se calculent facilement. Nous avons
?n ? 1 ,
E[Xn ] =
n
X
E[Yk ] = 0
k=1
et
?n ? 1 ,
KXn = nKY1 =
n
I
d
Notons finalement que la valeur quadratique moyenne d?une marche ale?atoire est
toujours e?gale a?
n
X
2
E[||Xn || ] =
E[kYk k2 ] = n .
k=1
5.1. LIMITE DE MARCHES ALE?ATOIRES
109
Proprie?te? de re?currence. On dit qu?un e?tat d?une cha??ne de Markov a? temps discret est re?current si la cha??ne y revient presque-su?rement au bout d?un nombre fini
d?e?tapes. Conside?rons une matrice de transition P de?finie sur un ensemble d?e?tats E
de?nombrable. Deux e?tats i et j sont e?quivalents si
?m, n ? 1 ;
pm
ij > 0
et
pnji > 0 .
Pour cette relation, la re?currence est une proprie?te? de classe. Si deux e?tats i et j sont
dans la me?me classe d?e?quivalence alors i est re?current si et seulement si j l?est. Le
re?sultat suivant nous servira par la suite a? caracte?riser la proprie?te? de re?currence.
Proposition 5.1.1 Soit P une matrice de transition de?finie sur un ensemble d?e?tats
E de?nombrable. Alors, i ? E est re?current si et seulement si
?
X
pnii = +? .
n=1
Commentaires. Nous pouvons conside?rer que la proprie?te? de?crite ci-dessus est une
de?finition de la re?currence de l?e?tat i. Pour l?interpre?ter, notons que la condition
?
X
P (Xn = i | X0 = i) < ?
n=1
implique que les e?ve?nements (Xn = i) se produisent p.s en nombre fini, d?apre?s le
lemme de Borel-Cantelli. De plus, pour compter le nombre de retours en i, nous posons
X
Ni =
1 (Xn =i) .
n=1
Conditionnellement au de?part en i, la condition e?nonce simplement que le nombre
moyen de retours est infini
E[Ni | X0 = i] =
?
X
pnii = ?.
n=1
Nous appliquons maintenant ce re?sultat a? l?e?tude des marches ale?atoires sur E = Z,
E = Z2 et E = Z3 . Dans les trois cas, les cha??nes de Markov sont irre?ductibles. Il suffit
donc d?e?tudier la re?currence de l?e?tat i = 0.
Exemple 5.1.1 Marche ale?atoire dans Z.
Solution. La marche ale?atoire dans Z est de?finie de la manie?re suivante. Soit 0 <
p < 1 et q = (1 ? p), alors
P(Y = +1) = p
110
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
et
P(Y = ?1) = q .
La probabilite? d?e?tre en 0 a? l?e?tape 2n est donne?e par
n n n
p2n
00 = C2n p q =
(2n)! n n
p q
n!n!
A? l?e?tape (2n + 1), nous avons
p2n+1
=0.
00
La formule de Stirling
?
1
n! ? nn+ 2 e?n 2?
implique que
(4pq)n
?
p2n
?
.
00
n?
Comme pq ? 1/4, la se?rie diverge ssi p = q = 12 . Dans ce cas, 0 est re?current. Dans le
cas contraire, on dit que 0 est transient.
Exemple 5.1.2 Marche ale?atoire dans Z2 .
Solution. On se de?place dans chacune des 4 directions avec une probabilite? e?gale a?
1/4. Dans ce cas, la probabilite? d?e?tre en 0 a? l?e?tape 2n est donne?e par
p2n
00 =
X (2n)! 1
k!k!l!l! 4( 2n)
k+l=n
En utilisant, la relation
n
X
n
Cnk Cnn?k = C2n
,
k=0
nous avons
p2n
00 ?
1
(C n )2
4( 2n) 2n
Nous avons, gra?ce a? la formule de Stirling,
p2n
00 ?
1
.
n?
Il s?agit du terme ge?ne?ral d?une se?rie divergente. Donc 0 est re?current.
Exemple 5.1.3 Marche ale?atoire dans Z3 .
5.1. LIMITE DE MARCHES ALE?ATOIRES
111
Solution. On se de?place dans chacune des 6 directions avec une probabilite? e?gale a?
1/6. Dans ce cas, on de?montre que
?
3 3
2n
p00 ? 3/2 3/2 .
2? n
Il s?agit cette fois du terme ge?ne?ral d?une se?rie convergente. la probabilite? de retour en
ze?ro est une constante ce?le?bre en probabilite? appele?e constante de Polya. Elle est e?gale
a?
1
= 0.340537 и и и
p(3) = 1 ?
u3
Pre?cise?ment, on peut montrer que
?
6
1
5
7
11
u3 =
?( )?( )?( )?( ).
3
32?
24
24
24
24
Donc, tous les e?tats sont transients. La marche se comporte donc sensiblement
diffe?remment en dimension 3.
5.1.2
Le mouvement brownien standard
De la me?me manie?re que les marches ale?atoires, le mouvement brownien mode?lise un
mouvement de?sordonne? et sans orientation privile?gie?e. Toutefois, les marches ale?atoires
sont des processus ale?atoires dont le temps et l?espace sont discrets. Pour le mouvement
brownien, le temps et l?espace seront des dimensions continues. Nous allons dans ce paragraphe de?crire le mouvement brownien comme la limite de suite de marches ale?atoires.
Pour rendre continus a? la fois le temps et les distances parcourues, un e?le?ment de temps
?t et un e?le?ment de distance ?x sont introduits. Le mouvement brownien standard est
obtenu comme limite, quand ?t et ?x tendent vers zero, de marches ale?atoires ou? les
pas de longueur ?x se succe?dent a? des intervalles de dure?e ?t. Pour ?t et ?x fixes,
on pose
?t ? 0, Xt? = ?xXbt/?tc
ou brc de?signe la partie entie?re du re?el r.
Commentaires. Le processus {Xt? , t ? 0} est une marche ale?atoire dont les transitions se succe?dent tous les intervalles de temps ?t et dont les accroissements sont de
longueur ?x.
Les proprie?tes suivantes s?obtiennent imme?diatement.
? L?espe?rance de Xt? est e?gale a?
E[Xt? ] = ?xE[Xbt/?tc ] = 0 .
? La matrice de covariance de Xt? est e?gale a?
KXt? = (?x)2 KXbt/?tc = (?x)2 b
t 1
c I.
?t d
112
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
? La valeur quadratique moyenne de Xt? est
E[kXt? k2 ] = (?x)2 b
t
c.
?t
Notre objectif est de faire tendre a? la fois ?x et ?t vers 0. Pour assurer l?existence
d?une limite, nous souhaitons que la norme quadratique moyenne reste finie. Pour cela,
nous imposons
1
?t =
n
et
r
d
?x =
,
n
(n)
ou? n est un entier positif. Le processus correspondant est note? {Xt , t ? 0}. Voici
maintenant la de?finition du mouvement brownien standard.
De?finition 5.1.1 Un processus ale?atoire {Xt , t ? 0} a? valeurs dans Rd est appele?
mouvement brownien standard si
i) pour tout 0 ? t0 < t1 < . . . < tn , les variables ale?atoires Xti ? Xti?1 sont
inde?pendantes (accroissements inde?pendants).
ii) Pour tout i ? 1, l?accroissement Xti ? Xti?1 admet pour loi la loi gaussienne
dans Rd de moyenne nulle et de matrice de covariance (ti ? ti?1 ) I.
Rappelons que la convergence en loi d?un processus ale?atoire est e?quivalente a? la
convergence en loi de tous les vecteurs de dimension finie extraits de ce processus.
(n)
The?ore?me 5.1.1 Lorsque n ? ?, le processus {Xt , t ? 0} converge en loi vers un
mouvement brownien standard.
De?monstration. Nous donnons l?ide?e de la de?monstration en dimension 1. Le pro(n)
cessus ale?atoire {Xt , t ? 0} est a? accroissements inde?pendants puisqu?il s?agit d?un
marche ale?atoire. Il en est de me?me quand n ? ?, pour le processus {Xt , t ? 0}.
Soit maintenant s < t. Nous souhaitons montrer que les accroissements sont de loi
gaussienne. Alors,
(n)
Xt
1
? Xs(n) = ? (Xbntc ? Xbnsc )
n
1
= ? (Ybns+1c + и и и + Ybntc )
n
p
bntc ? bnsc
1
?
p
=
(Ybns+1c + и и и + Ybntc ) .
n
bntc ? bnsc
Clairement, nous avons
p
bntc ? bnsc p
?
lim
= (t ? s)
n??
n
5.1. LIMITE DE MARCHES ALE?ATOIRES
113
et, d?apre?s le the?ore?me central limite, la variable
1
(Ybns+1c + и и и + Ybntc )
Zn = p
bntc ? bnsc
converge en loi vers la loi normale N (0, 1).
De?finition 5.1.2 Un processus ale?atoire {Xt , t ? 0} re?el est un mouvement brownien
standard a? une dimension si
? X(0) = 0 ;
? {Xt , t ? 0} est un processus a? accroissements inde?pendants ;
? {Xt , t ? 0} est un processus a? accroissements stationnaires : la loi de l?accroissement Xt+s ? Xt est inde?pendante t pour tout s, t ? 0.
? pour tous t > 0, Xt est une variable ale?atoire gaussienne de moyenne 0 et de
variance t.
Pour un tel processus, on peut en particulier remarquer que
?
P(|Xt | ? 1.96 t) ? 0.95 .
Ceci signifie qu?avec une probabilite? e?gale a? 95 pour 100, le mouvement brownien au
temps t se trouve a? l?inte?rieur de la parabole
x2 = (1.96)2 t .
5.1.3
Continuite? des trajectoires
Dire qu?un processus ale?atoire {Xt , t ? 0} est continu c?est, par de?finition, dire que
lim Xt+h ? Xt = 0 .
h?0
Selon le type de convergence de cette variable ale?atoire, on obtient une continuite? plus
ou moins forte. La plus faible des notions de continuite? est lie?e a? la convergence en loi.
Elle est e?videmment ve?rifie?e. Nous allons de?montrer une continuite? en probabilite? pour
le mouvement brownien standard.
Proposition 5.1.2 Soit > 0 et {Xt , t ? 0} un mouvement brownien standard (dimension 1). On a
1
lim P(|Xt+h ? Xt | > ) = 0 .
h?0 h
De?monstration. Soit h > 0. Par de?finition, l?accroissement Xt+h ? Xt admet pour
loi N (0, h). Donc
Z
x2
1
2 ? 1
?
P(|Xt+h ? Xt | > ) =
e? 2h dx
h
h Z ? 2?h
1
1 ? x
?
< 2
e 2h dx
3/2
2? h
?
2 1 2h 2
= ? 3/2 e? 2h
?h
114
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Le dernier terme converge vers 0 lorsque h ? 0.
Commentaires. On de?montre aussi (de manie?re tre?s technique) que
? presque toutes les trajectoires sont continues sur R+ ,
? presque toutes les trajectoires sont nulle part de?rivables.
Pour terminer ce paragraphe, citons la loi du logarithme ite?re? qui pre?cise le comportement asymptotique du mouvement brownien standard.
Proposition 5.1.3 Soit {Xt , t ? 0} un mouvement brownien standard (dimension
1). On a
Xt
lim sup p
= 1 p.s.
t??
2t ln ln(t)
5.1.4
Le mouvement brownien comme processus gaussien
Un processus ale?atoire est dit gaussien si tous les vecteurs finidimensionnels extraits
sont gaussiens. Pre?cisons cette de?finition.
De?finition 5.1.3 Soit {Xt , t ? 0} un processus ale?atoire re?el. Il est gaussien si, pour
tous t1 , . . . , tn le vecteur ale?atoire T(Xt1 , . . . , Xtn ) est un vecteur gaussien dans Rn .
La loi de probabilite? d?un processus ale?atoire gaussien est entie?rement caracte?rise?e
par sa fonction moyenne
?t ? R+ , m(t) = E[Xt ]
et par sa fonction de covariance
?s, t ? R+ ,
k(s, t) = Cov(Xs , Xt ) .
Proposition 5.1.4 Le mouvement brownien standard est un processus ale?atoire gaussien de moyenne nulle et de fonction de covariance
?s, t ? R+ ,
k(s, t) = min(s, t) .
De?monstration. Soit {Xt , t ? 0} un mouvement brownien standard. Soient 0 ?
t1 < t2 < . . . < tn . Les variables re?elles Xt1 , Xt2 ?Xt1 , . . ., Xtn ?Xtn?1 sont inde?pendantes
et gaussiennes. Le vecteur ale?atoire
Z = T(Xt1 , . . . , Xtn )
se de?duit par une transformation line?aire : il s?agit donc d?un vecteur gaussien. De plus,
pour tout s ? t, nous avons, par inde?pendance des accroissements,
E[Xs Xt ] = E[Xs (Xt ? Xs )] + E[Xs2 ] = 0 + s = min(s, t) .
5.1. LIMITE DE MARCHES ALE?ATOIRES
115
Exercice 68. Soit (Yn ) une suite de variables ale?atoires inde?pendantes de loi uniforme
sur {?1, +1} et {Nt ; t ? 0} un processus de Poisson de taux ? = 1, inde?pendant de
la suite (Yn ). On conside?re
Nt
X
?t ? 0, Xt =
Yi .
i=0
Calculer la moyenne et la fonction covariance du processus {Xt , t ? 0}. Conclusion.
5.1.5
Lois marginales et conditionnelles
Nous de?terminons en premier lieu la densite? conjointe du vecteur T(Xt1 , . . . , Xtn ).
Proposition 5.1.5 Soit {Xt , t ? 0} un mouvement brownien standard et 0 ? t1 <
t2 < . . . < tn . La densite? conjointe du vecteur (Xt1 , . . . , Xtn ) est
n
1 X (xi ? xi?1 )2
p
exp
?
fXt1 ,...,Xtn (x1 , . . . , xn ) =
Q
n
n
2 i=1 (ti ? ti?1 )
(2?) 2
i=1 (ti ? ti?1 )
1
!
(en posant x0 = t0 = 0).
De?monstration.
Il suffit de noter que
fXt1 ,...,Xtn (x1 , . . . , xn ) =
n
Y
fXti ?Xti?1 (xi ? xi?1 ) .
i=1
On peut en de?duire par exemple pour s < t, la loi de probabilite? conditionnelle de la
variable Xs sachant que Xt = x.
Proposition 5.1.6 La loi conditionnelle de la variable Xs sachant que Xt = x est la
loi normale N ( st x, s(t?s)
).
t
De?monstration.
premie?re anne?e,
Le couple (Xs , Xt ) est gaussien. Nous avons, d?apre?s le cours de
E[Xs | Xt = x] =
Cov(Xs , Xt )
sx
x= ,
V ar(Xt )
t
et
V ar(Xs | Xt = x) = V ar(Xs ) ?
Cov(Xs , Xt )2
s2
=s? .
V ar(Xt )
t
116
5.1.6
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Temps de sortie et ze?ros des trajectoires
Nous nous inte?ressons dans ce paragraphe au temps ne?cessaire a? un mouvement
brownien standard pour atteindre la valeur a > 0. Ce temps est de?fini de la manie?re
suivante
Ta = inf{t > 0, Xt ? a} .
La variable Ta est un temps d?arre?t pour le processus (Xt ). Nous ne donnerons pas
de de?finition formelle des temps d?arre?t. Nous dirons simplement que ? est un temps
d?arre?t si, pour tout t, l?e?ve?nement ? ? t peut e?tre de?termine? a? partir des valeurs de
Xs pour s ? t.
Le processus (Xt ) posse?de la proprie?te? de Markov. Si s > 0, alors Xt+s ? Xs est
un mouvement brownien inde?pendant de Xr , r ? s. En d?autres termes, cela signifie
que les accroissements futurs (Xt+s ? Xs ) sont inde?pendants du passe? du processus
jusqu?au temps s1 . Nous e?nonc?ons le re?sultat suivant dont la de?monstration demande
quelques sophistications.
Proposition 5.1.7 Proprie?te? de Markov forte.
Si ? est un temps d?arre?t, alors
Xt+? ? X? , t ? 0, est un mouvement brownien inde?pendant de Xr , r ? ? .
De?monstration.
Admis.
Afin d?illustrer l?importance de ce re?sultat. Montrons que {Ta , a ? 0}, est un processus a? accroissements stationnaires et inde?pendants. Cela signifie que
i) si a < b, la loi de Tb ? Ta est identique a? celle de Tb?a ,
ii) si a0 = 0 < a1 < . . . < an , les variables Tai ? Tai?1 sont inde?pendantes.
Pour de?montrer i), prenons ? = Ta et notons que X? = a. Nous voyons que Tb ? Ta
est le temps d?atteinte de b ? a pour le processus Xt+? ? X? . Pour de?montrer ii), on
proce?de par re?currence descendante.
Proposition 5.1.8 Loi de Ta .
est
?t ? 0 ,
De?monstration.
Soit a > 0. La densite? de la variable ale?atoire Ta
fTa (t) = a ?
1
2?t3
e?a
2 /2t
.
En conditionnant, on obtient que
P(Xt ? a) = P(Xt ? a | Ta ? t)P(Ta ? t)
et par syme?trie
P(Xt ? a | Ta ? t) = P(Xt ? a | Ta ? t) =
1
1
.
2
La ve?ritable formulation consiste a? dire que pour toute suite 0 ? r1 < . . . < rn = s, (Xt+s ? Xs )
est un mouvement brownien inde?pendant du vecteur (Xr1 , . . . , Xrn )
5.1. LIMITE DE MARCHES ALE?ATOIRES
117
La fonction de re?partition de la variable ale?atoire Ta est donc
Z ?
2
2
e?x /2t dx .
?t ? 0 , P(Ta ? t) = 2P(Xt ? a) = ?
2?t a
?
En posant y = x/ t, on obtient que
Z ?
2
2
e?x /2 dx .
P(Ta ? t) = ?
?
2? a/ t
Le re?sultat se de?duit par une simple de?rivation.
Commentaires.
La variable ale?atoire Ta est presque-su?rement finie puisque
P(Ta < ?) = lim P(Ta ? t) = 1 .
t??
Cela signifie que le mouvement brownien sort presque-su?rement de n?importe quel
intervalle borne?.
Proposition 5.1.9 Soit a > 0. La variable Ta n?est pas inte?grable
E[Ta ] = +? .
De?monstration.
que
Puisque la variable Ta est positive, nous pouvons utiliser le fait
Z ?
1 ? P(Ta ? t)dt .
E[Ta ] =
0
D?apre?s les calculs effectue?s pre?ce?demment, nous obtenons
Z ? Z a/?t
2
2
E[Ta ] = ?
e?x /2 dxdt .
2? 0
0
En inversant les signes d?inte?gration, nous avons
Z ? Z a/x2
Z ? ?x2 /2
2
2a2
e
?x2 /2
E[Ta ] = ?
dte
dx = ?
dx .
x2
2? 0
2? 0
0
et cette dernie?re inte?grale est clairement divergente en ze?ro.
Nous appliquons maintenant le re?sultat pre?ce?dent pour de?terminer la probabilite? pour
que le mouvement brownien standard s?annule dans un intervalle de temps donne?.
Conside?rons par exemple l?intervalle (s, t), s < t, et l?e?ve?nement
O(s, t) = le mouvement brownien standard s?annule dans (s, t) .
La probabilite? de cet e?ve?nement se calcule en conditionnant aux valeurs de la variable
Xs
Z
1
2
P(O(s, t)) = ?
P(O(s, t) | Xs = x)e?x /2s dx .
2?s R
118
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Par syme?trie et continuite? des trajectoires, on a
P(O(s, t) | Xs = x) = P(T|x| ? t ? s)
et donc (exercice)
P(O(s, t)) =
Z
2
?
p
s(t ? s)
?
Z
r
e?y
2 /2(t?s)
2 /2s
dye?x
dx
|x|
0
2
= 1 ? arcsin
?
?
s
,
t
ou? nous avons utilise? le triangle de pythagore et le fait que
?
arcsin(x) + arccos(x) = .
2
Exercice 69.
Soit a > 0. Montrer que, pour tout t > 0,
P( sup Xs ? a) = P(Ta ? t) .
0?s?t
5.1.7
Inte?grale stochastique
Il est possible de de?finir une notion d?inte?grale d?une fonction le long de trajectoires
d?un mouvement brownien. Cette notion est tre?s utile lors des applications. Imaginons,
par exemple, que le cours d?une valeur financie?re se mode?lise par un mouvement brownien {Xt , t ? 0}. A? l?instant t, une variation ?Xt de ce cours est susceptible d?entra??ner
la variation d?une autre valeur (disons) Yt selon la relation de proportionalite?
?Yt = f (t)?Xt .
Dans cette situation, le coefficient de proportionnalite? est fonction du temps. Pour
conna??tre la valeur de Yt , il faudra alors inte?grer
Z t
Y t = Y0 +
f (s)dXs ,
0
en donnant, bien entendu, un sens a? cette inte?grale.
De?finition 5.1.4 Soit f une fonction de?finie sur l?intervalle (a, b), de?rivable et de
carre? inte?grable. On pose
Z b
n
X
f (t)dXt = lim
f (ti?1 )[Xti ? Xti?1 ]
n??
a
i=1
ou? t0 = a < t1 < и и и < tn = b est une subdivision de (a, b) telle que
max(ti ? ti?1 ) ? 0
i
lorsque n ? ? .
5.1. LIMITE DE MARCHES ALE?ATOIRES
119
Commentaires. On obtient ainsi une variable ale?atoire re?elle de?pendant de f , appele?e inte?grale stochastique de f .
Proposition 5.1.10 Soit f une fonction de?finie sur l?intervalle (a, b), de?rivable et de
carre? inte?grable. On a
b
Z
b
Z
Xt f 0 (t)dt .
f (t)dXt = f (b)Xb ? f (a)Xa ?
a
a
De?monstration.
formule suivante
n
X
Il s?agit d?une ?inte?gration par parties?. Elle se justifie gra?ce a? la
f (ti?1 )[Xti ? Xti?1 ] = f (b)Xb ? f (a)Xa ?
i=1
n
X
Xti [f (ti ) ? f (ti?1 )] .
i=1
Proposition 5.1.11 Soit f une fonction de?finie sur l?intervalle (a, b), de?rivable et de
carre? inte?grable. L?inte?grale stochastique est une variable ale?atoire de loi normale de
moyenne
Z b
f (t)dXt = 0
E
a
et de variance
Z b
Z b
V ar(
f (t)dXt ) =
f 2 (t)dt .
a
a
De?monstration. L?inte?grale stochastique est de?finie comme limite de combinaisons
line?aires de variables gaussiennes inde?pendantes. Nous admettons le fait que sa loi est
gaussienne. Par la formule d?inte?gration par parties, nous avons
Z
b
Z
f (t)dXt ] = f (b)E[Xb ] ? f (a)E[Xa ] ?
E[
a
b
E[Xt ]f 0 (t)dt = 0 .
a
De plus, d?apre?s l?inde?pendance des accroissements, nous avons
n
n
X
X
V ar(
f (ti?1 )[Xti ? Xti?1 ]) =
f 2 (ti?1 )V ar(Xti ? Xti?1 ) .
i=1
i=1
En conse?quent, nous avons
Z b
Z b
n
X
2
V ar(
f (t)dXt ) = lim
f (ti?1 )(ti ? ti?1 ) =
f 2 (t)dt .
a
n??
i=1
a
120
5.2
5.2.1
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Applications du mouvement brownien
La primitive du mouvement brownien
Soit {Xt , t ? 0} un mouvement brownien standard. On pose
Z
?t ? 0 ,
t
Xs ds.
Zt =
0
Le processus {Zt , t ? 0} est appele? primitive du mouvement brownien. Il apparait par
exemple de manie?re naturelle dans la situation suivante. On mode?lise l?e?volution du
prix {Zt , t ? 0} d?une marchandise dans le temps, en supposant que les variations
infinite?simales a? chaque instant t sont proportionnelles au taux d?inflation instantane?
Xt , que l?on admet se comporter comme un mouvement brownien standard. C?est a?
dire que l?on a
dZt = Xt dt
avec Z0 = 0, soit
Z
?t ? 0 ,
Zt =
t
Xs ds.
0
Nous allons montrer que {Zt , t ? 0} est un processus ale?atoire gaussien et le caracte?riser en calculant sa moyenne et sa fonction de covariance.
Proposition 5.2.1 Le processus {Zt , t ? 0} est un processus gaussien de moyenne
?t ? 0 ,
et de covariance
?s ? t ,
De?monstration.
E[Zt ] = 0
t
s
k(s, t) = s2 ( ? ) .
2 6
La variable Zt peut e?tre exprime?e gra?ce a? l?inte?grale stochastique
Z t
?t ? 0 , Zt = tXt ?
sdXs .
0
Par ailleurs, l?inte?gale stochastique est un processus gaussien (revenir a? sa de?finition !).
Il en est de me?me de la primitive du mouvement brownien. Pour calculer la moyenne,
nous inversons les symboles espe?rance et inte?grale
Z s
E[Zt ] =
E[Xs ]ds = 0 .
0
Ceci est justifie? par le fait que
Z t
Z t
E[ |Xs |ds] =
E[|Xs |]ds < ?
0
0
5.2. APPLICATIONS DU MOUVEMENT BROWNIEN
121
(Xs suit la loi N (0, s)). De me?me, en utilisant l?ine?galite? de Cauchy-Schwartz, on a
Z s Z t
Z sZ t
Z sZ t
?
E[|Xu Xv |]dudv <
E
|Xu Xv |dudv =
uvdudv < ?
0
0
0
0
0
0
et l?on peut intervertir les sommations dans le calcul de la covariance. Pour tout s ? t,
nous avons
Z sZ t
E[Xu Xv ]dudv
k(s, t) =
0
0
Z sZ t
=
min(u, v)dudv
0
0
Z t Z s Z u
vdv + u
dv du
=
0
0
u
t
s
= s( ? )
2 6
2
Remarquons, dans l?exemple du prix de la marchandise, que l?on peut donner une
pre?vision de ce prix connaissant sa valeur a? un instant donne?. Il s?agit pour cela de
de?terminer, pour 0 ? s ? t, le prix moyen de la marchandise a? l?instant t sachant qu?il
est de z a? l?instant s. L?espe?rance conditionnelle se calcule aisement
E[Zt | Zs = z] = E[Zt ? Zs | Zs = z] + E[Zs | Zs = z]
= E[Zt ? Zs ] + z
= z.
Commentaires. On a utilise? ici l?inde?pendance des accroissements de la primitive
du mouvement brownien. On montre par le calcul pre?ce?dent que la meilleure pre?diction
que l?on peut faire du prix de la marchandise connaissant sa valeur a? un temps donne?
est cette valeur me?me.
5.2.2
Le processus d?Ornstein-Uhlenbeck
Le processus d?Ornstein-Uhlenbeck {Yt , t ? 0} peut repre?senter par exemple la
vitesse d?une particule dans un milieu visqueux, soumise a? des variations de?sordonne?es
dues aux chocs des mole?cules. Pour le de?finir, il faut introduire deux coefficients. Le
premier coefficient ? > 0 est un coefficient de milieu (viscosite?) qui de?crit la difficulte?
du de?placement. Le second coefficient ? 2 de?crit la variance due aux chocs. Le processus
{Yt , t ? 0} ve?rifie l?e?quation ?diffe?rentielle? suivante
dYt = ??Yt dt + ?dXt
ou? {Xt , t ? 0} est une mouvement brownien standard. En multipliant par e?t les deux
membres de cette e?quation, on obtient
e?t (dYt + ?Yt dt) = ?dXt e?t
122
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
soit
d[e?t Yt ] = ?dXt e?t .
Cette e?quation est e?quivalente a?
??t
Yt = Y0 e
Z
+?
t
e??(t?s) dXs
0
ce qui constitue la ve?ritable de?finition du processus d?Ornstein-Uhlenbeck.
5.2.3
Le pont brownien
On appelle pont brownien standard sur [0, 1], le processus du mouvement brownien
standard {Xt , t ? 0} conditionne? par X1 = 0. Il s?agit d?un processus ale?atoire gaussien
puisque la loi de probabilite? de tout vecteur T(Xt1 , . . . , Xtn ) conditionnelle a? X1 = 0 est
encore gaussienne. Il suffit, pour caracte?riser le pont brownien de calculer l?espe?rance
conditionnelle
?0 ? t ? 1 , m(t) = E[Xt | X1 = 0]
et la covariance conditionnelle
?0 ? s, t ? 1 ,
k(s, t) = Cov(Xs Xt | X1 = 0) .
La moyenne a? de?ja? e?te? calcule?e lors de la proposition 5.1.6. Nous avons
?0 ? t ? 1 ,
E[Xt | X1 = 0] = 0 .
De plus, pour tout s < t ? (0, 1), nous avons
E[Xs Xt | X1 = 0] = E[E[Xs Xt | Xt ; X1 = 0] | X1 = 0] .
Or, le triplet (Xs , Xt , X1 ) est gaussien, et d?apre?s les re?sultats de conditionnement pour
les vecteurs gaussiens, nous avons
E[Xs | Xt = x ; X1 = 0] = (k(s, t), k(s, 1))K ?1 T(x, 0)
ou? K est la matrice de covariance de du vecteur (Xt , X1 ). Un calcul rapide montre que
E[Xs | Xt = x ; X1 = 0] =
Ainsi, nous avons
s
1
(s ? st, 0) T(x, 0) = x .
2
(t ? t )
t
s
k(s, t) = E[Xt2 | X1 = 0] = s ? st.
t
Exercice 70. Soit {Xt , t ? 0} un mouvement brownien. Montrer que le processus
{Zt ; 0 ? t ? 1} de?fini pour tout t ? [0, 1] par
Zt = Xt ? tX1 ,
5.2. APPLICATIONS DU MOUVEMENT BROWNIEN
123
est un processus gaussien. Le caracte?riser.
Exercice 71.
Soit {Zt , t ? 0} un pont brownien. De?montrer que le processus
{Yt , t ? 0} de?fini par
?t ? 0 , Yt = (t + 1)Zt/(t+1)
est un mouvement brownien standard.
5.2.4
Mouvement brownien avec de?rive
Soit {Xt , t ? 0} un mouvement brownient standard. Nous appelons mouvement
brownien avec de?rive le processus {Yt , t ? 0} de?fini par
?t ? 0 ,
Yt = хt + Xt
ou? х est une constante re?elle. Gra?ce aux proprie?te?s du mouvement brownien, nous
avons imme?diatement
i) Y0 = 0.
ii) Le processus {Yt , t ? 0} est a? accroissements inde?pendants et stationnaires.
iii) La variable Yt admet pour loi la loi N (хt, t).
Le mouvement brownien avec de?rive est caracte?rise? par les proprie?te?s ci-dessus. Il
s?agit aussi du processus gaussien de moyenne
?t ? 0,
m(t) = хt,
et de covariance
?s, t ? 0,
k(s, t) = min(s, t).
Le processus se comporte comme un mouvement brownien mais avec une tendance,
positive ou ne?gative selon la valeur du coefficient х. Ce processus mode?lise par exemple
l?e?volution d?un capital financier dont la valeur fluctue autour d?une moyenne croissante. Dans cette situation, il est tre?s important de re?soudre des proble?mes lie?s au
temps d?atteinte d?une barrie?re fixe. Notons x > 0 le capital de de?part et disons que x
est compris entre les valeurs a et b. Nous souhaitons calculer la probabilite? p(x) pour
que le processus (le capital) atteigne la valeur e?leve?e b avant la valeur basse a. Soit
х > 0 et
?t ? 0 , Zt = x + хt + Xt .
Soit h > 0 et Yh = Zh ? Z0 .
Lemme 5.2.1 La probabilite? que le processus {Yt , t ? 0} sorte d?un intervalle borne?
(a, b) est de l?ordre de o(h).
124
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
De?monstration. Montrons cette proprie?te? pour le temps d?atteinte TcY d?une valeur
quelconque c > 0. L?e?ve?nement (TcY ? h) est re?alise? ssi il existe t ? (0, h] tel que
Xt = c ? хt. Dans ce cas, nous avons alors Xt ? c ? хh et
P(TcY ? h) ? P(Tc?хh ? h).
D?apre?s le re?sultat concernant les temps d?atteinte du mouvement brownien, nous avons
c ? хh
E[X 4 ]h2
? )?
(c ? хh)4
h
P(Tc?хh ? h) ? P(|X1 | ?
ou? X1 est une variable ale?atoire de loi N (0, 1). La dernie?re ingalite? provient de l?ine?galite?
de Markov applique?e a? l?ordre r = 4.
Un conditionnement conside?rant les cas ou? le processus sort ou non de l?intervalle
(a, b) conduit aux e?quations suivantes
p(x) = E[P( Le processus atteint b avant a | Yh )] + o(h)
= E[p(x + Yh )] + o(h) .
Dans ces e?quations, o(h) repre?sente la probabilite? pour que le processus atteigne a ou
b dans l?intervalle de temps de longueur h. Un de?veloppement en se?rie donne
Yh2
0
00
p(x) = E p(x) + p (x)Yh + p (x)
+ . . . + o(h)
2
soit
Yh2
] + . . . + o(h) .
2
Finalement, la variable Yh est une variable de loi normale de moyenne хh et de variance
h. Apre?s simplification, nous avons donc
p(x) = p(x) + p0 (x)E[Yh ] + p00 (x)E[
p00 (x)
o(h)
=
.
2
h
Puisque h peut e?tre arbitrairement petit, p est solution de l?e?quation diffe?rentielle du
second ordre suivante :
p00 + 2хp0 = 0
p0 (x)х +
et ve?rifie les ?conditions de bord?
p(b) = 1 ;
p(a) = 0 .
La solution de ce proble?me est classique :
?x ? (a, b) ,
p(x) =
e?2хa ? e?2хx
.
e?2хa ? e?2хb
Commentaires. Si х < 0, en laissant a tendre vers l?infini, on obtient la probabilite?
pour que le processus atteigne b. Cette probabilite? est e?gale a?
pb = e?2хb .
5.2. APPLICATIONS DU MOUVEMENT BROWNIEN
125
Proposition 5.2.2 Soit {Yt , t ? 0} le mouvement brownien avec de?rive positive х.
Alors,
E[max0?s?t Ys ]
lim
= х p.s.
t??
t
De?monstration. Soit T0 = 0 et pour tout n > 0, notons Tn le temps d?atteinte
de la valeur n. Comme le processus est a? accroissements inde?pendants, les variables
Tn ? Tn?1 sont inde?pendantes et de me?me loi. La suite (Tn ) forme donc un processus
de renouvellement de processus de comptage {Nt ; t ? 0}. De plus, nous savons que
E[Nt ] ? E[ max Ys ] ? E[Nt + 1]
0?s?t
et
1
.
х
D?apre?s les re?sultats concernant les processus de renouvellement
E[T1 ] =
E[Nt ]
1
?
=х
t
E[T1 ]
Exercice 72.
Solution.
p.s.
Soit х > 0. La suite (Yn ) converge presque-su?rement vers +?.
Nous utilisons le lemme de Borel-Cantelli. Soit A > 0, nous avons
Z A
1
2
?
P(хn + Xn < A) =
e?(x?хn) /2n dx
2?n
??
En de?veloppant le carre?, nous obtenons
?х2 n/2 хA
P(хn + Xn < A) ? e
Z
A
e
??
?
1
2
2
e?x /2n dx ? e?х n/2 eхA
2?n
La se?rie converge (se?rie ge?ome?trique). La variable Yn converge donc ps vers ?.
Nous terminons ce paragraphe en pre?sentant la loi du temps d?atteinte de la valeur a
par un mouvement brownien avec de?rive. Nous supposons que le coefficient de de?rive
х est strictement positif. Soit
Ta = inf{t ? 0 , Yt = a}
et
?s > 0 ,
LTa (s) = E[e?sTa ]
sa transforme?e de Laplace. Pour tout a, b > 0, on remarque que
LTa+b (s) = E[e?sTa+b ] = E[e?s(Ta +Ta+b ?Ta ) ] .
126
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Comme Ta et Ta+b ? Ta sont inde?pendantes, on a
LTa+b (s) = E[e?sTa ]E[e?s(Ta+b ?Ta ) ] .
et par stationarite? des accroissements
LTa+b (s) = LTa (s)LTb (s) .
Ceci implique que
?s > 0 ,
LTa (s) = e?c(s)a
ou? c(s) > 0 ne de?pend pas de a.
Proposition 5.2.3 La transforme?e de Laplace de la variable Ta est e?gale a?
?
2
?s > 0 , LTa (s) = e?a( х +2s?х) .
De?monstration.
Ceci entraine que
Il s?agit de de?terminer c(s). On conditionne par Yh pour un h petit.
f (a) = LTa (s) = E[e?s(h+Ta?Yh ) ] + o(h)
= e?sh E[f (a ? Yh )] + o(h) .
En utilisant un de?veloppement de Taylor :
f (a) = e?sh E[f (a) ? Yh f 0 (a) +
Yh2 00
f (a) + . . .] + o(h)
2
soit
h
f (a) = f (a)(1 ? sh) ? f 0 (a)хh + f 00 (a) + o(h) .
2
Puisque h peut e?tre choisi arbitrairement petit, f est solution de l?e?quation diffe?rentielle
suivante :
f 00
sf = ?хf 0 +
.
2
Remarquons maintenant que
f (a) = e?c(s)a .
Nous obtenons alors
c2 (s) + 2хc(s) ? 2s = 0,
et
c(s) = ?х +
p
х2 + 2s .
Commentaires. On peut de?duire de cette proposition le temps moyen d?atteinte de
la valeur a par un mouvement brownien avec de?rive
E[Ta ] = ?L0Ta (0) =
a
.
х
5.3. MARTINGALES ET TEMPS D?ATTEINTE
5.3
127
Martingales et temps d?atteinte
Dans cette section, nous pre?sentons quelques re?sultats lie?s aux martingales. Cette
classe de processus constitue un outil important dans l?e?tude des proprie?te?s du mouvement brownien.
5.3.1
Martingale
Proposition 5.3.1 Le mouvement brownien standard Xt est une martingale. C?est-a?dire, si s < t,
E[Xt | Xr , r ? s] = Xs .
Bien entendu, cette de?finition de martingale est un peu abusive quant aux notations
utilise?es. Comme pour les de?finitions de processus de Markov, il serait plus exact de
dire que pour toute suite finie d?instants 0 ? r1 . . . < rn < s, nous avons
E[Xt | Xs , Xrn , . . . , Xr1 ] = Xs
Il faudra garder en me?moire que la notation Xr , r ? s, signifie en fait Xs , Xrn , . . . , Xr1
pour toute suite 0 ? r1 . . . < rn < s.
De?monstration. Sachant Xr , r ? s, Xs est connu et Xt ? Xs est independant de
Xs et de moyenne nulle. Nous avons donc
E[Xt | Xr , r ? s] = E[Xt ? Xs + Xs | Xr , r ? s] = Xs
Tous les calculs suivants portent sur les temps d?atteinte du mouvement brownien.
Il repose sur le the?ore?me suivant, que nous appelerons The?ore?me d?arre?t optionnel.
The?ore?me 5.3.1 Soit (Mt ) une martingale a? trajectoires continues. Supposons que ?
soit un temps d?arre?t tel que
P(? < ?) = 1.
Supposons de plus qu?il existe une constante K telle que |M? ?t | ? K, pour tout t. Alors
E[M? ] = E[M0 ]
Exemple 5.3.1 Distribution de sortie de l?intervalle (a, b).
Conside?rons le temps de sortie de l?intervalle
? = inf{t : Xt 6? (a, b)}
Nous avons
P(X? = a) =
b
= 1 ? P(X? = b)
b?a
Soit a < 0 et b > 0.
128
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Solution.
Ve?rifions tout d?abord que ? est un temps d?arre?t. Nous avons
(? ? s) = (? > s) = (Xr ? (a, b), ?r ? s).
Clairement, ce dernier e?ve?nement s?exprime a? partir des valeurs du processus jusqu?au
temps s. Pour ve?rifier la condition du the?ore?me, notons que ? ? Ta . Nous avons montre?
auparavant que
P(Ta < ?) = 1.
Il est e?vident que
|X? ?t | ? |a| + b.
D?apre?s le the?ore?me d?arre?t optionnel, nous pouvons donc e?crire
0 = E[X? ].
D?autre part, nous avons par de?finition de X?
E[X? ] = aP(X? = a) + bP(X? = b).
En annulant le membre de droite, nous prouvons le re?sultat e?nonce?.
5.3.2
Martingale exponentielle
D?autres martingales sont lie?es au mouvement brownien. Les conside?rer permet
d?obtenir d?inte?ressants re?sultats. La martingale exponentielle ou martingale de Wald
permet en particulier d?obtenir des re?sultats concernant les processus a? accroissements
inde?pendants ayant une de?rive.
Soit ? ? IR. On note
Mt = exp(?Xt ? t?2 /2),
?t ? 0.
Proposition 5.3.2 (Mt ) est une martingale par rapport au mouvement brownien, i.e.,
pour s < t,
E[Mt | Xr , r ? s] = Ms
De?monstration.
Nous avons
?t (?) = E[e?Xt ] = exp(t?2 /2),
t ? R.
Ainsi, par l?inde?pendance des accroissements, nous avons
E[Mt | Xr , r ? s] =
exp(?Xs )
E[e?(Xt ?Xs ) ].
?X
t
E[e ]
On termine la de?monstration en simplifiant le rapport des deux espe?rances.
Nous de?duisons de ce re?sultat une manie?re rapide pour calculer la probabilite? de
ruine pour le mouvement brownien avec de?rive. Soit
Yt = хt + ?Xt
et
Ra = inf{t; Yt ? a}.
5.3. MARTINGALES ET TEMPS D?ATTEINTE
129
Proposition 5.3.3 Si х > 0 et a < 0, alors nous avons
2
P(Ra < ?) = e2хa/? .
La preuve est similaire a? celle donne?e pour le mode?le du risque. Nous en reprenons
les principales e?tapes. En premier lieu, fixons le choix de ?, libre dans la martingale.
Ide?e de la de?monstration.
temps Ra , nous avons
Supposons Ra < ?. En arre?tant la martingale Mt au
XRa = (a ? хRa )/?
et donc
MRa = e?a/? exp(?Ra (х?/? + ?2 /2)).
Ceci sugge?re de choisir ? de sorte que
х?/? + ?2 /2 = 0.
Le choix est donc
? = ?2х/?.
et nous avons alors MRa = e?a/? . Dans le cas ou? Ra = ?, observons que M? = 0 (pour
le me?me choix de ?). Ainsi, nous avons
e?a/? P(Ra < ?) = E[MRa ] = E[M0 ] = 1.
De?monstration.
En appliquant le the?ore?me d?arre?t a? Ra ? t, nous obtenons
1 = E[e?2(?XRa +?
2R
a)
2
1 (Ra ?t) ] + E[e?2(?Xt +? t) 1 (Ra >t) ]
ou? ? = х/?. Puisque Xt /t ? 0 presque-su?rement, nous avons
e?2(?Xt +?
2 t)
?0
sachant (Ra > t). Finalement, lorsque t tend vers l?infini, seul le premier terme du
membre de droite subsiste. Il est e?gal a?
2
E[e?2хa/? 1 (Ra ?t) ]
et tend vers
2
e?2хa/? P(Ra < ?).
Ceci permet de conclure facilement.
130
5.4
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
Processus stationnaires
De?finition 5.4.1 Un processus ale?atoire {Xt , t ? 0} est stationnaire si, pour tout
s ? 0 et pour tous t1 , . . . , tn , n ? 1, les vecteurs ale?atoires
T
(Xt1 , . . . , Xtn ) = T(Xt1 +s , . . . , Xtn +s )
ont me?me loi de probabilite?.
Exercice 73. Soit {Nt ; t ? 0} un processus de Poisson de parame?tre ? > 0. Soit
Y0 une variable de loi uniforme sur {?1, +1} inde?pendante de ce processus de Poisson.
On pose, pour tout t ? 0,
Yt = Y0 (?1)Nt .
a)
b)
c)
d)
Calculer E[Yt ] , t ? 0.
Calculer Cov(Ys , Yt ) , s, t ? 0.
montrer que {Yt , t ? 0} est stationnaire.
On pose, pour tout t ? 0,
Z t
Dt =
Ys ds.
0
Calculer l?espe?rance et la variance de cette variable ale?atoire. Interpre?tez ce
re?sultat.
De?finition 5.4.2 Un processus ale?atoire {Xt , t ? 0} est faiblement stationnaire si,
pour tous s, t ? 0,
i) E[Xt ] = c,
ii) k(s, t) = Cov(Xs , Xt ) ne de?pend que de |t ? s|.
Commentaires.
naire.
Exercice 74.
sion.
Un processus gaussien est stationnaire s?il est faiblement station-
Soit {Xt , t ? 0} un mouvement brownien standard re?el a? une dimen-
a) On de?finit Y0 = 0 et pour tout t > 0, Yt = tX1/t . De?montrer que {Yt , t ? 0}
est un mouvement brownien standard a? une dimension.
b) On pose, pour tout t ? 0,
t
Zt = e?? 2 Xe?t
ou? ? est un re?el positif. De?montrer que {Zt , t ? 0} est un processus
ale?atoire faiblement stationnaire. De?montrer que ce processus est en fait
stationnaire.
5.5. EXERCICES
131
Exercice 75. On suppose que les instants de de?faillance d?un syste?me, 0 = T0 < T1 <
T2 < ... forment un processus de Poisson homoge?ne d?intensite? ? > 0. A chaque instant
t ? 0, on note ?t la variable ale?atoire re?elle e?gale au temps d?attente de la prochaine
de?faillance a? partir de t.
a) Donner l?allure d?une trajectoire du processus ale?atoire {?t , t ? 0}.
b) De?montrer que ce processus est stationnaire.
c) Calculer, pour tout s ? 0
R(s) = Cov(?t , ?t+s ).
5.5
Exercices
Exercice 76.
On conside?re la suite ale?atoire de?finie de la manie?re suivante :
S0 = 0
Sk = Sk?1 + Xk
ou? les variables Xk , k = 1, 2, . . . sont des variables inde?pendantes, a? valeurs dans
{?1, +1}, de me?me loi :
1
P(Xk = +1) = P(Xk = ?1) = .
2
On repre?sente la suite (Sk )k=1,... dans un repe?re orthonorme? dans lequel l?axe des abscisses s?interpre?te comme l?axe des temps.
On appellera trajectoire de M a? N toute re?alisation de la suite (Sk ) passant par les
points M et N .
Premie?re partie.
a) Sous quelles conditions existe-t-il une trajectoire de O = (0, 0) a? N = (n, ?) ?
b) De?terminer le nombre CN de trajectoires joignant le point O au point N ?
c) (Principe de re?flexion). Soient m, n, х, ? des entiers t.q. m < n, х > 0 et ? > 0.
On pose
M = (m, х), M 0 = (m, ?х), N = (n, ?).
1) Montrer qu?il existe autant de trajectoires de M a? N qui touchent l?axe des
abscisses que de trajectoires de M 0 a? N .
2) En de?duire la probabilite? d?aller de M en N sans jamais rencontrer l?axe des
abscisses.
Deuxie?me partie.
a) De?terminer ?2n = P(S2n = 0).
132
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
b) De?terminer le nombre x2n?1 de trajectoires telles que
S1 > 0, S2 > 0, . . . , S2n?2 > 0, S2n?1 = 0.
c) Soit yn le nombre de trajectoires telles que
S1 > 0, S2 > 0, . . . , Sn?1 > 0, Sn > 0.
Montrer que
y2n?1 = 2y2n?2
y2n ? x2n?1 = 2(y2n?1 ? x2n?1 ).
Cn
En de?duire y2n = 22n .
d) Montrer que P(S1 6= 0, . . . , S2n 6= 0) = ?2n .
e) De?terminer la loi du temps T de premier retour en O. Ve?rifier que P(T < ?) = 1.
Exercice 77.
Soit {Xt , t ? 0} un mouvement brownien standard. Calculer la
moyenne et la variance de la variable ale?atoire de?finie pour tout t ? 0 par
Z t
sdXs .
Yt =
0
Exercice 78. Soit {Wt , t ? 0} un processus ale?atoire tel que conditionnellement a?
W (0) = x le processus {Bt , t ? 0} de?fini par
?t ? 0 ,
Bt = Wt ? x
est un mouvement brownien standard. On note p(t, x, .) la densite? conditionnelle de la
variable Wt sachant W0 = x.
a) Donner l?expression de p(t, x, .) et ve?rifier que
p(t, x, .) ? ?x (.) lorsque t ? 0 .
b) Montrer que p(t, x, .) est solution de l?e?quation de la chaleur (e?quation de
diffusion)
1 ?2p
?p
=
2
2 ?x
?t
Exercice 79. Marche ale?atoire sur Z.
Markov {Xt , t ? 0} a? valeurs dans
Soit > 0. On conside?re le processus de
Z = {. . . , ?n, . . . , ?, 0, +, . . . , +n, . . .}
de?fini de la manie?re suivante
X0
=0
P(Xt+h
= n ▒ | Xt = n) = 21 h + o(h)
P(|Xt+h
? n| > | Xt = n) = o(h) .
5.5. EXERCICES
133
a) De?crire les e?quations de Kolmogorov pour les probabilite?s
p (t, n) = P(Xt = n) .
b) On pose
u (t, x) = p (?2 t, x)
ou? n = bx/c. relier u (t, x) aux solutions de l?e?quation de la chaleur lorsque
? 0.
Exercice 80. On contraint maintenant le processus {Xt , t ? 0} a? rester dans
l?intervalle (a, b) en imposant a? a et a? b (ou pluto?t aux points les plus pro?ches de a et
b dans la discre?tisation d?ordre ) d?e?tre absorbants. Soit a ? x = n ? b et
?(x) = P(?t ? 0 t.q. Xt = a | X0 = x) .
a) Justifier l?e?quation suivante
1
0 = (?(x ? ) + ?(x + )) ? ?(x) .
2
b) Quelle est la probabilite? pour que le processus {Wt , t ? 0} atteigne la valeur a avant atteindre la valeur b partant de la valeur a ? x ? b ? (Re?ponse :
(b ? x)/(b ? a))
Bio de Mickey Markov.
Mickey Markov est ne? au sie?cle dernier. Son grandpe?re, Evgeni sergueievitch, danseur e?toile a? l?ope?ra de Moscou, aurait fuit la re?pression
stalinienne, profitant d?une tourne?e du Bolcho?? pour demander l?asile politique a? la
France. Grand-me?re Markov rejoint son mari a? Paris a? l?occasion d?une visite officielle
d?une de?le?gation du parti ou? elle travaille comme traductrice, re?ussissant a? tromper la
vigilance du KGB gra?ce a? un de?guisement de ramoneur savoyard (Nombreux en effet
e?taient a? l?e?poque les savoyards monte?s a? la capitale pour le nettoyage des chemine?es ou?
pour la vente des huitres en bourriche). A? la veille?e, Pe?pe? Markov raconte des bonnes
histoires qu?il tient d?un parent mathe?maticien, distrayant ainsi agre?ablement toute la
famille. Pe?pe? Markov initie tre?s to?t le jeune Mickey au calcul des probabilite?s notamment pour le craps, le poker et certains aspects des mathe?matiques financie?res. Mickey
apprend aussi a? cette occasion que la re?alite? est complexe a? appre?hender et courir vite
s?ave?re parfois utile aussi. Il est initie? a? la the?orie du risque, notamment du fait d?un
vieux scooter sans freins. Mamie Markov lui de?voile les secrets des files d?attente et de
la gestion des stocks, les fruits d?une longue pratique sous le re?gime communiste. Autodidacte doue? Mickey Markov s?essaie a? plusieurs me?tiers dont trombonniste, plongiste,
scaphandrier, inge?nieur re?seau, moniteur de kayak. Il aurait un cousin, un de?nomme?
Jojo, qui aurait inte?gre? Ensimag-Te?le?com. Il se?journe dans plusieurs pays et visite la
corse qu?il traverse me?me a? pied par le GR 20, expe?rience lui donnant l?occasion de
me?diter sur le rapport a? la nature dans la tradition de Rousseau, ainsi qu?au ve?ritable
sens des probabilite?s et des marches ale?atoires lorsqu?il perd sa carte au 25 millie?me.
) si i > 0 ,
P(Xn+1 = j | Xn = i) =
P(An+1 = j)
si i = 0 .
Les variables (An ) sont inde?pendantes et de me?me loi. La cha??ne (Xn ) est donc hoe
moge?ne. Sachant que la dure?e du n service est e?gale a? t, nous avons
e
P(An = k | dure?e du n service = t) =
e??t (?t)k
.
k!
96
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Ainsi, apre?s conditionnement, nous avons
Z
?
ak = P(An = k) =
0
e??t (?t)k
dG(t) .
k!
Commentaires. L?approche utilise?e lors de la la de?monstration de ce re?sultat consiste
a? associer au processus {Xt , t ? 0} qui n?est pas markovien, des instants ?1 , ?2 , . . . pour
lesquels (X?n ) est une cha??ne de Markov. Cette cha??ne de Markov est appele?e cha??ne
incluse du processus et les instants ?1 , ?2 , . . . sont appele?s instants de re?ge?ne?ration du
processus. Cette approche est permise par l?hypothe?se d?arrive?e poissonnienne et ne
pourrait e?tre utilise?e dans le cadre d?une file d?attente GI/GI/1 par exemple...
Nous e?tudions maintenant le comportement asymptotique de la file d?attente a? travers
le comportement de la cha??ne incluse.
Proposition 4.3.3 La cha??ne de Markov (Xn ) est irre?ductible, ape?riodique. Elle admet une unique loi de probabilite? invariante si et seulement si
?=
?
<1.
х
Dans ce cas, nous avons
?k ? 0 ,
lim P(Xn = k) = ?k ,
n??
ou? ? est une loi de probabilite? sur N de fonction ge?ne?ratrice e?gale a?
?|z| < 1 ,
G(z) =
ou?
A(z) =
?
X
(1 ? ?)A(z)
1?
1?A(z)
1?z
.
ak z k .
k=0
De?monstration.
Cherchons les solutions du syste?me ? = ?P . Il s?e?crit ici
?n = an (?0 + ?1 ) + an?1 ?2 + и и и + a0 ?n+1 , n ? 0 .
Multiplions par z n . En sommant toutes les e?quations, nous obtenons
G(z) = (?0 + ?1 )A(z) + ?2 zA(z) + ?3 z 2 A(z) + и и и
A(z)
= ?0 A(z) +
[G(z) ? ?0 ]
z
4.3. FILES D?ATTENTE
97
On tire de cette e?quation
G(z) =
?0 A(z)
1?
1?A(z)
1?z
.
Cette e?quation admet une solution convenable si G(1) = 1. Comme A(1) = 1 et
lim
z?1
1 ? A(z)
= A0 (1) = ? ,
1?z
il faut donc que
?0 = 1 ? ? > 0 .
Ceci e?quivaut a?
?<1.
Nous terminons ce paragraphe en e?noncant la formule de Pollaczek-Khintchine. Cette
formule de?crit le temps moyen passe? dans le syste?me en re?gime stationnaire.
Proposition 4.3.4 (Pollaczek-Khintchine) Pour la file M/GI/1, nous avons
E[W ] =
De?monstration.
1 ? 2 ? 2 + ?2
+
.
х 2?(1 ? ?)
Conside?rons la fonction de Heavyside
0 si x ? 0 ,
?x ? IR , H(x) =
1 si x > 0 .
La variable Xn+1 se re?e?crit
Xn+1 = Xn + An+1 ? H(Xn ) .
Elevons les deux membres au carre?
2
E[Xn+1
] = E[Xn2 ]+E[A2n+1 ]+E[U 2 (Xn )]+2E[Xn An+1 ]?2E[Xn U (Xn )]?2E[An+1 U (Xn )] .
Soit L la longueur de la file en re?gime stationnaire. Nous avons
lim E[Xn ] = E[L] .
n??
Notons que
E[H(Xn )] = P(Xn > 0)
et que
lim E[H(Xn )] = lim E[An ] = 1 ? ?0 = ? .
n??
n??
Apre?s calculs, il vient
0 = lim E[A2n+1 ] + ? + 2?E[L] ? 2E[L] ? 2?2 .
n??
Comme V ar(An+1 ) = ?2 ? 2 +?2 (exercice a? traiter a? l?aide de la transforme?e de Laplace),
on a
? 2 ? 2 + ?2
E[L] = ? +
.
2?(1 ? ?)
Le re?sultat de?coule de la formule de Little.
98
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
4.3.4
Exercices
Exercice 53.
De?terminer la loi stationnaire de la file d?attente M/M/s/k.
Exercice 54. De?terminer la loi stationnaire de la file d?attente M/M/1/?/k. Calculer
E[L].
Exercice 55.
E[L].
De?terminer la loi stationnaire de la file d?attente M/M/?. Calculer
Exercice 56. Salon de coiffure.
Des clients arrivent dans un salon de coiffure
pour hommes suivant un processus de Poisson homoge?ne d?intensite? ?. Une proportion
p d?entre eux de?sirent une coupe de cheveux et 1 ? p un rasage. Les dure?es de service
sont de lois exponentielles de parame?tres х1 et х2 dans chaque cas. Lorsqu?un client
arrive et trouve deux clients (1 en service, 1 en attente), il se de?courage.
Soit Xt l?e?tat du salon a? l?instant t. Il y a cinq e?tats possibles.
a) 0 : pas de clients ;
b) 1 et 2 : 1 ou 2 clients, celui qui est en service se fait coiffer ;
c) 3 et 4 : 1 ou 2 clients, celui qui est en service se fait raser.
Quelle est la proportion de clients perdus en re?gime stationnaire ?
Exercice 57. Un serveur est sollicite? par l?arrive?e de clients selon un processus
de Poisson de parame?tre ? = 1. Les dure?es de service des clients sont des variables
ale?atoires inde?pendantes de loi E(х), х = 1. Le serveur traite une seule reque?te a? la fois
et tole?re au plus un client en attente. Les clients qui arrivent et trouvent le syste?me
sature? sont rejete?s.
a) Montrer que l?on peut mode?liser l?e?volution ce syste?me a? l?aide d?un processus de Markov a? trois e?tats. Donner le graphe de transition de ce processus
en pre?cisant les taux associe?s.
b) Ecrire les e?quations de Kolmogorov associe?es a? ce processus.
c) Exprimer la probabilite? qu?un client soit rejete? au temps t.
d) Chaque service occasionne un gain ? > 0 pour le serveur. Quel est le gain
asymptotique moyen par unite? de temps ?
Exercice 58. Des clients arrivent dans un syste?me constitue? de deux serveurs. Le
processus de comptage associe? a? l?arrive?e des clients est un processus de Poisson de
parame?tre ? > 0. Lorsqu?un client trouve les deux serveurs libres, il se dirige vers l?un
d?entre eux avec une probabilite? e?gale a? 1/2. Lorsqu?un serveur est occupe? et l?autre
libre, le client se dirige vers le serveur libre. Lorsque les deux serveurs sont occupe?s,
le client est rejete? de?finitivement du syste?me. A l?instant initial, les deux serveurs
sont libres. Toutes les dure?es de services sont inde?pendantes et de loi exponentielle de
parame?tre х > 0.
4.3. FILES D?ATTENTE
99
a) Montrer que l?on peut mode?liser l?e?volution du nombre de clients pre?sents
dans le syste?me par un processus de Markov a? valeurs dans {0, 1, 2}, de
ge?ne?rateur
?
?
??
?
0
? = ? х ?(? + х) ? ? .
0
2х
?2х
Montrer que ce processus admet une unique loi stationnaire. De?terminer
cette loi.
b) On suppose de?sormais que ? = х = 1. Quelle est la probabilite? stationnaire
pour qu?un client soit rejete? du syste?me a? son arrive?e ? Quel est le nombre
moyen de clients pre?sents dans le syste?me en re?gime stationnaire ?
c) On note p2 (t) la probabilite? pour que les deux serveurs soient occupe?s au
temps t > 0. Montrer que p2 est solution du proble?me diffe?rentiel
p002 = ?5p02 ? 5p2 + 1
p2 (0) = p02 (0) = 0
En de?duire l?expression de p2 (t) pour tout t > 0.
Exercice 59. Temps passe? dans la file M/M/1.
Des clients se pre?sentent a? un
serveur inde?pendamment les uns des autres. Nous supposons que les dure?es se?parant
deux arrive?es conse?cutives sont des variables ale?atoires de loi exponentielle de parame?tre ? < 1. Les clients sont servis par ordre d?arrive?e, puis sortent du syste?me. Les
dure?es de services sont inde?pendantes et de loi exponentielle de parame?tre 1. Soit Nt
le nombre de clients pre?sents dans le syste?me au temps t.
1) Soit h > 0 et n ? 1. De?montrer que
P(Nt+h = n + 1 | Nt = n) = ?h + o(h),
et
P(Nt+h = n ? 1 | Nt = n) = h + o(h).
2) Montrer que (Nt ) est un processus de Markov homoge?ne a? valeurs dans IN.
De?crire le ge?ne?rateur ale?atoire de ce processus.
3) De?montrer que le processus (Nt ) admet une mesure de probabilite? invariante ?
unique telle que
?i ? IN, ?i = K?i , K > 0.
De?duire la valeur de K.
On suppose de?sormais et dans le reste du proble?me que le syste?me est a? l?e?quilibre,
c?est a? dire P(N0 = i) = ?i , et on s?inte?resse au temps total T que passe un client
dans le syste?me.
100
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
4) Soit Si+1 une variable ale?atoire de loi Gamma G(i+1, 1). A? l?aide d?un argument
de conditionnement, de?montrer que
P(T ? t) = K
?
X
?i P(Si+1 ? t).
i=0
5) En introduisant la loi de Poisson, de?montrer que
?t
P(Si+1 ? t) = e
X tj
j>i
j!
.
6) En de?duire la loi de T et le temps moyen passe? par un client dans le syste?me.
Exercice 60. Un syste?me est constitue? de n serveurs inde?pendants. Chaque serveur
est susceptible d?e?tre libre (e?tat 0) ou occupe? (e?tat 1). La dure?e d?un service est une
variable ale?atoire de loi exponentielle de parame?tre х > 0. Lorsque le serveur est libre,
il le reste pendant une dure?e de loi exponentielle de parame?tre 1. Toutes les dure?es
sont inde?pendantes.
1) On suppose que n = 1 et qu?au temps t = 0, le serveur est libre.
De?terminer la probabilite? pour que le serveur soit occupe? au temps t > 0. Soit
T une variable ale?atoire de loi exponentielle de parame?tre ? > 0, inde?pendante
du syste?me. De?duire du calcul pre?ce?dent la probabilite? pour que le serveur soit
occupe? au temps T .
2) On suppose de?sormais que n > 1. Soit Nt le nombre de serveurs occupe?s au
temps t > 0.
a) Soit i un entier strictement positif et X1 , . . . , Xi des variables ale?atoires inde?pendantes de loi exponentielle de parame?tre ? > 0. De?terminer la loi de la
variable
Yi = min X` .
1?`?i
b) Montrer que (Nt ) est un processus de Markov homoge?ne de taux de transition
?
? ?i,i+1 = n ? i si 0 ? i < n
?i,i?1 = iх
si 0 < i ? n
?
?i,j = 0
si j 6= i ? 1, i, i + 1.
Donner le ge?ne?rateur infinite?simal ? de ce processus ainsi que son graphe de
transition.
3) On pose ? = 1/х. Montrer que le processus converge en loi vers une unique loi
invariante ? telle que
?1 ? i ? n, ?i = Cni ?i ?0 .
Reconna??tre dans la loi invariante une loi connue.
4) On suppose que n = 30 et х = 2. A? l?aide du the?ore?me central limite, donner
une valeur approche?e de la probabilite? pour que, en re?gime stationnaire, au moins
80% des serveurs soient libres.
4.3. FILES D?ATTENTE
101
5) On conside?re a? nouveau la variable T de la question 1). Calculer le nombre
moyen de clients dans le syste?me au temps T sachant que N0 = 0.
Exercice 61.
File d?attente M/G/? - Un mode?le de migration.
Des oiseaux migrateurs arrivent dans une zone A selon un processus de Poisson
d?intensite? ? > 0 et y se?journent un temps ale?atoire de fonction de re?partition G avant
de repartir. On note Xt le nombre d?oiseaux repartis de la zone au temps t > 0 et Yt
le nombre d?oiseaux encore pre?sents dans la zone au temps t (Xt + Yt = Nt ).
a) Soit 0 < s ? t. Quelle est la probabilite? p(s) pour qu?un oiseau arrive? au
temps s soit parti au temps t ?
b) Montrer que Xt et Yt sont des variables de loi de Poisson dont on de?terminera
les moyennes respectives.
c) Soit s, t > 0. Calculer les probabilite?s associe?es aux occurrences (arrive?es
d?oiseau) de types suivants
? type 1 : un oiseau arrive avant t et repart entre t et t + s :
? type 2 : un oiseau arrive avant t et repart apre?s t + s ;
? type 3 : un oiseau arrive entre t et t + s et repart apre?s t + s ;
? type 4 : tous les autres cas de figure.
i
d) Soit N i = Nt+s
le nombre d?occurrences de type i = 1, 2, 3, 4 au temps t+s.
Quelle est la loi de N i , i = 1, 2, 3, 4.
Ve?rifier que
Yt = N1 + N2
et
Yt+s = N2 + N3 .
Calculer Cov[Yt , Yt+s ].
Exercice 62.
A? propos de la file M/M/1. Partie 1.
Un syste?me est
constitue? d?une file d?attente de type M/M/1. Le processus d?arrive?e des clients dans
le syste?me est un processus de Poisson de parame?tre ? > 0. Les dure?es de services sont
inde?pendantes et de loi exponentielle de parame?tre х > 0. On note Xt le nombre de
clients dans le syste?me au temps t ? 0. On conside?re le premier instant pour lequel ce
nombre est e?gal a? n ? 1 :
Tn = inf{t ? 0 ; Xt = n} .
Pour tout m ? n ? 1, on note Fm,n la fonction de re?partition de la loi conditionnelle
de la variable Tn sachant X0 = m
?t ? 0 ,
Fm,n (t) = P(Tn ? t | X0 = m)
et fm,n la densite? de probabilite? associe?e.
1) De?terminer F0,1 et f0,1 .
102
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
2) On suppose que n ? 2 et m ? n ? 2. Montrer que
Z t
Fm+1,n (t ? x)dFm,m+1 (x) .
?t ? 0 , Fm,n (t) =
0
3) On note ?m,n la transforme?e de Laplace de la fonction fm,n . Montrer que
?s > 0 , n ? 2 ,
?0,n (s) = ?0,1 (s) ?1,2 (s) . . . ?n?1,n (s) .
4) Soit ?m la dure?e de se?jour dans l?e?tat m, 1 ? m ? n ? 1.
a) Quelle est la loi de ?m ?
b) Montrer que
Z t
?
х
?t ? 0 , Fm,m+1 (t) =
Fm?1,m+1 (t?x)(?+х)e?(?+х)x dx .
P(?m ? t)+
?+х
?+х 0
c) A l?aide des questions 2 et 4b), montrer que
?s > 0 ,
?m,m+1 (s) =
?
.
s + ? + х(1 ? ?m?1,m (s))
d) Calculer ?0,1 , ?1,2 , ?2,3 et ?0,3 .
e) Ve?rifier que
3 2х х2
E[T3 | X0 = 0] = + 2 + 3 .
? ?
?
5) Soit n ? 2. On note ? = х/?.
a) Montrer que
E[Tn | X0 = n ? 1] =
1
(1 + хE[Tn?1 | X0 = n ? 2]) .
?
b) En de?duire que
E[Tn | X0 = n ? 1] =
n
X
?i
i=1
х
.
c) Montrer que
E[Tn | X0 = 0] =
n
X
E[Ti | X0 = i ? 1] .
i=1
d) En de?duire la valeur de E[Tn | X0 = 0] pour ? 6= 1. Quelle est la valeur de
cette espe?rance pour ? = 1 ? Commenter ces diffe?rents re?sultats en fonction
des valeurs de ?.
Exercice 63. A? propos de la file M/M/1. Partie 2.
On suppose maintenant que la capacite? de la file d?attente est limite?e. Le nombre de
clients dans le syste?me (en service ou en attente) ne peut exce?der K = 3. Un client qui
trouve le syste?me sature? a? son arrive?e est de?finitivement rejete?. On note Zt le nombre
de clients dans le syste?me au temps t ? 0. On suppose que Z0 = 0.
4.3. FILES D?ATTENTE
103
1) E?crire les e?quations de Kolmogorov associe?es au processus de Markov {Zt ; t ?
0}. De?crire la loi stationnaire de ce processus.
2) En re?gime stationnaire, quel est le nombre moyen de clients rejete?s par unite? de
temps ?
3) Lorsque le syste?me atteint l?e?tat de saturation, il est instantane?ment re?initialise?
a? ze?ro. Tous les clients sont ainsi perdus. Cette re?initialisation engendre un cou?t
ale?atoire Yi d?espe?rance finie e?gale a? ?. On suppose que les variables Yi sont
inde?pendantes. De?terminer la valeur de la limite
c = lim
E[
PNt
t??
i=1
Yi ]
t
,
Nt de?signe le nombre de fois ou? le syste?me atteint l?e?tat de saturation dans
l?intervalle de temps (0, t).
Exercice 64. Des clients arrivent a? un serveur selon un processus de Poisson de
parame?tre ? = 1. Les dure?es de service sont des variables ale?atoires inde?pendantes de loi
exponentielle de parame?tre х > 0. On conside?re que le syste?me bloque instantane?ment
lorsque n clients se trouvent dans le syste?me (n ? 1). Lors d?un blocage, tous les clients
pre?sents sont perdus, et la dure?e de remise en fonction du syste?me est une variable
ale?atoire de loi exponentielle de parame?tre ? > 0. On mode?lise l?e?tat de cette file
d?attente au temps t ? 0 a? l?aide d?une variable ale?atoire Xt a? valeurs dans l?ensemble
{0, 1, . . . , n ? 1, B}. Les valeurs entie?res correspondent au nombre de clients dans le
syste?me et le symbole B a? l?e?tat de blocage.
1) Soit h > 0 et i = 0, . . . , n ? 2. Montrer que P(Xh = i + 1 | X0 = i) = h + o(h)
et que P(Xh = B | X0 = n ? 1) = h + o(h) . Pour tout i = 1, . . . , n ? 1, montrer
que P(Xh = i ? 1 | X0 = i) = хh + o(h) .
2) Justifier que (Xt )t?0 est un processus de Markov. Donner son ge?ne?rateur infinite?simal et son graphe de transition.
3) On conside?re la loi de probabilite? ? de?finie sur l?ensemble {0, 1, . . . , n ? 1, B} de
la manie?re suivante. Pour tout k = 1, . . . , n,
?n?k = ??B
k?1
X
хi .
i=0
Montrer que la loi ? est invariante pour le processus (Xt )t?0 . Montrer que
?B =
(1 ? х)2
.
(1 ? х)2 + ? (n(1 ? х) ? х(1 ? хn ))
La variable Xt converge-t-elle en loi lorsque t tend vers l?infini ?
4) On suppose que n = 3, х = 2 et ? = 0.5. Combien de clients en moyenne sont
pre?sents dans le syste?me en re?gime stationnaire ?
5) On suppose que n = 2 et que le syste?me ne comporte aucun client a? l?instant
initial. On conside?re la variable ale?atoire T e?gale a? l?instant de premier blocage,
104
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
ainsi que sa fonction re?partition note?e F . Montrer que F est solution de l?e?quation
differentielle
F 00 + (2 + х)F 0 + F = 1 .
(On pourra utiliser les equations de Kolmogorov associe?es au processus correspondant a? ? = 0). Re?soudre cette e?quation diffe?rentielle.
Exercice 65. Des clients arrivent a? un serveur selon un processus de Poisson de
parame?tre ? > 0 et sont servis selon des dure?es de loi exponentielle de parame?tre х. Le
serveur est susceptible d?e?tre en e?tat de blocage pour une raison inde?pendante des arrive?es de clients (panne du serveur, par exemple). La transition vers un e?tat de blocage
s?effectue avec un taux e?gal a? ? et les dure?es de blocage sont de loi exponentielle de
parame?tre ?. A chaque service est associe? un gain positif ale?atoire X, de loi exponentielle de moyenne ?. A chaque blocage est associe?e une perte Y e?gale a? ? fois la dure?e
de blocage. De plus, lors d?un blocage, tous les clients de la file d?attente sont perdus.
Afin d?augmenter le profit re?alise?, on de?cide d?installer un second serveur. Le ro?le
du second serveur est de relayer le premier en cas de blocage. On dira que le potentiel
de relais de ce serveur est p s?il peut couvrir la proportion p des blocages. L?installation
du serveur de relais a un cou?t qui est fonction de son potentiel de relais
C(p) = Kp2 .
L?objectif de ce (gros) exercice est de de?terminer la valeur de p qui maximise le profit
re?alise? en moyenne sur une pe?riode fixe?e de longueur T . Il comporte une partie the?orique
dans laquelle on essayera de de?terminer une approximation convenable du profit moyen
a? l?aide des outils standards du cours (formule de Wald, processus de Poisson compose?s,
renouvellement, etc). Il comportera une partie pratique ou? l?on simulera la variable de
profit pour diffe?rentes valeurs de p. On sugge?re d?analyser les donne?es produites par la
simulation a? l?aide des me?thodes de re?gression line?aire.
Pour fixer les ide?es, on pourra choisir les diffe?rents parame?tres de la manie?re suivante
1.0
?
х
1.5
?
0.5
?
1.0
?
1.0
?
1.0
K 4 ? 40
T 10 ? 100
Exercice 66. On conside?re une file d?attente M/M/1/k de taux d?arrive?e e?gal a? ?
et de taux de service e?gal a? х. On note Lk la taille de la file en re?gime stationnaire.
4.3. FILES D?ATTENTE
105
a) Montrer que
?n ? k ,
P(Lk = n) = P(L? = n | L? ? k) .
b) Calculer la longueur moyenne de la file d?attente en re?gime stationnaire.
En de?duire le temps moyen passe? par un client dans le syste?me en re?gime
stationnaire.
Exercice 67. Une forme produit pour deux files d?attente en re?seau.
Des clients en sortie d?une file M/M/1 sont dirige?s vers un second serveur dont
les dure?es de service sont de loi exponentielle de me?me parame?tre que dans le premier
serveur. On note Xt le nombre de clients pre?sents dans le premier service au temps t et
Yt le nombre de clients pre?sents dans le second. Montrer que le couple (Xt , Yt ) converge
en loi et que asymptotiquement, les deux variables sont inde?pendantes. En de?duire les
lois marginales asymptotiques.
106
CHAPITRE 4. PROCESSUS DE MARKOV ET FILES D?ATTENTE
Chapitre 5
Mouvement brownien et diffusions
Le mouvement brownien est le plus ce?le?bre des processus ale?atoires. Il doit son
appellation au biologiste anglais Brown qui le de?couvre en 1828 lors de l?observation
du mouvement extre?mement de?sordonne? des particules de pollen dans un fluide. La
the?orie mathe?matique a de?bute? en 1900-1905 (Bachelier, Enstein) et s?est poursuivie
vers 1930 jusqu?a? nos jours. Ce processus intervient maintenant dans de nombreux
mode?les de phe?nome?nes naturels, physiques ou e?conomiques.
5.1
5.1.1
Limite de marches ale?atoires
Marche ale?atoire dans Zd
Une marche ale?atoire dans Zd est une cha??ne de Markov en temps discret qui visite
des points ale?atoirement dans cet ensemble en modifiant de la valeur +1 ou -1 une
coordonne?e du point courant. Afin de de?finir rigoureusement cette cha??ne de Markov,
conside?rons l?ensemble des directions de Zd . Cet ensemble est constitue? des d vecteurs
unitaires e1 , . . . , ed et de leurs vecteurs oppose?s ?e1 , . . . , ?ed (2d directions au total).
Soit
Y = T(Y1 , . . . , Yd )
un vecteur ale?atoire de loi uniforme sur l?ensemble de ces directions
?i ? d ,
P(Y = ei ) = P(Y = ?ei ) =
1
.
2d
Des calculs e?le?mentaires montrent que, pour tout k = 1, . . . , d,
P(Yk = 1) = P(Yk = ?1) =
et
1
.
d
En conse?quence, le vecteur Y est d?espe?rance nulle
P(Yk = 0) = 1 ?
E[Y ] = 0
107
1
2d
108
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
et de matrice de covariance diagonale (homothe?tique)
KY =
1
I
d
ou? I est la matrice identite? de dimension d О d. Conside?rons une suite (Yn ) de vecteurs
ale?atoires inde?pendants de me?me loi que Y . La suite de?finie par
?n ? 1 ,
Xn = Y1 + . . . + Yn
est appele?e marche ale?atoire dans Zd .
Proprie?tes des marches ale?atoires Certaines proprie?te?s de la suite (Xn ) de?coulent
imme?diatement de sa de?finition. En particulier,
a) le processus a? temps discret {Xn , n ? 1} est un processus a? accroissements
inde?pendants. En effet, les accroissements sont de?finis de la manie?re suivante
?n, k ? 1 ,
Xn,k = Xn+k ? Xn = Yn+1 + . . . + Yn+k .
Par l?inde?pendance des variables de la suite (Yn ), les accroissements distincts et disjoints sont ne?cessairement inde?pendants.
b) Le processus a? temps discret {Xn , n ? 1} est une cha??ne de Markov homoge?ne sur l?ensemble Zd . Les probabilite?s de transition d?une telle cha??ne
sont donne?es par les relations suivantes
d
?i, j ? Z ,
pij =
1
2d
0
si ki ? jk = 1
si ki ? jk =
6 1.
c) L?espe?rance et la matrice de covariance de la variable Yn se calculent facilement. Nous avons
?n ? 1 ,
E[Xn ] =
n
X
E[Yk ] = 0
k=1
et
?n ? 1 ,
KXn = nKY1 =
n
I
d
Notons finalement que la valeur quadratique moyenne d?une marche ale?atoire est
toujours e?gale a?
n
X
2
E[||Xn || ] =
E[kYk k2 ] = n .
k=1
5.1. LIMITE DE MARCHES ALE?ATOIRES
109
Proprie?te? de re?currence. On dit qu?un e?tat d?une cha??ne de Markov a? temps discret est re?current si la cha??ne y revient presque-su?rement au bout d?un nombre fini
d?e?tapes. Conside?rons une matrice de transition P de?finie sur un ensemble d?e?tats E
de?nombrable. Deux e?tats i et j sont e?quivalents si
?m, n ? 1 ;
pm
ij > 0
et
pnji > 0 .
Pour cette relation, la re?currence est une proprie?te? de classe. Si deux e?tats i et j sont
dans la me?me classe d?e?quivalence alors i est re?current si et seulement si j l?est. Le
re?sultat suivant nous servira par la suite a? caracte?riser la proprie?te? de re?currence.
Proposition 5.1.1 Soit P une matrice de transition de?finie sur un ensemble d?e?tats
E de?nombrable. Alors, i ? E est re?current si et seulement si
?
X
pnii = +? .
n=1
Commentaires. Nous pouvons conside?rer que la proprie?te? de?crite ci-dessus est une
de?finition de la re?currence de l?e?tat i. Pour l?interpre?ter, notons que la condition
?
X
P (Xn = i | X0 = i) < ?
n=1
implique que les e?ve?nements (Xn = i) se produisent p.s en nombre fini, d?apre?s le
lemme de Borel-Cantelli. De plus, pour compter le nombre de retours en i, nous posons
X
Ni =
1 (Xn =i) .
n=1
Conditionnellement au de?part en i, la condition e?nonce simplement que le nombre
moyen de retours est infini
E[Ni | X0 = i] =
?
X
pnii = ?.
n=1
Nous appliquons maintenant ce re?sultat a? l?e?tude des marches ale?atoires sur E = Z,
E = Z2 et E = Z3 . Dans les trois cas, les cha??nes de Markov sont irre?ductibles. Il suffit
donc d?e?tudier la re?currence de l?e?tat i = 0.
Exemple 5.1.1 Marche ale?atoire dans Z.
Solution. La marche ale?atoire dans Z est de?finie de la manie?re suivante. Soit 0 <
p < 1 et q = (1 ? p), alors
P(Y = +1) = p
110
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
et
P(Y = ?1) = q .
La probabilite? d?e?tre en 0 a? l?e?tape 2n est donne?e par
n n n
p2n
00 = C2n p q =
(2n)! n n
p q
n!n!
A? l?e?tape (2n + 1), nous avons
p2n+1
=0.
00
La formule de Stirling
?
1
n! ? nn+ 2 e?n 2?
implique que
(4pq)n
?
p2n
?
.
00
n?
Comme pq ? 1/4, la se?rie diverge ssi p = q = 12 . Dans ce cas, 0 est re?current. Dans le
cas contraire, on dit que 0 est transient.
Exemple 5.1.2 Marche ale?atoire dans Z2 .
Solution. On se de?place dans chacune des 4 directions avec une probabilite? e?gale a?
1/4. Dans ce cas, la probabilite? d?e?tre en 0 a? l?e?tape 2n est donne?e par
p2n
00 =
X (2n)! 1
k!k!l!l! 4( 2n)
k+l=n
En utilisant, la relation
n
X
n
Cnk Cnn?k = C2n
,
k=0
nous avons
p2n
00 ?
1
(C n )2
4( 2n) 2n
Nous avons, gra?ce a? la formule de Stirling,
p2n
00 ?
1
.
n?
Il s?agit du terme ge?ne?ral d?une se?rie divergente. Donc 0 est re?current.
Exemple 5.1.3 Marche ale?atoire dans Z3 .
5.1. LIMITE DE MARCHES ALE?ATOIRES
111
Solution. On se de?place dans chacune des 6 directions avec une probabilite? e?gale a?
1/6. Dans ce cas, on de?montre que
?
3 3
2n
p00 ? 3/2 3/2 .
2? n
Il s?agit cette fois du terme ge?ne?ral d?une se?rie convergente. la probabilite? de retour en
ze?ro est une constante ce?le?bre en probabilite? appele?e constante de Polya. Elle est e?gale
a?
1
= 0.340537 и и и
p(3) = 1 ?
u3
Pre?cise?ment, on peut montrer que
?
6
1
5
7
11
u3 =
?( )?( )?( )?( ).
3
32?
24
24
24
24
Donc, tous les e?tats sont transients. La marche se comporte donc sensiblement
diffe?remment en dimension 3.
5.1.2
Le mouvement brownien standard
De la me?me manie?re que les marches ale?atoires, le mouvement brownien mode?lise un
mouvement de?sordonne? et sans orientation privile?gie?e. Toutefois, les marches ale?atoires
sont des processus ale?atoires dont le temps et l?espace sont discrets. Pour le mouvement
brownien, le temps et l?espace seront des dimensions continues. Nous allons dans ce paragraphe de?crire le mouvement brownien comme la limite de suite de marches ale?atoires.
Pour rendre continus a? la fois le temps et les distances parcourues, un e?le?ment de temps
?t et un e?le?ment de distance ?x sont introduits. Le mouvement brownien standard est
obtenu comme limite, quand ?t et ?x tendent vers zero, de marches ale?atoires ou? les
pas de longueur ?x se succe?dent a? des intervalles de dure?e ?t. Pour ?t et ?x fixes,
on pose
?t ? 0, Xt? = ?xXbt/?tc
ou brc de?signe la partie entie?re du re?el r.
Commentaires. Le processus {Xt? , t ? 0} est une marche ale?atoire dont les transitions se succe?dent tous les intervalles de temps ?t et dont les accroissements sont de
longueur ?x.
Les proprie?tes suivantes s?obtiennent imme?diatement.
? L?espe?rance de Xt? est e?gale a?
E[Xt? ] = ?xE[Xbt/?tc ] = 0 .
? La matrice de covariance de Xt? est e?gale a?
KXt? = (?x)2 KXbt/?tc = (?x)2 b
t 1
c I.
?t d
112
CHAPITRE 5. MOUVEMENT BROWNIEN ET DIFFUSIONS
? La valeur quadratique moyenne de Xt? est
E[kXt? k2 ] = (?x)2 b
t
c.
?t
Notre objectif est de faire tendre a? la fois ?x et ?t vers 0. Pour assurer l?existence
d?une limite, nous souhaitons que la norme quadratique moyenne reste finie. Pour cela,
nous imposons
1
?t =
n
et
r
d
?x =
,
n
(n)
ou? n est un entier positif. L
Документ
Категория
Без категории
Просмотров
12
Размер файла
561 Кб
Теги
processus, francois, pdf, 913, 2005, aleatoires
1/--страниц
Пожаловаться на содержимое документа