You are on page 1of 258

Probabilidade, Estatstica e Processos Estocsticos

Carlos Alberto Ynoguti


25 de janeiro de 2011
Agradecimentos
Ao Prof. Dr. Dayan Adionel Guimares pela criteriosa reviso do texto.
Sumrio
Lista de Figuras vii
1 Probabilidade 1
1.1 Introduo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Teoria de Conjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Lei de De Morgan. . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Princpio da Dualidade. . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Denies de Probabilidade. . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Frequncia Relativa. . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Axiomtica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3 Clssica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Clculo de probabilidades usando mtodos de contagem. . . . . . . . . . 7
1.4.1 Amostragem com reposio e ordenao. . . . . . . . . . . . . . . 8
1.4.2 Amostragem sem reposio e com ordenao. . . . . . . . . . . . 8
1.4.3 Permutao de n objetos distintos. . . . . . . . . . . . . . . . . . 9
1.4.4 Amostragem sem reposio e sem ordenao. . . . . . . . . . . . 10
1.4.5 Amostragem com reposio e sem ordenao. . . . . . . . . . . . 11
1.5 Probabilidade Conjunta. . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5.1 Probabilidades Marginais. . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Probabilidade Condicional. . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.1 Regra de Bayes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7 Eventos independentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.8 Experimentos sequenciais e diagramas em rvore . . . . . . . . . . . . . 16
1.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2 Variveis Aleatrias 25
2.1 Denio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Funo distribuio cumulativa. . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Tipos de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.1 Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.2 Contnuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.3 Mistas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Funo Densidade de Probabilidade . . . . . . . . . . . . . . . . . . . . . 33
2.4.1 Denio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.3 Caso Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Algumas variveis aleatrias discretas importantes . . . . . . . . . . . . 36
2.5.1 Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
SUMRIO iii
2.5.2 Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5.3 Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5.4 Geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6 Algumas variveis aleatrias contnuas importantes . . . . . . . . . . . . 38
2.6.1 Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6.2 Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6.3 Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6.4 Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6.5 Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.6.6 m-Erlang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6.7 Chi-Quadrado (
2
) . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.8 Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.9 Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7 Densidades Condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8 Variveis Aleatrias Mltiplas . . . . . . . . . . . . . . . . . . . . . . . . 51
2.8.1 Funo Distribuio de Probabilidade Conjunta . . . . . . . . . . 51
2.8.2 Densidades marginais . . . . . . . . . . . . . . . . . . . . . . . . 52
2.8.3 Caso multidimensional . . . . . . . . . . . . . . . . . . . . . . . . 53
2.8.4 Funo distribuio de probabilidade condicional . . . . . . . . . 54
2.8.5 Independncia Estatstica de Variveis Aleatrias . . . . . . . . . 56
2.9 Funes de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . . 56
2.9.1 Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.9.2 Caso Multidimensional . . . . . . . . . . . . . . . . . . . . . . . . 61
2.10 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3 Mdias Estatsticas de Variveis Aleatrias 72
3.1 Mdias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.1.1 Mdia de uma Varivel Aleatria . . . . . . . . . . . . . . . . . . 72
3.1.2 Mdia de uma Funo de uma Varivel Aleatria . . . . . . . . . 74
3.1.3 Mdias para Variveis Mltiplas . . . . . . . . . . . . . . . . . . 75
3.1.4 Mdia da Soma de Funes . . . . . . . . . . . . . . . . . . . . . 76
3.1.5 Mdia do Produto de Duas Variveis Aleatrias Independentes . 77
3.1.6 Mdia Quadrtica da Soma de Duas Variveis Aleatrias . . . . . 77
3.1.7 Mdia condicional . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2.1 N-simo momento . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2.2 Momentos Centrais . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2.3 Varincia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2.4 Caso Multidimensional . . . . . . . . . . . . . . . . . . . . . . . . 80
3.2.5 Variveis Aleatrias Descorrelacionadas e Ortogonais . . . . . . . 82
3.3 Funes Caractersticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3.1 Caso multidimensional . . . . . . . . . . . . . . . . . . . . . . . . 85
3.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4 Mtodos computacionais para gerao de nmeros aleatrios 90
4.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.2 Mtodo do resduo da potncia . . . . . . . . . . . . . . . . . . . . . . . 90
4.3 Mtodo da transformada . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
iv SUMRIO
4.4 O mtodo da rejeio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5 Gerao de funes de uma varivel aleatria . . . . . . . . . . . . . . . 97
4.6 Gerao de misturas de variveis aleatrias . . . . . . . . . . . . . . . . 98
4.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5 Somas de Variveis Aleatrias e o Teorema do Limite Central 100
5.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.2 Mdias de somas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.3 Fdp da soma de duas v.a.s . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.4 Funo geratriz de momentos . . . . . . . . . . . . . . . . . . . . . . . . 105
5.5 FGM da soma de v.a.s independentes . . . . . . . . . . . . . . . . . . . 109
5.6 Somas de v.a.s gaussianas independentes . . . . . . . . . . . . . . . . . 111
5.7 Somas aleatrias de v.a.s independentes . . . . . . . . . . . . . . . . . . 112
5.8 Teorema do limite central . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.9 Aplicaes do Teorema do Limite Central . . . . . . . . . . . . . . . . . 118
5.10 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6 Limitantes Superiores para a Probabilidade de Cauda 125
6.1 Desigualdade de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.2 Desigualdade de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.3 Limitante de Cherno . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7 A mdia amostral 132
7.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.2 Valor esperado e varincia . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.3 Mdia amostral de nmeros grandes . . . . . . . . . . . . . . . . . . . . 134
7.4 Leis de Nmeros Grandes . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.4.1 Lei Fraca de Nmeros Grandes . . . . . . . . . . . . . . . . . . . 136
7.4.2 Lei Forte de Nmeros Grandes . . . . . . . . . . . . . . . . . . . 137
7.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
8 Processos Estocsticos 140
8.1 Denio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8.2 Tipos de procesos estocsticos . . . . . . . . . . . . . . . . . . . . . . . . 142
8.3 Variveis aleatrias a partir de processos estocsticos . . . . . . . . . . . 143
8.4 Sequncias aleatrias independentes e identicamente distribudas . . . . 145
8.5 Processo de Contagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.6 Processo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
8.7 Processo sinal telegrco aleatrio . . . . . . . . . . . . . . . . . . . . . 152
8.8 Processo movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . 154
8.9 Mdias estatsticas de processos aleatrios . . . . . . . . . . . . . . . . . 155
8.9.1 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
8.9.2 Funo de autocovarincia . . . . . . . . . . . . . . . . . . . . . . 159
8.10 Classicao dos processos estocsticos . . . . . . . . . . . . . . . . . . . 160
8.10.1 Processos estocsticos estacionrios e no estacionrios . . . . . . 160
8.10.2 Processos estacionrios no sentido amplo . . . . . . . . . . . . . . 161
8.10.3 Processos ergdicos . . . . . . . . . . . . . . . . . . . . . . . . . . 164
8.11 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
SUMRIO v
9 Processamento de Sinais Aleatrios 173
9.1 Sistemas lineares e invariantes no tempo . . . . . . . . . . . . . . . . . . 173
9.2 Filtragem linear de um processo estocstico . . . . . . . . . . . . . . . . 174
9.3 Espectro densidade de potncia . . . . . . . . . . . . . . . . . . . . . . . 177
9.4 Correlaes cruzadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
9.4.1 Funo de correlao cruzada . . . . . . . . . . . . . . . . . . . . 181
9.4.2 Densidade espectral cruzada . . . . . . . . . . . . . . . . . . . . . 184
9.4.3 Filtragem de processos estocsticos . . . . . . . . . . . . . . . . . 186
9.5 Processos gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
9.6 Processo rudo branco gaussiano . . . . . . . . . . . . . . . . . . . . . . 191
9.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
10 Cadeias de Markov 199
10.1 Processos de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.2 Cadeias de Markov de Tempo discreto . . . . . . . . . . . . . . . . . . . 202
10.2.1 Probabilidade de transio para n passos . . . . . . . . . . . . . . 203
10.2.2 Probabilidades dos estados . . . . . . . . . . . . . . . . . . . . . 204
10.2.3 Probabilidades em regime . . . . . . . . . . . . . . . . . . . . . . 206
10.3 Cadeias de Markov em tempo contnuo . . . . . . . . . . . . . . . . . . . 207
10.3.1 Tempos de ocupao de estados . . . . . . . . . . . . . . . . . . . 209
10.3.2 Taxas de transio e probabilidades de estados dependentes de
tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
10.4 Probabilidades de Estados em Regime e Equaes de Balano Globais . 214
10.5 Classes de estados, propriedades de recorrncia e probabilidades limite . 218
10.5.1 Classes de estados . . . . . . . . . . . . . . . . . . . . . . . . . . 218
10.5.2 Propriedades de recorrncia . . . . . . . . . . . . . . . . . . . . . 220
10.5.3 Probabilidades limite . . . . . . . . . . . . . . . . . . . . . . . . . 223
10.5.4 Probabilidades limite para as cadeias de Markov de tempo contnuo226
10.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
A Tabelas Matemticas 234
A.1 Identidades trigonomtricas . . . . . . . . . . . . . . . . . . . . . . . . . 234
A.2 Coecientes Binomiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
A.3 Derivadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
A.4 Integrais indenidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
A.5 Integrais denidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
B Tabelas de transformadas de Fourier 238
B.1 Denio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
B.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
B.3 Pares de transformadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
C Sries de Taylor 240
C.1 Srie de Taylor para funes de uma varivel . . . . . . . . . . . . . . . 240
C.2 Expanses mais utilizadas . . . . . . . . . . . . . . . . . . . . . . . . . . 240
vi SUMRIO
D Variveis aleatrias discretas 242
D.1 Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
D.2 Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
D.3 Geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
D.4 Binomial negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
D.5 Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
E Variveis aleatrias contnuas 244
E.1 Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
E.2 Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
E.3 Gaussiana (Normal) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
E.4 Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
E.5 m-Erlang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
E.6 Chi-Quadrado (
2
) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
E.7 Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
E.8 Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
E.9 Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
F Valores da distribuio normal 247
Bibliograa 250
Lista de Figuras
1.1 Espao amostral para o arremesso de um dado. . . . . . . . . . . . . . . 2
1.2 Representao do a) complemento, b) unio, c) interseo de eventos, e
d) eventos disjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Demonstrao da lei de De Morgan. . . . . . . . . . . . . . . . . . . . . 4
1.4 Espao amostral para a derivao da regra de Bayes. . . . . . . . . . . . 13
2.1 Uma v.a. associa um nmero x = X() a cada resultado no espao
amostral S de um experimento aleatrio. . . . . . . . . . . . . . . . . . . 25
2.2 Eventos equivalentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 P[a < X b] = F
X
(b) F
X
(a) . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Exemplo de uma fdc de uma v.a. discreta. . . . . . . . . . . . . . . . . . 31
2.5 Grco da fdc de v.a. contnua X. . . . . . . . . . . . . . . . . . . . . . 31
2.6 Grco de F

X
(x). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.7 Um exemplo de v.a. mista. . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.8 A funo densidade de probabilidade especica a probabilidade de inter-
valos de largura innitesimal. . . . . . . . . . . . . . . . . . . . . . . . . 34
2.9 A probabilidade de um intervalo [a, b] a rea sob a fdp naquele intervalo. 34
2.10 Fdcs condicional e incondicional de X. . . . . . . . . . . . . . . . . . . . 51
2.11 a) Dependncia entre X e Y, b) f
X
(x), e c) f
Y
(y). . . . . . . . . . . . . 57
2.12 Uma transformao da v.a. X e um exemplo das fdps correspondentes
de X e Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.13 Funo de uma v.a. com duas razes. . . . . . . . . . . . . . . . . . . . . 59
2.14 Uma transformao quadrtica da v.a. X. . . . . . . . . . . . . . . . . . 60
2.15 Funo densidade de probabilidade de Rayleigh. . . . . . . . . . . . . . . 64
3.1 Funo densidade de probabilidade gaussiana com mdia m e varincia
2
. 73
3.2 Y = g(X). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.1 Mtodo da transformada para gerar uma varivel aleatria com fdc F
X
(x). 92
4.2 Gerando uma varivel aleatria com distribuio de Bernoulli. . . . . . . 93
4.3 Gerando uma varivel aleatria com distribuio Binomial. . . . . . . . . 94
4.4 Mtodo da rejeio para gerar uma varivel aleatria com fdp f
X
(x). . . 95
4.5 Mtodo da rejeio para gerar uma varivel aleatria com distribuio
gama (0 < < 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.1 Regio de integrao para a obteno de F
W
(w). . . . . . . . . . . . . . 103
5.2 Regio de integrao para a obteno de F
W
(w). . . . . . . . . . . . . . 104
viii LISTA DE FIGURAS
5.3 O nmero de caras em 50 arremessos de uma moeda ideal: 400 repeties
experimentais versus a fmp binomial. . . . . . . . . . . . . . . . . . . . . 117
6.1 Regio A (sombreada). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.2 Um limitante superior exponencial usado para obter a probabilidade de
cauda (limitante de Cherno). . . . . . . . . . . . . . . . . . . . . . . . . 128
7.1 Convergncia de uma sequncia de mdias amostrais obtidas a partir
de uma sequncia de v.a.s com distribuio Gaussiana de mdia 4 e
varincia 10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
8.1 Um processo estocstico que representa a temperatura de uma cidade. . 141
8.2 Um conjunto com um nmero nito de funes amostra. . . . . . . . . . 141
8.3 Funes amostra de quatro tipos de processos estocsticos: X(t) um
processo contnuo no tempo e na amplitude; X(n), obtido a partir da
amostragem de X(t) em instantes de tempo inteiros n, discreto no tempo
e contnuo na amplitude; Y (t) obtida a partir da quantizaco de X(t)
nos instantes de amostragem, e um processo discreto na amplitude e
contnuo no tempo; nalmente, Y (n), um processo discreto no tempo e
na amplitude, obtido a partir da amostragem de Y (t). . . . . . . . . . 143
8.4 Funo amostra de um processo de contagem . . . . . . . . . . . . . . . 148
8.5 Funo amostra de um processo telegrco aleatrio . . . . . . . . . . . 152
8.6 Forma de onda do pulso p(t). . . . . . . . . . . . . . . . . . . . . . . . . 155
8.7 Erro de deteo devido ao rudo. . . . . . . . . . . . . . . . . . . . . . . 156
8.8 Processo estocstico comprimido no tempo. . . . . . . . . . . . . . . . . 157
8.9 Fdp dos processos x e y. . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.10 Funes de autocorrelao para os processos X(t) e Y (t). . . . . . . . . 158
8.11 Processo aleatrio X(t) = Acos(
c
t +). . . . . . . . . . . . . . . . . . . 162
8.12 Classicao dos processos estocsticos. . . . . . . . . . . . . . . . . . . 165
9.1 Filtro passa faixa ideal H(f) com frequncia central f
0
e largura de banda
B Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
9.2 A correlao cruzada entre a entrada e a sada de um ltro linear inva-
riante no tempo a convoluo da resposta a impulso do ltro com a
funo de autocorrelao da entrada. A densidade espectral cruzada en-
tre a entrada e a sada o produto do espectro densidade de potncia da
entrada com a funo de transferncia do ltro. A densidade espectral de
potncia da sada o produto da densidade espectral cruzada da entrada
e da sada e o complexo conjugado da funo de transferncia do ltro. . 188
10.1 Transies para o estado j. . . . . . . . . . . . . . . . . . . . . . . . . . 211
10.2 Balano global de uxo de probabilidade. . . . . . . . . . . . . . . . . . 215
10.3 Diagrama de transio de estados para o sistema M/M/1. . . . . . . . . 216
10.4 Diagrama de taxa de transio para um processo de nascimento e morte
geral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
10.5 Instantes de recorrncia para o estado i. . . . . . . . . . . . . . . . . . . 224
Captulo 1
Probabilidade
1.1 Introduo.
Em muitos problemas fsicos de interesse, existe um elemento de incerteza, ou aleato-
riedade. Independente de quanto possamos conhecer da histria passada de um dado
fenmeno, somos essencialmente incapacitados de predizer seu comportamento futuro
de forma precisa. Ex. cara ou coroa.
Foi observado que nestes casos certas mdias tendem a um valor constante medida
em que o nmero de observaes cresce. (No exemplo da cara e coroa, quais seriam
estas mdias?) Desde que as mdias geralmente exibem tal regularidade, e so portanto
razoavelmente previsveis, parece ser desejvel desenvolver um estudo sobre o clculo
destas mdias. Este o domnio da teoria matemtica da probabilidade e estatstica.
O propsito desta descrever e predizer tais mdias em termos de probabilidades de
eventos.
Algumas denies importantes:
Denio 1.1. Experimento aleatrio: um experimento chamado aleatrio se
seu resultado no pode ser predito precisamente porque as condies em que realizado
no podem ser predeterminadas com preciso suciente.
Exemplo: arremesso de dados ou moedas.
Denio 1.2. Resultados: so os resultados particulares da execuo de um ex-
perimento.
Exemplo: cara, coroa.
2 Probabilidade
Denio 1.3. Eventos: so conjuntos de resultados que atendem a algumas espe-
cicaes.
Exemplo: no caso de jogar dados, o evento nmero mpar em um arremesso pode
resultar de qualquer um de 3 resultados 1,3,5. Desta forma este um evento de 3
resultados. Portanto, eventos so agrupamentos de resultados em classes.
1.2 Teoria de Conjuntos.
Denio 1.4. Espao amostral: o espao amostral S denido como uma coleo
de todos os resultados possveis de um experimento aleatrio. Cada resultado um
elemento ou amostra deste espao e pode ser convenientemente representado por um
ponto no espao amostral.
Exemplo 1.1. No caso do dado, o espao amostral consiste de 6 elementos
1
,
2
,
3
,

4
,
5
,
6
, onde os
i
representam o resultado i pontos. O evento, por outro lado,
um subconjunto de S.
O evento nmero mpar em um arremesso, denotado por A
o
, um subconjunto de
S (ou um conjunto com os elementos
1
,
3
e
5
). Similarmente, o evento nmero par
em um arremesso, denotado por A
e
outro subconjunto de S (ou um conjunto com os
elementos
2
,
4
e
6
). O evento nmero menor ou igual a 4 em uma jogada, denotado
por B formado pelos elementos
1
,
2
,
3
e
4
.
Na Figura 1.1 abaixo, tem-se uma representao grca destes eventos em um dia-
grama de Venn.
S
B
A
o
A
e

1

3

5

2

4

6
Figura 1.1: Espao amostral para o arremesso de um dado.
Probabilidade 3
Denio 1.5. O complemento de um evento A, denotado por A
c
, o evento que
contm todos os pontos de S que no esto em A.
No exemplo acima, quais so os eventos complementares de A
o
, A
e
, e B ?.
Denio 1.6. Um evento que no contm elementos chamado de evento nulo,
e denotado por .
Observe que o evento nulo o complemento do espao amostral S : = S
c
.
Denio 1.7. A unio de eventos A e B, denotada por AB, aquele que contm
todos os pontos em A e B.
Verique no exemplo anterior quais so os eventos A
o
A
e
, A
o
B, A
e
B). Observe
que A B = B A.
Denio 1.8. A interseo dos eventos A e B, denotada por A B ou simples-
mente AB, o evento que contm pontos comuns a A e a B. Este evento tambm
conhecido como evento conjunto AB.
Observe que AB = BA. Na gura 1.2 abaixo, tem-se estes conceitos mostrados
gracamente em diagramas de Venn.
Denio 1.9. Se os eventos A e B so tais que AB = ento A e B so ditos
eventos disjuntos ou mutuamente exclusivos.
Isto quer dizer que A e B no podem ocorrer simultaneamente. (A e A
c
so mutu-
amente exclusivos).
Estes conceitos so mostrados de forma grca na Figura 1.2.
Importante!!!!
O operador para o
complemento tambem
pode ser representado
por uma barra.
4 Probabilidade
ts
a) b) c) d)
A A
A
A
B B
B
S S S S
A
c
Figura 1.2: Representao do a) complemento, b) unio, c) interseo de eventos, e d)
eventos disjuntos.
1.2.1 Lei de De Morgan.
Teorema 1.1. Se A e B so eventos em um espao amostral ento:
A+B = AB (1.1)
Equivalentemente, podemos escrever:
AB = A+B (1.2)
Demonstrao. A lei de De Morgan pode ser facilmente demonstrada por meio de dia-
gramas de Venn:
A A B B
A+B A B AB
Figura 1.3: Demonstrao da lei de De Morgan.
Observao
A aplicao repetida da equao (1.1) leva ao seguinte: se em uma identidade de con-
juntos substituimos todos os conjuntos pelos seus complementos, todas as unies por
interseces, e todas as interseces por unies, a identidade preservada.
Exemplo 1.2. Seja a identidade
Probabilidade 5
A(B +C) = AB +AC (1.3)
Usando (1.1) segue que
A(B +C) = A +B +C = A+B C
Similarmente
AB +AC = AB AC = (A +B)(A +C)
e desde que os dois lados de (1.3) so iguais, seus complementos tambm o so. Portanto
A+B +C = (A+B)(A +C) (1.4)
Estas identidades podem ser facilmente conferidas por meio de diagramas de Venn.
1.2.2 Princpio da Dualidade.
Sabemos que S = e = S. Alm disso, se em uma identidade como (1.3) todas as
barras forem removidas, a identidade preservada. Isto leva seguinte verso da lei de
De Morgan:
Proposio 1.1. Se em uma identidade de conjuntos substitumos todas as unies
por interseces, todas as interseces por unies, e os conjuntos S e pelos conjuntos
e S respectivamente, a identidade preservada.
Aplicando o teorema acima s identidades
A(B +C) = AB +AC S = A +S
obtemos as identidades
A +BC = (A +B)(A +C) = A
1.3 Denies de Probabilidade.
1.3.1 Frequncia Relativa.
Embora o resultado de um experimento aleatrio seja imprevisvel, existe uma regula-
ridade estatstica sobre este, e a denio por freqncia relativa baseia-se nesta regu-
laridade.
6 Probabilidade
Denio 1.10. A probabilidade P(A) de um evento A dada pelo limite
P(A) = lim
n
n
A
n
(1.5)
onde n
A
o nmero de ocorrncias de A e n o nmero de tentativas.
Observaes importantes
1. Segue da denio que 0 P(A) 1.
2. Se A e B so dois eventos mutuamente exclusivos
P(A +B) = P(A) +P(B) = lim
n
n
A
+n
B
n
(1.6)
3. Se A
1
, A
2
, ..., A
N
no forem mutuamente exclusivos ento:
P(A
1
+A
2
+... +A
N
) < P(A
1
) +P(A
2
) +. . . +P(A
N
) (1.7)
1.3.2 Axiomtica.
Denio 1.11. A aproximao axiomtica para a probabilidade baseada nos trs
postulados seguintes e nada mais:
1. A probabilidade P(A) de um evento A um nmero positivo associado a este
evento
P(A) 0 (1.8)
2. A probabilidade do espao amostral igual a 1
P(S) = 1 (1.9)
3. Se os eventos A e B so mutuamente exclusivos, ento
P(A+B) = P(A) +P(B) (1.10)
Propriedades:
P() = 0 evento impossvel
P(A
c
) = 1 P(A) A
c
complemento de A
P(A+B) = P(A) +P(B) P(AB) P(A) +P(B) probabilidade da unio
Exemplo 1.3. Determinar a probabilidade de obteno de uma cara e duas coroas em
3 arremessos de uma moeda ideal.
P(A+B)=P(A)+P(B)-P(AB)
Probabilidade 7
Soluo. Neste caso, os resultados possveis so:
1) ca, ca, ca 5) co, ca, ca
2) ca, ca, co 6) co, ca, co
3) ca, co, ca 7) co, co, ca
4) ca, co, co 8) co, co, co
So possveis 8 resultados mutuamente exclusivos P(A
i
) = 1/8
P(1ca, 2co) = P(A
4
) +P(A
6
) +P(A
7
) = 3/8.
1.3.3 Clssica.
Denio 1.12. A probabilidade P(A) de um evento A determinada a priori sem
experimentao real, e dada pela expresso
P(A) =
n
A
n
(1.11)
onde:
n: nmero de resultados possveis,
n
A
: nmero de resultados favorveis ao evento A.
Verso melhorada da denio clssica
Denio 1.13. A probabilidade de um evento igual razo entre seus resulta-
dos favorveis e o nmero total de resultados, desde que todos os resultados sejam
equiprovveis.
Exemplo 1.4. Arremesso de um dado P(mpar) = 3/6 = 1/2.
1.4 Clculo de probabilidades usando mtodos de conta-
gem.
Em muitos experimentos com espaos amostrais nitos, os resultados podem ser assu-
midos como sendo equiprovveis. A probabilidade de um evento ento a razo entre
o nmero de resultados no evento de interesse e o nmero total de resultados no espao
amostral. O clculo das probabilidades se reduz a contar o nmero de resultados de um
evento.
Fim da Aula 1
Este eh o caso de um dado ou de um baralho
8 Probabilidade
Suponha que um teste de mltipla escolha tem k questes e para a questo i o
estudante precisa selecionar uma entre n
i
respostas possveis. Qual o nmero total de
modos de responder a todo o teste?
A resposta questo i pode ser vista como a especicao da i-sima componente de
uma k-upla, de modo que a questo acima equivalente a: quantas k-uplas ordenadas
distintas (x
1
, . . . , x
k
) so possveis se x
i
um elemento de um conjunto com n
i
elementos
distintos?
O nmero de k-uplas ordenadas distintas (x
1
, . . . , x
k
) com componentes x
i
, de um
conjunto com n
i
elementos distintos dado por
nmero de k-uplas ordenadas distintas = n
1
n
2
. . . n
k
(1.12)
Muitos problemas de contagem podem ser colocados como problemas de amostra-
gem onde selecionamos bolas em urnas ou objetos em populaes. Iremos agora usar
a Equao 1.12 para desenvolver frmulas combinatoriais para vrios tipos de amostra-
gem.
1.4.1 Amostragem com reposio e ordenao.
Suponha que escolhemos k objetos de um conjunto A que tem n objetos distintos, com
reposio. Iremos nos referir ao conjunto A como a populao. O experimento produz
uma k-upla ordenada (x
1
, . . . , x
k
), onde x
i
A, i = 1, 2, . . . , k. A Equao 1.12, com
n
1
= n
2
= . . . = n
k
= n implica que
nmero de k-uplas ordenadas distintas = n
k
(1.13)
Exemplo 1.5. Uma urna contm cinco bolas numeradas. Suponha que selecionamos
duas bolas da urna com reposio. Quantos pares ordenados distintos so possveis?
Qual a probabilidade de retirar duas vezes a mesma bola?
Soluo. A Equao 1.13 diz que o nmero de pares ordenados 5
2
= 25. Na Tabela
abaixo temos os pares possveis. Cinco dos resultados possveis so de bolas com o
mesmo nmero. Se supomos que todos os resultados possveis so equiprovveis, ento
a probabilidade de retirar a mesma bola duas vezes 5/25 = 0, 2.
(1,1) (1,2) (1,3) (1,4) (1,5)
(2,1) (2,2) (2,3) (2,4) (2,5)
(3,1) (3,2) (3,3) (3,4) (3,5)
(4,1) (4,2) (4,3) (4,4) (4,5)
(5,1) (5,2) (5,3) (5,4) (5,5)
1.4.2 Amostragem sem reposio e com ordenao.
O problema agora consiste em escolher k objetos em sucesso, sem reposio, de uma
populao A de n objetos distintos. Claramente, k n. O nmero de resultados
possveis na primeira retirada n
1
= n, e o nmero de resultados possveis na segunda
Seja um LED que pode assumir 4 cores
diferentes. Quantas sequencias diferentes de
cores pode existir com 3 LEDs?
Note que a ordem da sequencia
importa, ou seja, a diferenca na
ordem faz com que a sequencia
seja diferente!
Probabilidade 9
retirada n
2
= n 1, e assim por diante, at n
k
= n (k 1) na retirada nal. Desta
forma, a Equao 1.12 fornece
nmero de k-uplas ordenadas distintas = n(n 1) . . . (n k + 1) (1.14)
Exemplo 1.6. Uma urna contm cinco bolas numeradas. Suponha que selecionamos
duas bolas da urna em sucesso, e sem reposio. Quantos pares ordenados distintos
so possveis? Qual a probabilidade de que a primeira bola tenha um nmero maior
que a segunda?
Soluo. A Equao 1.14 mostra que o nmero de pares ordenados possveis 5(4) =
20. Estes so mostrados na Tabela abaixo. Dez pares ordenados nesta tabela tm o
primeiro nmero maior que o segundo, de forma que a probabilidade deste evento
10/20 = 0,5.
(1,2) (1,3) (1,4) (1,5)
(2,1) (2,3) (2,4) (2,5)
(3,1) (3,2) (3,4) (3,5)
(4,1) (4,2) (4,3) (4,5)
(5,1) (5,2) (5,3) (5,4)
1.4.3 Permutao de n objetos distintos.
Considere uma amostragem sem reposio com k = n. Isto equivale a retirar objetos de
uma urna at que ela esteja vazia. Ento o nmero de seqncias possveis de n objetos
distintos igual ao nmero de n-uplas da amostragem sem reposio com k = n. Da
Equao 1.14, temos
nmero de permutaes de n objetos = n(n 1) . . . (2)(1) = n! (1.15)
Para n grande, a frmula de Stirling bastante til:
n!

2 n
n+
1
2
e
n
(1.16)
Exemplo 1.7. Encontre o nmero de permutaes de trs objetos distintos 1,2,3.
Soluo. A Equao 1.15 fornece 3! = 6. As seis permutaes so
123 312 231 132 213 321
10 Probabilidade
1.4.4 Amostragem sem reposio e sem ordenao.
Suponha que pegamos k objetos de um conjunto de n objetos distintos sem reposio e
armazenamos o resultado sem nos importarmos com a ordem. Chamamos o subconjunto
resultante de k objetos selecionados de uma combinao de tamanho k".
Da Equao 1.15, existem k! sequncias nas quais os objetos selecionados podem ter
sido selecionados. Ento se C
n
k
denota o nmero de combinaes de tamanho k de um
conjunto de tamanho n, ento C
n
k
k! o nmero total de amostras ordenadas distintas
de k objetos, a qual dada pela Equao 1.14. Ento
C
n
k
k! = n(n 1) . . . (n k + 1) (1.17)
e o nmero de combinaes diferentes de tamanho k de um conjunto de tamanho n,
k n,
C
n
k
=
n(n 1) . . . (n k + 1)
k!
=
n!
k!(n k)!

_
n
k
_
(1.18)
A expresso
_
n
k
_
chamada de coeciente binomial.
Note que escolher k objetos de um conjunto de n equivalente a escolher os (n k)
objetos que no foram selecionados. Segue ento que
_
n
k
_
=
_
n
n k
_
(1.19)
Exemplo 1.8. Encontre o nmero de modos de selecionar dois objetos de A = {1, 2, 3,
4, 5} sem se importar com a ordem.
Soluo. A Equao 1.18 fornece
_
5
2
_
=
5!
2!3!
= 10 (1.20)
Abaixo temos a listagem destes 10 pares.
(1,2) (1,3) (1,4) (1,5)
(2,3) (2,4) (2,5)
(3,4) (3,5)
(4,5)
Exemplo 1.9. Encontre o nmero de permutaes distintas de k bolas brancas e (nk)
bolas pretas.
Soluo. Este problema equivalente ao seguinte problema de amostragem: coloque n
etiquetas numeradas de 1 a n em uma urna, onde cada etiqueta representa uma posio
no arranjo das bolas; pegue uma combinao de k etiquetas e coloque as k bolas brancas
nas posies correspondentes.
Cada combinao de tamanho k leva a um arranjo diferente (permutao) de k bolas
brancas e (n k) bolas pretas.
Ento o nmero de permutaes distintas de k bolas brancas e (n k) bolas pretas
C
n
k
.
Note que (i,k) e (k,i) sao o mesmo evento!
Probabilidade 11
Este exemplo mostra que a amostragem sem reposio e sem ordenao equivalente
a particionar o conjunto de n objetos distintos em dois conjuntos: B, contendo os k
itens que foram retirados da urna, e B
c
, contendo os (n k) deixados na urna.
Suponha que particionemos um conjunto de n objetos distintos em F subconjuntos
B
1
, B
2
, . . . , B
F
, onde ao subconjunto B
j
so associados k
j
elementos e k
1
+k
2
+. . .+k
F
=
n.
Neste caso, o nmero de combinaes distintas dado por
n!
k
1
!k
2
! . . . k
F
!
(1.21)
A Equao 1.21 chamada de coeciente multinomial. O coeciente binomial o
caso F = 2 dos coecientes multinomiais.
1.4.5 Amostragem com reposio e sem ordenao.
Suponha que tomemos k objetos de um conjunto de n objetos distintos com reposio
e armazenamos os resultados sem nos importarmos com a ordem. Isto pode ser feito
preenchendo-se um formulrio com n colunas, uma para cada objeto distinto. Cada
vez que um objeto selecionado, um x colocado na coluna correspondente. Por
exemplo, se selecionamos 5 objetos de 4 objetos distintos, um formulrio destes poderia
ter a seguinte forma:
Objeto 1 Objeto 2 Objeto 3 Objeto 4
xx x xx
Note que este formulrio pode ser resumido pela sequncia xx / / x / xx, onde o
smbolo / usado para separar as entradas para as diferentes colunas. Desta forma os
(n -1) /s indicam as linhas entre as colunas, e onde nada aparece entre /s consecutivos
se o objeto correspondente no foi selecionado.
Cada arranjo diferente de 5 xs e 3 /s leva a um formulrio distinto.
Se identicarmos os xs com bolas brancas e os /s com bolas pretas, ento este
problema foi considerado no Exemplo 1.9, e o nmero de arranjos diferentes dado por
_
8
3
_
.
No caso geral o formulrio ir envolver k xs e (n1) /s. Ento o nmero de modos
diferentes de escolher k objetos de um conjunto de n objetos distintos com reposio e
sem ordenao dado por
_
n 1 +k
k
_
=
_
n 1 +k
n 1
_
(1.22)
1.5 Probabilidade Conjunta.
Ao invs de lidar com um experimento, consideremos agora dois experimentos e seus
respectivos resultados. Por exemplo, os dois experimentos podem ser dois arremessos
consecutivos de um nico dado ou um nico arremesso de dois dados. Em ambos os
casos, o espao amostral consiste de 36 duplas (i, j), onde i, j = 1, 2, 3, 4, 5, 6. Se os
dados so ideais, a cada ponto do espao amostral associada uma probabilidade 1/36.
Podemos agora considerar eventos conjuntos tais como {i par, j = 3}, e determinar
12 Probabilidade
as probabilidades associadas a tais eventos a partir do conhecimento das probabilidades
dos pontos amostrais.
Denio 1.14. Se os resultados possveis de um experimento so A
i
, i = 1, 2, ..., n,
e os resultados possveis de um segundo experimento so B
j
, j = 1, 2, ..., m, ento os
resultados possveis do experimento combinado so dados pelo conjunto (A
i
, B
j
), i =
1, 2, ..., n, j = 1, 2, ..., m. A cada resultado conjunto (A
i
, B
j
) associa-se uma probabi-
lidade conjunta P(A
i
, B
j
) que satisfaz a condio
0 P(A
i
, B
j
) 1 (1.23)
Exemplo 1.10. Retirar duas cartas em sucesso (com ou sem reposio) de um baralho.
Soluo. Vamos considerar os seguintes eventos
Evento A: retirar um s na primeira tentativa
Evento B: retirar um s na segunda tentativa
AB o evento de retirar dois ases.
1.5.1 Probabilidades Marginais.
Assumindo que os resultados B
j
, j = 1, 2, ..., m so mutuamente exclusivos, segue que
m

j=1
P(A
i
, B
j
) = P(A
i
) (1.24)
Similarmente, se os resultados A
i
, i = 1, 2, ..., n so mutuamente exclusivos ento
n

i=1
P(A
i
, B
j
) = P(B
j
) (1.25)
Alm disso, se todos os resultados dos dois experimentos so mutuamente exclusivos
temos
n

i=1
m

j=1
P(A
i
, B
j
) = 1 (1.26)
P[A
i
] e P[B
j
] so chamadas de probabilidades marginais. fcil ver que a
generalizao do tratamento acima para mais de dois experimentos direta.
1.6 Probabilidade Condicional.
Considere um experimento combinado no qual um evento conjunto ocorre com probabili-
dade P(A, B). Suponha que o evento B ocorreu e queremos determinar a probabilidade
de ocorrncia do evento A. Esta probabilidade chamada de probabilidade condicional
e denota-se por P(A|B).
Calcule esta probabilidade, considerando com reposicao e sem reposicao.
Demonstre isso usando o diagrama de Venn!
Probabilidade de A ocorrer dado que B ocorreu.
Exemplo: encontre a probabilidade de receber o bit "0" dado que o bit "1" foi transmitido
no BSC abaixo
Probabilidade 13
Exemplo 1.11. No exemplo anterior, se a primeira carta no recolocada no baralho,
ca evidente que a retirada de um s na segunda tentativa inuenciada pelo resultado
da primeira.
1.6.1 Regra de Bayes.
Teorema 1.2. Teorema de Bayes. Seja um experimento fornecendo dois resulta-
dos A e B. Ento,
P(AB) = P(A|B)P(B) = P(B|A)P(A) (1.27)
Demonstrao. Sejam as seguintes grandezas:
N: nmero total de tentativas;
n
B
: nmero de resultados favorveis ao evento B;
n
AB
: nmero de resultados favorveis ao evento A dentro das n
B
tentativas.
Estas grandezas so mostradas em um diagrama de Venn na Figura 1.4.
.................................................................................................................................................................................................................................................... ... ... .. .. .. .. . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . .. . .. .. .. ... .... .....................................................................................
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . .. .. . .. ... ... .... ........................................................................................................................................................................................................................................................................................................................................ ... ... .. .. . .. . .. . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
S
N A
B
n
AB
n
B
Figura 1.4: Espao amostral para a derivao da regra de Bayes.
Observe que n
AB
o nmero de tentativas que so favorveis ao evento AB. Assim
P(AB) = lim
N
n
AB
N
= lim
N
_
n
B
N
__
n
AB
n
B
_
(1.28)
Do diagrama acima, podemos extrair as seguintes expresses:
P(B) = lim
N
n
B
N
(1.29)
P(A|B) = lim
N
n
AB
n
B
(1.30)
14 Probabilidade
Aqui estamos implicitamente usando o fato que n
B
medida que N
. Observe que n
AB
o nmero de tentativas favorveis ao evento A dentro das n
B
tentativas favorveis ao evento B. Isto representa a probabilidade condicional P(A|B).
Combinando (1.28), (1.29) e (1.30), temos:
P(A|B) =
P(AB)
P(B)
(1.31)
E por um desenvolvimento similar, pode-se demonstrar que
P(B|A) =
P(AB)
P(A)
(1.32)
Combinando 1.31 e 1.32, chegamos Regra de Bayes
P(AB) = P(A|B)P(B) = P(B|A)P(A) (1.33)
Extenso para mais eventos
Uma generalizao bastante til da regra de Bayes a seguinte: considere os eventos
A
i
, i = 1, 2, . . . , n, mutuamente exclusivos tais que
n
_
i=1
A
i
= S (1.34)
e um evento arbitrrio B com probabilidade no nula. Ento, a regra de Bayes pode
ser reescrita como
P(A
i
|B) =
P(A
i
, B)
P(B)
=
P(B|A
i
)P(A
i
)
n

j=1
P(B|A
j
)P(A
j
)
(1.35)
1.7 Eventos independentes.
Denio 1.15. Um evento A dito independente de B se
P(A|B) = P(A) (1.36)
Teorema 1.3. Se A e B so eventos independentes ento
P(AB) = P(A)P(B) (1.37)
1) Qual eh a probabilidade de A ocorrer dado que B ocorreu, sendo A e B eventos disjuntos?
2) Qual eh a condicao para que P(A/B)=P(B/A)?
No canal BSC apresentado acima, qual eh a probabilidade de se ter o bit "1" na saida, assumindo
que a entrada eh equiprovavel?
Dois eventos sao ditos independentes quando a ocorrencia de um
nao afeta a probabilidade de ocorrencia do outro.
Probabilidade 15
Demonstrao. Pela Regra de Bayes, temos que
P(AB) = P(A|B)P(B)
Mas como A e B so independentes,
P(A|B) = P(A)
Substituindo este resultado na Equao acima, chegamos a
P(AB) = P(A)P(B)
Exemplo 1.12. Suponha que uma moeda jogada trs vezes. Se assumimos que as
jogadas so independentes e a probabilidade de caras p, encontre a probabilidade dos
eventos nenhuma coroa, uma coroa, duas coroas e trs coroas.
Soluo. A probabilidade para as sequncias de caras e coroas dada por
P[{CCC}] = P[{C}]P[{C}]P[{C}] = p
3
P[{CCK}] = P[{C}]P[{C}]P[{K}] = p
2
(1 p)
P[{CKC}] = P[{C}]P[{K}]P[{C}] = p
2
(1 p)
P[{KCC}] = P[{K}]P[{C}]P[{C}] = p
2
(1 p)
P[{KKC}] = P[{K}]P[{K}]P[{C}] = p(1 p)
2
P[{KCK}] = P[{K}]P[{C}]P[{K}] = p(1 p)
2
P[{CKK}] = P[{C}]P[{K}]P[{K}] = p(1 p)
2
P[{KKK}] = P[{K}]P[{K}]P[{K}] = (1 p)
3
onde usamos o fato de que as jogadas so independentes. Seja k o nmero de caras em
trs tentativas. Ento
P[k = 0] = P[KKK] = (1 p)
3
P[k = 1] = P[KKC, KCK, CKK] = 3p(1 p)
2
P[k = 2] = P[CCK, CKC, KCC] = 3p
2
(1 p)
P[k = 3] = P[CCC] = p
3
Observaes
A denio de independncia estatstica pode ser estendida a trs ou mais eventos. Para
que trs eventos A
1
, A
2
e A
3
sejam estatisticamente independentes, precisam satisfazer
as seguintes condies
P(A
1
, A
2
) = P(A
1
)P(A
2
)
P(A
1
, A
3
) = P(A
1
)P(A
3
)
P(A
2
, A
3
) = P(A
2
)P(A
3
)
P(A
1
, A
2
, A
3
) = P(A
1
)P(A
2
)P(A
3
)
(1.38)
Para o caso geral, os eventos A
i
, i = 1, 2, . . . , n so estatisticamente independentes se as
probabilidades dos eventos conjuntos tomados 2, 3, . . . , n eventos de cada vez possam
ser fatoradas no produto das probabilidades dos eventos individuais.
16 Probabilidade
1.8 Experimentos sequenciais e diagramas em rvore
Muitos experimentos consistem de uma sequncia de subexperimentos. O procedimento
adotado para cada subexperimento pode depender dos resultados dos subexperimentos
anteriores. Podemos usar um diagrama em rvore para representar a natureza sequencial
dos subexperimentos. Seguir o procedimento e anotar as observaes do experimento
equivalente a seguir a sequncia de ramicaes da raiz para as folhas da rvore. Cada
folha corresponde a um resultado do experimento.
natural modelar probabilidades condicionais em termos de experimentos sequenci-
ais e ilustr-las atravs de diagramas em rvores. Na raiz da rvore, a probabilidade de
um evento particular descrito pelo nosso conhecimento a priori. Se os resultados poss-
veis do primeiro resultado so descritos pelos eventos B
1
, , B
m
, ento {B
1
, , B
m
}
um espao de eventos. A partir da raiz, desenhamos ramos para cada evento B
i
. Seguir
um ramo a partir da raiz corresponde a observar os resultados do primeiro subexpe-
rimento. Associamos a cada ramo as probabilidades a priori P[B
1
], , B[B
m
]. Para
cada evento B
i
, temos probabilidades condicionais descrevendo o resultado do segundo
subexperimento. Ento para cada um dos ramos do primeiro conjunto, desenhamos
um novo ramo e associamos a ele esta probabilidade condicional. Se seguirmos uma
sequncia de ramos da raiz a uma determinada folha, especicamos o resultado de um
dado subexperimento. Desta forma, as folhas representam os resultados do experimento
completo. A probabilidade de cada resultado o produto das probabilidades dos ramos
entre a raiz da rvore e a folha que correspondente ao resultado. Em geral, associamos
s folhas os resultados e as probabilidades correspondentes.
Isto uma descrio complicada para um procedimento extremamente simples, como
veremos nos exemplos a seguir.
Exemplo 1.13. Uma companhia tem trs mquinas B
1
, B
2
e B
3
que fabricam resistores
de 1k. Observou-se que 80% dos resistores produzidos por B
1
tm tolerncia de 50 do
valor nominal. A mquina B
2
produz 90% dos resistores com tolerncia de 50 do valor
nominal. A porcentagem para a mquina B
3
de 60%. A cada hora, a mquina B
1
produz 3000 resistores, B
2
produz 4000 resistores, e B
3
produz 3000 resistores. Todos os
resistores so misturados em um recipiente comum e empacotados para envio. Desenhe
um diagrama em rvore para este experimento. Qual a probabilidade de escolher um
resistor da mquina B
2
com tolerncia maior que 50?
Soluo. Seja A o evento o resistor selecionado aceitvel (tem tolerncia de 50),
e N o complemento de A: o resistor selecionado no aceitvel. O procedimento de
testar um resistor pode ser decomposto em dois passos: primeiro, identicamos qual
mquina (B
1
, B
2
ou B
3
) produziu o resistor; depois, vericamos se o resistor aceitvel
ou no. Estes dois passos correspondem seguinte rvore:
Probabilidade 17
.................................................................................................................................................................................. ....................................................................................................................................................................................................................................
....................................................................................................................................................................................................................................
0, 3
0, 4
0, 3
B3
B2
B1
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
0, 8
0, 2
0, 9
0, 1
0, 6
0, 4
A B1A 0, 24
N B1N 0, 06
A B2A 0, 36
N B2N 0, 04
A B3A 0, 18
N B3N 0, 12
Para usar a rvore para encontrar a probabilidade do evento B
2
N, um resistor no
aceitvel da mquina B
2
, comeamos da esquerda e vericamos que a probabilidade de
alcanar B
2
P[B
2
] = 0, 4. Andamos ento para a direita em direo ao n B
2
N e
multiplicamos P[B
2
] por P[N|B
2
] = 0, 1, e obtemos P[B
2
N] = 0, 4 0, 1 = 0, 04.
Podemos observar neste exemplo uma propriedade geral de todos os diagramas em
rvore que representam experimentos sequenciais: a soma das probabilidades dos ramos
que deixam um determinado n sempre 1. Isto uma consequncia da lei da proba-
bilidade total e da propriedade da probabilidade condicional, vistas anteriormente.
Exemplo 1.14. Suponha que os engenheiros de trfego tenham coordenado a tempori-
zao de dois faris para encorajar uma sequncia de faris verdes. Em particular, a
temporizao foi projetada de modo que, com probabilidade 0,8 um motorista encontre o
segundo farol com a mesma cor do primeiro. Assumindo que o primeiro farol seja verde
ou vermelho com a mesma probabilidade, qual a probabilidade P[G
2
] de que o segundo
farol seja verde? Calcule P[G
1
|R
2
], a probabilidade condicional de que o primeiro farol
seja verde, dado que o segundo vermelho.
Soluo. Neste caso, a rvore que descreve o problema :
................................................................................................................................................................................................
................................................................................................................................................................................................
0, 5
0, 5
G1
R1
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
0, 8
0, 2
0, 2
0, 8
G2 G1G2 0, 4
R2 G1R2 0, 1
G2 R1G2 0, 1
R2 R1R2 0, 4
A probabilidade do segundo farol ser verde
P[G
2
] = P[G
1
G
2
] +P[R
1
G
2
] = 0, 4 + 0, 1 = 0, 5
18 Probabilidade
O evento W de ter que esperar por pelo menos um farol dado por
W = {R
1
G
2
G
1
R
2
R
1
R
2
}
e desta forma, a probabilidade de esperar por pelo menos um farol dada por
P[W] = P[R
1
G
2
] +P[G
1
R
2
] +P[R
1
R
2
] = 0, 1 + 0, 1 + 0, 4 = 0, 6
Para encontrar P[G
1
|R
2
], precisamos de P[R
2
]. Notando que R
2
= {G
1
R
2
R
1
R
2
},
temos:
P[R
2
] = P[G
1
R
2
] +P[R
1
R
2
] = 0, 1 + 0, 4 = 0, 5
Desde que P[G
1
R
2
] = 0, 1, a probabilidade condicional de observar o primeiro farol
verde dado que o segundo vermelho dada por:
P[G
1
|R
2
] =
P[G
1
R
2
]
P[R
2
]
=
0, 1
0, 5
= 0, 2 (1.39)
Exemplo 1.15. Considere o jogo do Trs. Voc embaralha um baralho de trs cartas:
s, 2 e 3. Se o s vale um ponto, voc retira cartas do baralho at que a soma seja 3 ou
mais. Voc ganha se o total for 3. Calcule P[W], a probabilidade de vencer o jogo.
Soluo. Seja C
i
o evento C a i-sima carta retirada. Por exemplo, 3
2
o evento
de tirar um 3 na segunda rodada. A rvore para este experimento ento:
................................................................................................................................................................................................................
.................................................................................................................................................................................. ................................................................................................................................................................................................................
1/3
1/3
1/3
A1
21
31
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
1/2
1/2
1/2
1/2
22 A122 1/6
32 A132 1/6
A2 21A2 1/6
32 2132 1/6
31 1/3
Voc vence se A
1
2
2
, 2
1
A
2
ou 3
1
ocorrerem. Desta forma, a probabilidade de vencer
dada por
P[W] = P[A
1
2
2
] +P[2
1
A
2
] +P[3
1
] =
1
3
1
2
+
1
3
1
2
+
1
3
=
2
3
Exemplo 1.16. Suponha que voc tem duas moedas, uma viciada e outra no, mas voc
no sabe qual qual. A moeda 1 viciada (tem probabilidade 3/4 de dar cara). Suponha
que voc pegue uma moeda de forma aleatria e a arremesse. Seja C
i
o evento a moeda
i foi selecionada. Vamos denotar por H (cara) e T (coroa) os possveis resultados de
um arremesso. Dado que o resultado de um arremesso uma cara, calcule P[C
1
|H],
a probabilidade de voc ter selecionado a moeda viciada. Dado que o resultado uma
coroa, calcule P[C
1
|T], a probabilidade de ter selecionado a moeda viciada.
Probabilidade 19
Soluo. Primeiro, contrumos a rvore que descreve o problema:
................................................................................................................................................................................................
................................................................................................................................................................................................
1/2
1/2
C1
C2
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
......................................................................................................................................................................................
3/4
1/4
1/2
1/2
H C1H 3/8
T C1T 1/8
H C2H 1/4
T C2T 1/4
Para encontrar as probabilidades condicionais, temos:
P[C
1
|H] =
P[C
1
H]
P[H]
=
P[C
1
H]
P[C
1
H] +P[C
2
H]
=
3/8
3/8 + 1/4
=
3
5
Similarmente,
P[C
1
|T] =
P[C
1
T]
P[T]
=
P[C
1
T]
P[C
1
T] +P[C
2
T]
=
1/8
1/8 + 1/4
=
1
3
Como espervamos, mais provvel termos selecionado a moeda 1 quando o primeiro
arremesso resultou em cara, e mais provvel termos selecionado a moeda 2 quando o
primeiro arremesso resultou em coroa.
1.9 Exerccios
1. Quatro moedas ideais so arremessadas simultaneamente.
(a) Quantos resultados so possveis?
(b) Associe probabilidades adequadas para a obteno de quatro coroas, uma
cara, duas caras, trs caras e quatro caras neste experimento.
Resp:
(a) 16
(b) P[4 coroas] = 1/16
P[1 cara] = 1/4
P[2 caras] = 3/8
P[3 caras] = 1/4
P[4 caras] = 1/16
2. Trs dados no viciados so jogados. Calcule as probabilidades dos eventos de se
obter uma soma de 8, 9 e 10 pontos.
Resp: P[8] = 21/216 P[9] = 25/216 P[10] = 27/216
Fim da Aula 2
20 Probabilidade
3. Uma certa cidade tem 8 faris aleatoriamente localizados, quatro dos quais cam
verdes por meio minuto na direo leste-oeste e meio minuto na direo norte-
sul, trs permanecem verdes por 1/4 de minuto na direo leste-oeste e 3/4 de
minuto na direo norte-sul, e o ltimo permanece verde 3/4 de minuto na direo
leste-oeste e 1/4 de minuto na direo norte-sul.
Assuma que todos os faris so independentes, isto , no existe nenhum tipo de
sincronizao entre eles.
Um automvel est viajando de forma aleatria atravs da cidade. Encontre a
probabilidade de o automvel encontrar um sinal verde na direo leste-oeste.
Faa o mesmo para a direo norte-sul.
Qual a probabilidade de um automvel viajando aleatoriamente pela cidade
encontre um sinal verde?
Resp:
P[verde na direo L-O] = 7/16
P[verde na direo N-S] = 9/16
P[verde] = 1/2
4. Uma urna contm 3 bolas vermelhas e 2 brancas. Duas bolas so retiradas em
sucesso, a primeira bola sendo recolocada antes da retirada da segunda.
(a) Quantos resultados so possveis?
(b) Associe probabilidades a cada um destes resultados.
Resp:
(a) 4
(b) P[1a.V, 2a.V] = 9/25
P[1a.V, 2a.B] = 6/25
P[1a.B, 2a.V] = 6/25
P[1a.B, 2a.B] = 4/25
5. Repita o problema anterior se a primeira bola no for recolocada antes da segunda
retirada.
(a) 4
(b) P[1a.V, 2a.V] = 3/10
P[1a.V,2a.B] = 3/10
P[1a.B, 2a.V] = 3/10
P[1a.B, 2a.B] = 1/10
6. No problema anterior, se sabemos que a primeira retirada foi de uma bola branca,
qual a probabilidade de a segunda retirada ser tambm de uma bola branca ?
Resp: 1/4
Probabilidade 21
7. No problema 5), se sabemos que a segunda bola vermelha, qual a probabilidade
de a primeira tambm ter sido vermelha? Qual a probabilidade da primeira bola
ter sido branca?
Resp: a) 1/2 b) 1/2
8. Uma urna contm 3 bolas vermelhas, 5 bolas brancas e 8 bolas pretas. Outra urna
contm 6 bolas vermelhas, 7 bolas brancas e 4 bolas pretas. Uma bola retirada
de cada urna. Encontre a probabilidade de obter duas bolas da mesma cor.
Resp: 85/272
9. A caixa I contm 3 bolas vermelhas e 5 bolas brancas, e a caixa II, 4 vermelhas
e 2 brancas. Extrai-se ao acaso uma bola da primeira caixa e coloca-se na se-
gunda, sem observar a cor. Extrai-se ento uma bola da segunda caixa. Qual a
probabilidade da mesma ser branca?
Resp: 21/56
10. Em certo colgio, 25 % dos estudantes foram reprovados em matemtica, 15 %
em qumica e 10 % em matemtica e qumica ao mesmo tempo. Um estudante
selecionado aleatoriamente.
a) Se ele foi reprovado em qumica, qual a probabilidade de ele ter sido repro-
vado em matemtica?
b) Se ele foi reprovado em matemtica, qual a probabilidade de ele ter sido
reprovado em qumica?
c) Qual a probabilidade de ele ter sido reprovado em matemtica ou qumica?
Resp: a) 2/3 b) 2/5 c) 0,30
11. A rede comutada mostrada na gura abaixo opera se e somente se existe pelo
menos um caminho fechado de comutadores entre a entrada e a sada. Assumindo
que os comutadores falhem de forma independente e que a probabilidade de falha
de cada comutador so aquelas dadas na gura, calcule a probabilidade de esta
rede funcionar.
. . . . . . . . . . . . . . . . . ................... .................... . . . . . . . . . . . . . . . .
0,3
0,4 0,4 0,1
0,2
.................................................................................................................. .................................................................................................................. .................................................................................................................. .........................................................
...........................................................................................................................................................................
...........................................................................................................................................................................
.............................................................................................................................................................................................................................................................................................
...........................................................................................................................................................................
...........................................................................................................................................................................
.............................................................................................................................................................................................................................................................................................
Resp: 0,865
22 Probabilidade
12. Uma urna contm duas bolas pretas e trs bolas brancas. Duas bolas so sele-
cionadas aleatoriamente da urna sem reposio, e a sequncia de cores anotada.
Encontre a probabilidade de retirar duas bolas pretas.
Resp: 1/10
13. Lana-se uma moeda viciada de modo que P[cara] = 2/3 e P[coroa] = 1/3. Se
aparecer cara, ento seleciona-se aleatoriamente um nmero dentre os de 1 a 9;
se aparecer coroa, seleciona-se aleatoriamente um nmero dentre os de 1 a 5.
Encontre a probabilidade p de um nmero par ser selecionado.
Resp: p = 58/135
14. Dois dgitos so selecionaodos aleatoriamente de 1 a 9, sem reposio. Se a soma
par, encontre a probabilidade p de ambos os nmeros serem mpares.
Resp: p = 5/8
15. Telefones celulares realizam handos medida em que se movem de uma c-
lula para outra. Suponha que durante uma chamada, os telefones realizam zero
handos (H
0
), um hando (H
1
), ou dois handos (H
2
). Adicionalmente, cada
chamada pode ser longa (L) ou breve (B).
Sabendo que P[L, H
0
] = 0.1, P[B, H
1
] = 0.1, P[H
2
] = 0.3, P[B] = 0.6 e P[H
0
] =
0.5, calcule:
(a) A probabilidade de no ocorrer nenhum hando durante uma chamada.
(b) A probabilidade de uma chamada ser breve.
(c) A probabilidade de uma chamada ser longa ou existirem pelo menos dois
handos.
Resp: a) 0.5 b) 0.6 c) 0.5
16. Trs mquinas A, B e C produzem 50%, 30% e 20% respectivamente, do total de
peas de uma fbrica. As porcentagens de produo de peas defeituosas destas
mquinas so 3%, 4% e 5%, respectivamente.
(a) Se uma pea selecionada aleatoriamente, ache a probabilidade dela ser
defeituosa.
(b) Suponha que uma pea, selecionada aleatoriamente, seja considerada defei-
tuosa. Encontre a probabilidade dela ter sido produzida pela mquina A.
Resp: a) 0,037 b) 15/37
17. No sistema de comunicao ternrio mostrado na gura abaixo, um 3 enviado
trs vezes mais frequentemente que um 1, e um 2 enviado duas vezes mais
frequentemte que um 1. Um 1 observado. Qual a probabilidade de um 1 ter
sido enviado?
Probabilidade 23
.................... . . . . . . . . . . . . . . . .
.................... . . . . . . . . . . . . . . . .
.................... . . . . . . . . . . . . . . . .
................... . . . . . . . . . . . . . . . . .
................... . . . . . . . . . . . . . . . . .
................... . . . . . . . . . . . . . . . . .
..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
..........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ..........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
X = 1
X = 2
X = 3
Y = 1
Y = 2
Y = 3
1
/2
/2
/2
1 /2
/2
/2
/2
1 /2
Resp:
1
1 + + 1, 5
18. Para a comunicao entre os terminais A e B so necessrios enlaces que so
representados nas guras abaixo por arcos. Sendo p a probabilidade de que um
enlace esteja ocupado, determine a probabilidade de que no exista caminho livre
para comunicao em cada uma das seguintes conguraes:
a)
............................................................................................................................................................................................................................................................................... ............................................................................................................................................................................................................................................................................... ............................................................................................................................................................................................................................................................................... . ....................... . . . . . . . . . . . . . . . . . . . .. ........................ . . . . . . . . . . . . . . . . . . . .. ........................ . . . . . . . . . . . . . . . . . . . . . ......................... . . . . . . . . . . . . . . . . . . . .
A B
b)
...................................................................................................................................................................................................................................................................................................................................................................................................................................
...................................................................................................................................................................................................................................................................................................................................................................................................................................
...................................................................................................................................................................................................................................................................................................................................................................................................................................
................................................................................................................................................................................................................................................................................................................................................................................................................................... ........................ . . . . . . . . . . . . . . . . . . . ..
......................... . . . . . . . . . . . . . . . . . . . .
......................... . . . . . . . . . . . . . . . . . . . .
......................... . . . . . . . . . . . . . . . . . . . .
A B
Resp: a) 3(1 p)p
2
+ 3(1 p)
2
p +p
3
b)
_
2p(1 p) +p
2
_
2
19. Durante a recepo de mensagens codicadas, consistindo de pulsos de formas A
e B, estabeleceu-se que de cada 10 combinaes equiprovveis, trs so do tipo
AAB, cinco so do tipo AB, e duas so do tipo ABB. Qual a probabilidade de
que um pulso escolhido aleatoriamente seja da forma A?
Resp: 31/60
20. Sabendo que a probabilidade de um homem viver mais de dez anos 1/4, a
probabilidade de sua esposa viver mais de dez anos 1/3, encontre a probabilidade
dos seguintes eventos
(a) ambos estarem vivos depois de dez anos,
(b) ao menos um estar vivo depois de dez anos,
(c) nenhum deles estar vivo depois de dez anos,
(d) somente a esposa estar viva depois de dez anos.
24 Probabilidade
Dica: considere os eventos
A: o homem est vivo daqui a 10 anos.
B: sua esposa est viva daqui a 1o anos.
Resp: a) 1/12 b) 1/2 c) 1/2 d) 1/4
21. A urna 1 contm 5 bolas brancas e 7 bolas pretas. A urna 2 contm 3 bolas brancas
e 12 bolas pretas. Uma moeda ideal arremessada. Se o resultado cara, ento
seleciona-se uma bola da urna 1, enquanto que se o resultado coroa, seleciona-se
uma bola da urna 2. Suponha que uma bola branca tenha sido selecionada. Qual
a probabilidade do resultado do arremesso da moeda ter sido coroa?
Resp:P[co|B] = 12/37
22. Sejam os seguintes eventos:
A: uma famlia tem crianas de ambos os sexos.
B: uma famlia tem no mximo um menino.
(a) Mostre que A e B so independentes, se uma famlia tem 3 crianas.
(b) Mostre que A e B so dependentes, se uma famlia tem 2 crianas.
Captulo 2
Variveis Aleatrias
2.1 Denio.
O resultado de um experimento aleatrio pode ser um nmero real (como no caso do
arremesso de dados) ou pode ser no numrico, mas descrito por palavras (por exemplo
cara e coroa).
Entretanto estamos geralmente interessados no no resultado, mas em alguma me-
dida ou atributo numrico deste. Por exemplo, se jogamos uma moeda n vezes, podemos
estar interessados no nmero total de caras e no na ordem especca na qual ocorreram
as caras e as coroas.
Assim, podemos denir uma funo que associa um valor numrico ao resultado do
experimento aleatrio. Desde que os resultados so aleatrios, os resultados das medidas
tambm o sero. Desta forma faz sentido falar em probabilidades dos valores numricos
resultantes.
O conceito de varivel aleatria formaliza esta noo:
Denio 2.1. Uma varivel aleatria X uma funo que associa um nmero real
X() a cada resultado no espao amostral de um experimento aleatrio.
Lembre-se que uma funo simplesmente uma regra que associa um valor numrico
a cada elemento de um conjunto, como mostrado gracamente na Figura 2.1.
S
X() = x
x
S
x
reta real

Figura 2.1: Uma v.a. associa um nmero x = X() a cada resultado no espao
amostral S de um experimento aleatrio.
O espao amostral passa a se um conjunto de valores ou uma faixa
de valores pertencentes ao eixo dos numeros reais!
26 Variveis Aleatrias
A especicao de uma medida de um experimento aleatrio dene uma funo no
espao amostral, e portanto uma v.a. O espao amostral S o domnio da v.a., e o
conjunto S
X
de todos os valores tomados por X a faixa da v.a. Ento S
X
um
subconjunto do conjunto de todos os nmeros reais.
Podemos ver X() como uma funo que mapeia os pontos amostrais
1
,
2
, . . . ,
m
em nmeros reais x
1
, x
2
, . . . , x
n
. Assim, X uma varivel aleatria que assume
valores x
1
, x
2
, . . . , x
n
. Observe que m no necessariamente igual a n. Mais de um
ponto amostral pode ser mapeado em um mesmo valor de x.
Exemplo 2.1. Especique o espao amostral de um experimento que consiste em jogar
uma moeda 3 vezes.
Soluo. O espao amostral para este experimento
S = {CCC, CCK, CKC, CKK, KCC, KCK, KKC, KKK},
onde C corresponde a cara"e K corresponde a coroa".
Seja X o nmero de caras em trs jogadas da moeda. X associa a cada resultado
em S um nmero do conjunto S
X
= 0, 1, 2, 3. A tabela abaixo lista os oito resultados
de S e os valores de X correspondentes.
CCC CCK CKC KCC CKK KCK KKC KKK
X() 3 2 2 2 1 1 1 0
X ento uma v.a. que toma valores no conjunto S
X
= 0, 1, 2, 3.
A funo ou regra que associa valores a cada resultado xa ou determinstica, como,
por exemplo, na regra nmero de caras em 3 jogadas de uma moeda. A aleatoriedade
nos valores observados deve-se aleatoriedade dos argumentos da funo X, ou seja os
resultados
i
do experimento.
Em outras palavras, a aleatoriedade dos valores observados de X induzida pelo
experimento aleatrio, e devemos portanto ser capazes de calcular as probabilidades dos
valores observados em termos das probabilidades dos resultados do experimento.
Exemplo 2.2. O evento {X = k} = {k caras em 3 jogadas de uma moeda} ocorre
quando o resultado do experimento contm k caras. Calcule as probabilidades dos eventos
{X = k}, k = 0, 1, 2, 3.
Soluo. A probabilidade do evento {X = k} dada pela soma das probabilidades dos
resultados correspondentes ou eventos elementares. Seja p a probabilidades de caras e
(1 p) a probabilidade de coroas. Desta forma, temos
p
0
= P[X = 0] = P[{KKK}] = (1 p)
3
p
1
= P[X = 1] = P[{CKK}]P[{KCK}]P[{KKC}] = 3(1 p)
2
p
p
2
= P[X = 2] = P[{CCK}]P[{CKC}]P[{KCC}] = 3(1 p)p
2
p
3
= P[X = 3] = P[{CCC}] = p
3
Note que as jogadas das moedas sao independentes, ou seja P(AB)=P(A)P(B
Variveis Aleatrias 27
O exemplo acima ilustra a seguinte tcnica geral para encontrar as probabilidades
de eventos envolvendo a v.a. X: seja S
X
o conjunto de valores que podem ser assumidos
por X, e B algum subconjunto de S
X
.
S
X
pode ser visto como um novo espao amostral, e B como um evento neste espao.
Seja A o conjunto de resultados em S que levam a valores X() em B, como
mostrado na Figura 2.2, isto
A = { : X() em B}
ento o evento B em S
X
ocorre sempre que o evento A em S ocorre. Desta forma, a
probabilidade do evento B dada por
P[A] = P[B] = P[ : X() em B]
Referimo-nos aos eventos A e B como eventos equivalentes.
S
A
B
reta real
Figura 2.2: Eventos equivalentes.
2.2 Funo distribuio cumulativa.
Denio 2.2. A funo distribuio cumulativa (fdc) de uma v.a. X denida
como a probabilidade do evento {X x}:
F
X
(x)

= P[X x], < x < (2.1)
isto , a probabilidade da v.a. X tomar um valor no intervalo (, x].
Em termos do espao amostral, a fdc a probabilidade do evento { : X() x}. O
evento {X x} e sua probabilidade variam medida que x varia; em outras palavras,
F
X
(x) uma funo da varivel x.
A fdc simplesmente uma maneira conveniente de especicar a probabilidade de
todos os intervalos semi-innitos da reta real, e seus complementos, unies e intersees.
28 Variveis Aleatrias
Propriedades
Os axiomas de probabilidade e seus corolrios implicam que a fdc tem as seguintes
propriedades:
1. 0 F
X
(x) 1
2. lim
x
F
X
(x) = 1
3. lim
x
F
X
(x) = 0
4. F
X
(x) uma funo no decrescente de x, isto , se a < b, ento F
X
(a) F
X
(b).
5. A probabilidade de eventos que correspondem a intervalos da forma (a < X b)
podem ser expressas em termos da fdc
P[a < X b] = F
X
(b) F
X
(a) (2.2)
Demonstrao.
P[a < X b] = P[X b] P[X a] = F
X
(b) F
X
(a)
Isto pode ser facilmente visto na Figura abaixo
........................................................................................................................................................................ ....................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.............
.............
.............
.............
.............
.............
.......
.............
.............
.............
.............
.............
............. P[X b]
P[X a]
P[a < X b]
v
v
v f
Figura 2.3: P[a < X b] = F
X
(b) F
X
(a)
6. A probabilidade que uma v.a. X toma em um ponto especco, digamos b, dada
pela magnitude do salto da fdc no ponto b. Segue que se a fdc contnua em um
ponto b, ento o evento tem probabilidade zero.
Demonstrao. Desejamos calcular P[X = b]. Seja a = b , > 0. Usando
(2.2), podemos escrever
P[a < X b] = P[b < X b] = F
X
(b) F
X
(b ) (2.3)
medida que 0, o lado esquerdo de (2.3) aproxima P[X = b], e ento
P[X = b] = F
X
(b) F
X
(b

) (2.4)
Variveis Aleatrias 29
7. Seja o intervalo {a X b} = {X = a}

{a < X b}. Ento


P[a X b] = P[X = a] +P[a < X b]
= F
X
(a) F
X
(a

) +F
X
(b) F
X
(a)
= F
X
(b) F
X
(a

)
(2.5)
8. Se a fdc contnua nos limites de um intervalo, ento os limites tm probabili-
dade zero, e portanto podem ser includos ou excludos do intervalo sem afetar a
probabilidade. Em outras palavras, se a fdc contnua nos pontos x = a e x = b,
ento
P[a < X < b] = P[a X < b] = P[a < X b] = P[a X b] (2.6)
Exemplo 2.3. A fdc de uma varivel aleatria X dada por
F
X
(x) =
_

_
0 x < 0
1
4
(x
2
+ 1) 0 x < 1
1
4
x +
1
2
1 x < 2
1 x 2
Encontre a probabilidade dos eventos:
a) {X < 1} b) {X = 1} c) {X = 0} d) {|x 1| > 1/2} e) {x 0}
Soluo. A primeira coisa a fazer analisar como esta funo se comporta: das equa-
es acima, podemos ver que esta uma funo nula para x < 0; para 0 x < 1 assume
a forma de uma parbola, e no intervalo 1 x < 2 o de uma reta; nalmente, assume
um valor constante igual a 1 para x > 2. Abaixo temos um grco desta funo.
x -1 0 1 2 3
0.25
0.5
0.75
1
f
X
(x)
-
6
......................................................................................................................................................................................
.................................................................................................................................................
...................................................................................................................................................................................................................................................................................................................................
............. ............. ............. ............. ............. ............. ............. .......
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ...
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ...
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. .............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
..........
s
s
A partir da anlise do grco, ca fcil resolver o problema:
a) A probabilidade do evento {X < 1} dado pelo valor da fdc no ponto imediata-
mente anterior a X = 1. Portanto, P[X < 1] = 1/2.
30 Variveis Aleatrias
b) A probabilidade do evento {X = 1} dada pelo valor do salto da fdc em X = 1.
Portanto, P[X = 1] = 1/4.
c) Pelas mesmas razes do item b), P[X = 0 = 1/4].
d) O evento {|x 1| > 1/2} pode ser visto como um crculo de raio 1/2 com centro
em X = 1.
Desta forma, P[|x1| > 1/2] = 1P[1/2 < X 3/2] = 1[F
X
(3/2)F
X
(1/2)] =
7/16
e) P[X 0] = F
X
(0) = 1/4
2.3 Tipos de Variveis Aleatrias
2.3.1 Discretas
Variveis aleatrias discretas tomam valores de um conjunto nito S
X
= {x
0
, x
1
, . . . ,
x
n
}. Aparecem geralmente em aplicaes que envolvem contagem, de modo que geral-
mente temos S
X
= {0, 1, . . . }.
Denio 2.3. A funo massa de probabilidade (fmp) de X o conjunto de
probabilidades p
X
(x
k
) = P[X = x
k
] dos elementos em S
X
.
Denio 2.4. A fdc de uma v.a. discreta pode ser escrita como uma soma ponde-
rada de funes degrau unitrio
F
X
(x) =

k
p
X
(x
k
)u(x x
k
) (2.7)
onde p
X
(x
k
) = P[X = x
k
] fornece a magnitude dos saltos na fdc.
Exemplo 2.4. Seja a v.a. X denida como nmero de caras em trs arremessos de
uma moeda ideal. Determine a fdc de X.
Soluo. Do Exemplo 2.1 sabemos que X toma apenas os valores 0, 1, 2 e 3. Do
Exemplo 2.2, se zermos p = 0.5 as probabilidades para cada um destes resultados so
1/8, 3/8, 3/8 e 1/8, respectivamente, de modo que F
X
(x) simplesmente a soma das
probabilidades dos resultados de 0,1,2,3 que so menores ou iguais a x. A fdc resultante
tem portanto descontinuidades nos pontos 0,1,2 e 3. A fdc de X denida desta maneira
pode ser vista na Figura 2.4.
Alguns livros consideram a fmp como uma fdp.
Variveis Aleatrias 31
0 1 2 3 x
F
X
(x)
1/8
1/2
7/8
1
Figura 2.4: Exemplo de uma fdc de uma v.a. discreta.
2.3.2 Contnuas
So as v.a.s cujas fdcs F
X
(x) so contnuas em todos os pontos e, as quais, adicional-
mente, so sucientemente suaves de modo que podem ser escritas como uma integral
de alguma funo f(x) no negativa.
F
X
(x) =
_

f(t)dt (2.8)
Para v.a.s contnuas, a fdc contnua em todos os pontos, de modo que a proprie-
dade 6 implica que P[X = x] = 0, x.
Exemplo 2.5. O tempo de transmisso X de mensagens em um sistema de comuni-
cao obedece a lei de probabilidade exponencial com parmetro , isto P[X > x] =
e
x
, x > 0. Encontre a fdc de X. Calcule P[T < X 2T], T = 1/.
Soluo. Por denio, a fdc de X dada por F
X
(x) = P[X x] = 1 P[X > x].
Desta forma, temos
F
X
(x) =
_
0, x 0
1 e
x
, x > 0
Na Figura 2.5 tem-se um desenho da fdc de X.
x
1
F
X
(x)
Figura 2.5: Grco da fdc de v.a. contnua X.
Da propriedade 5 temos que
32 Variveis Aleatrias
P[T < X 2T] = F
X
(2T) F
X
(T) = 1 e
2
(1 e
1
) = e
1
e
2
0.233
Note que F
X
(x) contnua para todo x. Note tambm que sua derivada existe para
todos os pontos, exceto em x = 0.
Na Figura 2.6 tem-se o grco de F

X
(x).
x
F

X
(x)
Figura 2.6: Grco de F

X
(x).
2.3.3 Mistas
So v.a.s cujas fdcs tm saltos em um nmero nito de pontos x
0
, x
1
, . . . , x
n
mas que
tambm aumentam de forma contnua por pelo menos um intervalo de valores de x. A
fdc destas variveis tem a forma
F
X
(x) = pF
1
(x) + (1 p)F
2
(x) (2.9)
onde
0 < p < 1
F
1
(x) a fdc de uma v.a. discreta.
F
2
(x) a fdc de uma v.a. contnua.
Exemplo 2.6. O tempo de espera X de um usurio em um sistema de las zero se
ele encontra o sistema livre, e com um tempo de espera exponencialmente distribudo
se encontra o sistema ocupado. As probabilidades de ele encontrar o sistema livre ou
ocupado so p e (1 p), respectivamente. Encontre a fdc de X.
Soluo.
F
X
(x) = P[X x] = P[X x|livre]p +P[X x|ocupado](1 p)
Variveis Aleatrias 33
Note que P[X x|livre] = 1 quando x 0 e 0 caso contrrio. Desta forma
F
X
(x) =
_
0, x < 0
p + (1 p)(1 e
x
), x 0
O grco da fdc mostrado na Figura 2.7. Note que F
X
(x) pode ser expressa como
a soma de uma funo degrau com amplitude p e uma funo contnua de x.
x
1
F
X
(x)
Figura 2.7: Um exemplo de v.a. mista.
2.4 Funo Densidade de Probabilidade
2.4.1 Denio
Denio 2.5. A funo densidade de probabilidade (fdp) de uma v.a. X, se existir,
denida como a derivada de F
X
(x):
f
X
(x) =
dF
X
(x)
dx
(2.10)
A fdp representa a densidade de probabilidade no ponto x no seguinte sentido:
a probabilidade de que X esteja em um intervalo pequeno na vizinhana de x, isto
{x < X x +h} ,
P[{x < X x +h}] = F
X
(x +h) F
X
(x) =
F
X
(x +h) F
X
(x)
h
h (2.11)
Se a fdc tem uma derivada em x, ento medida que h 0
P[{x < X x +h}] f
X
(x)h (2.12)
Ento f
X
(x) representa a densidade de probabilidade no ponto x no sentido de
que a probabilidade de que X esteja em um pequeno intervalo na vizinhana de x
aproximadamente f
X
(x)h, conforme mostrado na Figura 2.8.
34 Variveis Aleatrias
f
X
(x)
x x x +dx
f
X
(x)dx
Figura 2.8: A funo densidade de probabilidade especica a probabilidade de intervalos
de largura innitesimal.
2.4.2 Propriedades
1. A derivada da fdc, quando existir, positiva desde que a fdc uma funo no
decrescente de x, ento
f
X
(x) 0 (2.13)
2. Seja f
X
(x) uma funo no negativa, a qual chamaremos de funo densidade de
probabilidade, e que especica as probabilidades de eventos da forma X cai em
um pequeno intervalo de largura dx ao redor do ponto x. As probabilidades de
eventos envolvendo X so ento expressas em termos da fdp adicionando proba-
bilidades de intervalos de largura dx. medida que as larguras dos intervalos
se aproximam de zero, obtemos uma integral em termos da fdp. Por exemplo, a
probabilidade de um intervalo [a, b] dada por
P[a x b] =
_
b
a
f
X
(x)dx (2.14)
A probabilidade de um intervalo portanto a rea sob f
X
(x) naquele intervalo
(ver Figura 2.9). A probabilidade de qualquer evento que consiste na unio de
intervalos disjuntos pode ser encontrada adicionando-se as integrais da fdp sobre
cada um dos intervalos.
x a b
f
X
(x)
-
6
......................................................
................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................ .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Figura 2.9: A probabilidade de um intervalo [a, b] a rea sob a fdp naquele intervalo.
3. A fdc de X pode ser obtida integrando-se a fdp
F
X
(x) =
_
x

f
X
(t)dt (2.15)
A probabilidade de X estar contido em uma dada faixa de valores eh igual a area
sobre a curva de fX(x), para a faixa de valores de interesse.
Variveis Aleatrias 35
4. Fazendo x + na equao (2.15), obtemos a condio de normalizao para
as fdps
_
+

f
X
(t)dt = 1 (2.16)
5. Uma fdp vlida pode ser formada a partir de qualquer funo g(x) no negativa
e contnua por partes que tenha uma integral nita
_
+

g(x)dx = c < (2.17)


Fazendo f
X
(x) = g(x)/c obtemos uma funo que satisfaz a condio de norma-
lizao. Note que a fdp precisa ser denida para todos os valores reais de x; se X
no toma valores em alguma regio da reta real, simplesmente fazemos f
X
(x) = 0
na regio.
2.4.3 Caso Discreto
A derivada da fdc no existe em pontos onde ela no contnua. Ento a noo de
fdp denida na equao (2.10) no se aplica a v.a.s discretas nos pontos em que a fdc
no contnua. Podemos generalizar a denio da funo densidade de probabilidade
notando a relao entre as funes degrau unitrio e delta de Dirac.
Denio 2.6. A funo degrau unitrio u(x) denida como
u(x) =
_
0, x < 0
1, x 0
(2.18)
Denio 2.7. A funo delta de Dirac (x) denida em termos da funo
degrau unitrio pela seguinte equao
u(x) =
_
+

(t)dt (2.19)
Na seo 2.3.1 vimos que a fdc de uma v.a. discreta pode ser escrita como uma
soma ponderada de funes degrau unitrio
F
X
(x) =

k
p
X
(x
k
)u(x x
k
) (2.20)
onde a funo massa de probabilidade dada por p
X
(x) = P[X = x].
Para generalizar a denio da fdp de modo que a Equao (2.15) valha tambm para
v.a.s discretas, podemos notar o seguinte: a integral de uma funo delta localizada
36 Variveis Aleatrias
em x = b, isto (x b), ir gerar uma funo degrau que comea em x = b, isto ,
u(x b).
Denio 2.8. Usando a equao (2.15), podemos denir a fdp de uma v.a. discreta
como
p
X
(x) =

k
P[X = x
k
](x x
k
) (2.21)
Desta forma, a denio generalizada da funo densidade de probabilidade coloca
uma funo delta de peso P[X = x
k
] nos pontos x
k
onde a fdc no contnua.
2.5 Algumas variveis aleatrias discretas importantes
As variveis aleatrias discretas aparecem em geral em aplicaes que envolvem conta-
gens. As distribuies discretas mais comuns so:
2.5.1 Bernoulli
Usos mais frequentes
A distribuio de Bernoulli o valor da funo indicadora I
A
para algum evento A; X =
1 se A ocorre, e X = 0 caso contrrio. Para estes testes, assume-se que a probabilidade
de A ocorrer p.
Domnio: S
X
= {0, 1}
Funo massa de probabilidade
p
X
(x) =
_
1 p = q, X = 0
p, X = 1
0 p 1
x 0 1
p
X
(x)
0.5
-
6
(p = q = 0.5)
Funo distribuio cumulativa
F
X
(x) =
_

_
0, x < 0
1 p, 0 x < 1
1, x 1
x 1
F
X
(x)
1 p
1
-
6
...........................................................................................................
...........................................................................................................
.................................................................................................
.............
.............
.............
.............
.............
.............
............. ............. ............. ............. .......
Variveis Aleatrias 37
2.5.2 Binomial
Usos mais frequentes
X o nmero de sucessos em n experimentos de Bernoulli e, portanto, a soma de
n variveis aleatrias independentes e identicamente distribudas, com distribuio de
Bernoulli com probabilidade de sucesso igual a p.
Domnio: S
X
= {0, 1, . . . , n}
Funo massa de probabilidade
p
X
(x) =
_
n
x
_
p
x
(1 p)
nx
x = 0, 1, . . . , n
x 0 1 2 3 4 5 6 7 8 9 10
p
X
(x)
-
6
(n = 10, p = 0.5)
Funo distribuio cumulativa
F
X
(x) =

k
_
n
x
_
p
x
(1 p)
nx
u(x x
k
)
x 1 2 3 4 5 6 7 8 9 10
F
X
(x)
1
-
6
................................. ................................. .................................
.................................
.................................
.................................
.................................
.................................
.................................
................................. .................................................................. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. .............
. . . ........
.............
.............
.............
....
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
..........
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
2.5.3 Poisson
Usos mais frequentes
Em muitas aplicaes, estamos interessados em contar o nmero de ocorrncias de um
evento em um certo intervalo de tempo ou em uma determinada regio do espao. A
varivel aleatria de Poisson conta o nmero de eventos que ocorrem em uma unidade
de tempo quando o tempo entre os eventos exponencialmente distribudo com mdia
1/.
A distribuio de Poisson pode ser derivada da distribuio binomial fazendo-se
n e p 0.
Domnio: S
X
= {0, 1, 2, . . . }
Funo massa de probabilidade
p
X
(x) =

x
x!
e

x = 0, 1, . . . e > 0
x 0 1 2 3 4 5 6 7 8 9 10
p
X
(x)
0.2
-
6
( = 4)
38 Variveis Aleatrias
Funo distribuio cumulativa
F
X
(x) =

k=0

k
e

k!
u(x k)
x 1 2 3 4 5 6 7 8 9 10
F
X
(x)
1
-
6
...........................................
...........................................
...........................................
...........................................
...........................................
...........................................
...........................................
...........................................
...........................................
........................................... ........................................... ........................................... ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ..
....
.............
.............
.............
.............
.............
.............
...
.............
.............
.............
.............
............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.........
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
..
.............
.............
.............
.............
.............
.............
.............
...
2.5.4 Geomtrica
Usos mais frequentes
X o nmero de falhas antes do primeiro sucesso em uma sequncia de testes de
Bernoulli independentes, cada uma com probabilidade de sucesso igual a p. a nica
varivel aleatria discreta sem memria.
Domnio S
X
= {0, 1, 2, . . . }
Funo massa de probabilidade
p
X
(x) = p (1 p)
x
x = 0, 1, 2, . . .
x 0 1 2 3 4 5 6 7 8 9 10
p
X
(x)
0.5
-
6
(p = 0, 5)
Funo distribuio cumulativa
F
X
(x) =

k=0
p (1 p)
k
u(x k)
x 1 2 3 4 5 6 7 8 9 10
F
X
(x)
1
0.5
-
6
....................................
....................................
....................................
....................................
....................................
....................................
.................................... .................................... .................................... ............................................................................................................ ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ......
.............
.............
.............
.............
.............
.........
.............
.............
.............
.............
.............
.............
......
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.
.............
.............
.............
.............
.............
.............
.............
..
.............
.............
.............
.............
.............
.............
.............
...
.............
.............
.............
.............
.............
.............
.............
...
.............
.............
.............
.............
.............
.............
.............
...
.............
.............
.............
.............
.............
.............
.............
...
2.6 Algumas variveis aleatrias contnuas importantes
Estamos sempre limitados a medidas de preciso nita, de modo que toda varivel ale-
atria encontrada na prtica uma varivel aleatria discreta. Entretanto, existem
vrias razes pelas quais interessante utilizar modelos que utilizem variveis aleatrias
contnuas. Primeiro, em geral, variveis aleatrias contnuas so em geral mais fceis de
lidar analiticamente. Segundo, as formas limite de muitas variveis aleatrias discretas
Variveis Aleatrias 39
geram variveis aleatrias contnuas. Finalmente, existem algumas famlias de vari-
veis aleatrias contnuas que podem ser utilizadas para modelar uma grade variedade
de situaes pelo ajuste de alguns poucos parmetros.
2.6.1 Uniforme
Usos mais frequentes
A varivel aleatria uniforme aparece em situaes onde todos os valores em um intervalo
da reta real so equiprovveis. Esta distribuio bastante usada em modelamentos de
rudo de quantizao.
Domnio: S
X
= [a, b]
Funo densidade de probabilidade
f
X
(x) =
_
_
_
1
b a
a x b
0 caso contrrio
a b x
1
b a
f
X
(x)
-
6
............................................................................................................ ................................................................................................................................................................................................................................................................................................................................. ..............................................................................................................................................
............. ............. ............. ............. .......
Funo distribuio cumulativa
Neste caso, temos 3 situaes possveis:
1. x < a F
X
(x) =
_
x

0 dy = 0
2. a x b F
X
(x) =
_
x
a
1
b a
dy =
x a
b a
3. x > b F
X
(x) =
_
b
a
1
b a
dy =
b a
b a
= 1
Portanto, temos:
F
X
(x) =
_

_
0 x < a
x a
b a
a x b
1 x > b
a b x
1
F
X
(x)
-
6
....................................................................................................................................................................................................................................................................................................................................................................................................................... ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ..........
.............
.............
.............
.............
.............
.............
40 Variveis Aleatrias
2.6.2 Exponencial
Usos mais frequentes
A varivel aleatria exponencial modela o tempo de durao de eventos que ocorrem
segundo a distribuio de Poisson. a nica varivel aleatria contnua sem memria.
Domnio: S
X
= [0, )
Funo densidade de probabilidade
f
X
(x) =
_
e
x
x 0 e > 0
0 caso contrrio
1 2 3 4 x
0.2
0.4
0.6
0.8
1.0
f
X
(x)
-
6
= 1.0
.............................................................................................................................................................................................................................................................................................................................................................................................................................................
= 0.5
.......................................................................................................................................................................................................................................................................................................................................................................
Funo distribuio cumulativa
F
X
(x) =
_
x
0
e
y
dy =
e
y

x
0
= 1(e
x
e
0
)
F
X
(x) =
_
1 e
x
x 0, > 0
0 caso contrrio
1 2 3 4 x
0.2
0.4
0.6
0.8
1.0
F
X
(x)
-
6
= 1.0
............................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 0.5
.......................................................................................................................................................................................................................................................................................................................................................................................................................
2.6.3 Rayleigh
Usos mais frequentes
Modelamento de desvanecimento.
Domnio: S
X
= [0, )
Variveis Aleatrias 41
Funo densidade de probabilidade
f
X
(x) =
_

_
x

2
e

x
2
2
2
x > 0, > 0
0 caso contrrio
x 0 1 2
f
X
(x)
-
6
= 1
................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 2
...............................................................................................................................................................................................................................................................................................................................................................................................
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
............
Funo distribuio cumulativa
F
X
(x) =
_
x
0
y

2
e

y
2
2
2
dy Fazendo u = y
2
/2, temos que du = ydy.
F
X
(x) =
_
x
2
/2
0
1

2
e

2
du =
1

2
e

2
1

x
2
/2
0
= 1 e

x
2
2
2
F
X
(x) =
_
1 e

x
2
2
2
x 0, > 0
0 caso contrrio
x 0 2 4 6
1
F
X
(x)
-
6
= 1
........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 2
................................................................................................................................................................................................................................................................................................................................................................................................................................................. ............. ............. ............. ............. ............. .............
2.6.4 Gaussiana
Usos mais frequentes
Curvas em forma de sino aparecem em vrias aplicaes de teoria de probabilidade. Os
modelos de probabilidade nestas aplicaes so menbros da famlia de v.a.s Gaussianas.
De fato, sob uma grande faixa de condies X pode ser usada para aproximar a soma
de um grande nmero de variveis aleatrias independentes. Pelo fato de ocorrerem
to frequentemente na prtica, as v.a.s Gaussianas so tambm chamadas de v.a.s
normais.
Tambm, sob uma grande variedade de condies, a varivel aleatria gaussiana
pode ser utilizada para aproximar a soma de um grande nmero de variveis aleatrias
independentes. (Veja o Teorema do Limite Central no Captulo 5)
Seguindo a conveno de vrios textos na rea, usaremos a notao X N(,
2
)
para nos referirmos a uma v.a. X com distribuio Gaussiana de mdia e varincia

2
. Nesta notao, o N quer dizer (obviamente) normal.
Domnio: S
X
= (, )
42 Variveis Aleatrias
Funo densidade de probabilidade
f
X
(x) =
1

2
e

(x )
2
2
2
x -4 -3 -2 -1 0 1 2 3 4
f
X
(x)
0.5
-
6
( = 0, = 1)
..........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
( = 1, = 0.5)
...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
O grco de f
X
(x) tem formato de sino, com centro em x = . reete a largura
do sino: se pequeno, o sino estreito, com um pico agudo e alto. Por outro lado, se
grande, o sino largo, e o pico baixo e menos pontudo. A altura do pico dada
por 1/(

2)
Funo distribuio cumulativa
F
X
(x) =
1

2
_
x

(y)
2
2
2
dy
x -4 -3 -2 -1 0 1 2 3 4
1
F
X
(x)
-
6
( = 0, = 1)
...............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
( = 1, = 0.5)
................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ............. ............. ............. ............. ............. ............. ............. ............. ............. ...
Observaes
impossvel expressar a integral de uma fdp Gaussiana entre limites nitos de
forma analtica. Desta forma, a nica soluo calcular estes valores de forma
numrica. Nas Tabelas do Apndice F tem-se os valores da fdc de uma varivel
aleatria Gaussiana N(0, 1) para valores de -4 a 0.
Observe que como a varivel aleatria gaussiana N(0, 1) simtrica em relao
origem, estas tabelas tambm fornecem os valores da fdc no intervalo 0 a 4.
Para valores fora deste intervalo, as probabilidades so muito baixas.
Para aprender como usar esta tabela, vamos introduzir a seguinte propriedade das
variveis aleatrias Gaussianas:
Teorema 2.1. Se X uma varivel aleatria Gaussiana com parmetros e ,
ento Y = aX +b uma varivel aleatria Gaussiana com parmetros a +b e a.
Este teorema diz que qualquer transformao linear de uma varivel aleatria Gaus-
siana produz outra varivel aleatria Gaussiana. Este teorema nos permite relacionar
Variveis Aleatrias 43
as propriedades de uma varivel aleatria Gaussiana arbitrria com as propriedades de
uma varivel aleatria Gaussiana especca.
Denio 2.9. Varivel aleatria normal padro. A varivel aleatria normal
padro Z a varivel aleatria Gaussiana com parmetros = 0 e = 1.
As tabelas denidas contm valores de F
Z
(z). Introduzimos a notao especial (z)
para esta funo.
Denio 2.10. Fdc normal padro. A fdc da varivel normal padro Z
(z) =
1

2
_
z

e
u
2
/2
du
Dada a tabela de valores de (z), usamos o seguinte teorema para encontrar as
probabilidades de uma varivel aleatria Gaussiana com parmetros e
Teorema 2.2. Se X uma varivel aleatria Gaussiana com parmetros e , a
fdc de X
F
X
(x) =
_
x

_
E a probabilidade de X estar no intervalo (a, b]
P[a < X b] =
_
b

_
a

_
Usando este teorema, transformamos os valores de uma varivel aleatria Gaussiana,
X, para valores equivalentes da varivel aleatria normal padro, Z. Para um valor
particular x da varivel aleatria X, o valor correspondente para a varivel aleatria Z

z =
x

(2.22)
Note que z adimensional. Ele representa x como um nmero de desvios padres
em relao ao valor esperado de X.
Exemplo 2.7. Suponha que a sua pontuao em um teste seja x = 46, uma amostra de
uma varivel aleatria Gaussiana com valor esperado 61 e desvio padro 10. Expresse
este resultado como uma amostra da varivel aleatria normal padro Z.
Soluo. Pela Equao (2.22),
44 Variveis Aleatrias
z =
46 61
10
= 1.5
Assim, esta pontuao corresponde a 1.5 desvios padres menos que o valor espera-
do.
Para encontrar as probabilidades das variveis aleatrias Gaussianas, usamos os
valores de (z) apresentados nas tabelas. Note que estas foram calculadas apenas para
valores negativos de x. Para valores positivos, devemos usar a seguinte propriedade:
Teorema 2.3. Para a varivel aleatria normal padro,
(z) = 1 (z)
Exemplo 2.8. Se X uma varivel aleatria Gaussiana com = 61 e = 10, calcule
P[X 46]
Soluo. Aplicando o Teorema 2.2 e o resultado do Exemplo 2.7, temos
P[X 46] = F
X
(46) = (1.5) = 0, 067
Isto sugere que, se seu resultado est 1,5 desvios padres abaixo da mdia, voc est
na regio dos 6,7% piores, dentro da populao das pessoas que zeram o teste.
A funo distribuio cumulativa complementar Q(x).
Uma outra maneira de se calcular as probabilidades de eventos de variveis aleatrias
envolvendo distribuies gaussianas atravs do uso da funo distribuio cumulativa
complementar, denida como
Q(x) =
1

2
_

x
e
y
2
/2
dy (2.23)
Observe que a funo Q(x) corresponde ao valor da probabilidade do evento P[X >
x], sendo portanto o complemento da fdc F
X
(x), de modo que vale a identidade
Q(x) +F
X
(x) = 1 (2.24)
Desta simetria, pode-se concluir facilmente que a tabela de valores da funo Q(x)
pode ser obtida diretamente da tabela de valores de (x). Surge ento a pergunta: por
que estudar a funo Q(x) se j temos a funo (x)? Para responder a esta ques-
to, vamos dar uma olhada em outra funo, denominada funo erro complementar,
denida como
Variveis Aleatrias 45
erfc(x) =
2

_

x
e
y
2
dy (2.25)
Esta funo tem uma expanso em sries da forma
erfc(x) = 1
2

i=0
(1)
i
x
(2i+1)
(2i + 1)i!
_
(2.26)
Comparando as Equaes (2.23) e (2.25), podemos estabelecer as seguintes relaes
erfc(x) = 2Q(x

2) Q(x) =
1
2
erfc
_
x

2
_
(2.27)
Para x grande o suciente (assintoticamente), podemos usar a seguinte representao
da funo Q(x):
Q(x) =
e
x
2
/2
x

2
_
1
1
x
2
+
1 3
x
4

1 3 5
x
6
+
_
(2.28)
Na prtica, as seguintes aproximaes so utilizadas
Q(x)
1
x

2
e
x
2
/2
, x 1 (2.29)
Q(x)
1
x

2
_
1
0.7
x
2
_
e
x
2
/2
, x > 2 (2.30)
2.6.5 Gama
Usos mais frequentes
A distribuio gama no tem muitas aplicaes prticas, mas tem um interesse terico
bastante grande, pois serve de base para a derivao de outras distribuies, estas sim
de grande interesse prtico.
Domnio: S
X
= [0, )
Funo densidade de probabilidade
f
X
(x) =
(x)
1
e
x
()
x 0 1 2 3 4
f
X
(x)
0.2
0.4
0.6
0.8
1.0
-
6
= 3, = 0.5
..............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 3, = 3
............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
46 Variveis Aleatrias
Funo distribuio cumulativa
F
X
(x) =
_
x
0
(y)
1
e
y
()
dy
x 0 1 2 3 4
1
F
X
(x)
-
6
= 3, = 0.5
.......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 3, = 3
..........................................................................................................................................................................................................................................................................................................................................................................................................................................
2.6.6 m-Erlang
Usos mais frequentes
A varivel aleatria m-Erlang obtida pela soma de mvariveis aleatrias independentes
com distribuio exponencial de parmetro .
Observao: um caso especial da distribuio Gama, fazendo-se com que o par-
metro = m seja um nmero inteiro positivo.
Domnio: S
X
= [0, )
Funo densidade de probabilidade
f
X
(x) =
e
x
(x)
m1
(m1)!
, x > 0
x 0 1 2 3 4
f
X
(x)
0.2
0.4
0.6
0.8
1.0
-
6
m = 3, = 0.5
..............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
m = 3, = 3
............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
Funo distribuio cumulativa
F
X
(x) =
_
x
0
e
y
(y)
m1
(m1)!
dy
x 0 1 2 3 4
1
F
X
(x)
-
6
m = 3, = 0.5
.......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
m = 3, = 3
..........................................................................................................................................................................................................................................................................................................................................................................................................................................
Variveis Aleatrias 47
2.6.7 Chi-Quadrado (
2
)
Usos mais frequentes
A soma de k variveis aleatrias gaussianas independentes de mdia zero e varincia
unitria, ao quadrado, uma varivel aleatria com distribuio
2
com k graus de
liberdade.
Observao: um caso especial da distribuio Gama, fazendo-se = k/2, k inteiro
positivo, e = 1/2.
Domnio: S
X
= [0, )
Funo densidade de probabilidade
f
X
(x) =
x
(k2)/2
e
x/2
2
k/2
(k/2)
x 0 5 10 15 20
f
X
(x)
0.1
0.2
0.3
0.4
0.5
-
6
k = 2
.
.....................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
k = 10
................................................................................................................................................................................................................................................................................................................................................................................
Funo distribuio cumulativa
F
X
(x) =
_
x
0
y
(k2)/2
e
y/2
2
k/2
(k/2)
dy
x 0 5 10 15 20
1
F
X
(x)
-
6
k = 2
.................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ....................................................
k = 10
...........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
2.6.8 Cauchy
Usos mais frequentes
A distribuio de Cauchy no tem aplicao prtica, mas tem um grande interesse
terico pelas suas peculiaridades.
Domnio: S
X
= [, )
48 Variveis Aleatrias
Funo densidade de probabilidade
f
X
(x) =
/
x
2
+
2
, > 0
x -6 -4 -2 0 2 4 6
f
X
(x)
0.2
0.4
0.6
-
6
= 0.5
................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 1
................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
Funo distribuio cumulativa
F
X
(x) =
_
x

2
+u
2
du
=
a

_
1
a
arctan
_
u
a
_
_
x

F
X
(x) =
1

_
1
2
+ arctan
_
x

_
_
x -6 -4 -2 0 2 4 6
0.5
1
F
X
(x)
-
6
= 0.5
..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 1
...............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
2.6.9 Laplace
Usos mais frequentes
A distribuio de Laplace tambm conhecida como distribuio exponencial dupla.
a distribuio das diferenas entre duas variveis aleatrias iid com distribuio expo-
nencial.
Domnio: S
X
= [, )
Variveis Aleatrias 49
Funo densidade de probabilidade
f
X
(x) =

2
e
|x|
, > 0
x -8 -6 -4 -2 0 2 4 6 8
f
X
(x)
0.1
0.2
0.3
0.4
0.5
-
6
= 1, = 2
............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 0.5, = 0
................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... .............
.............
.............
.............
.......
.............
.............
.............
.............
.............
.............
.............
.............
.............
Funo distribuio cumulativa
Por causa da presena do mdulo na expresso da fdp, precisamos derivar a fdc em duas
etapas:
Primeira etapa: x
F
X
(x) =
_
x

2
e
|y|
dy Fazendo z = y , temos que dz = dy, e ento
F
X
(x) =
_
x

2
e
z
dz =

2
e
y

=
1
2
e
(x)
Segunda etapa: x >
F
X
(x) =
_

2
e
|y|
dy+
_
x

2
e
|y|
dy Fazendo z = y , dz = dy, e ento:
F
X
(x) =
_

2
e
z
dz +
_
x

2
e
z
dz =

2
e
y

+

2
e
y

=
1
2

1
2
e
(x)
F
X
(x) =
_

_
1
2
e
(x)
, x
1
2

1
2
e
(x)
, x >
x -8 -6 -4 -2 0 2 4 6 8
1
F
X
(x)
-
6
= 0, 5, = 0
...............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
= 1, = 2
............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
2.7 Densidades Condicionais
Se temos informao adicional sobre o experimento sob anlise, ento nossas espectativas
podem (ou no) ser alteradas. Por exemplo, ao fazermos apostas em um hipdromo,
se sabemos que um cavalo est machucado ou doente, mesmo que seja um campeo,
diminuimos nossa conana nele.
Nesta seo iremos mostrar como determinar a inuncia de uma informao adici-
onal na fdc de uma varivel aleatria. Isto bastante fcil se lembrarmos que a fdc
na verdade uma probabilidade:
50 Variveis Aleatrias
Denio 2.11. Funo de distribuio condicional. A funo de distribuio
condicional F
X
(x|B) de uma varivel aleatria X dado o evento B denida como
F
X
(x|B) = P[X x|B] =
P[X x, B]
P[B]
Propriedades
A funo distribuio condicional F
X
(x|B) tem as mesmas propriedades de uma fdc
comum. Dentre elas, podemos destacar:
1. F
X
(|B) = 0
2. F
X
(|B) = 1
3. P[a < X b|B] = F
X
(b|B) F
X
(a|B)
Denio 2.12. Se X uma varivel aleatria discreta, ento a funo massa de
probabilidade condicional dada por
p
X
(x
k
|B) = P[X = x
k
|B] =
P[X = x
k
, B]
P[B]
Se X uma varivel aleatria contnua, ento a funo densidade de probabilidade
condicional dada por
f
X
(x|B) =
dF
X
(x|B)
dx
Exemplo 2.9. Seja B

= {X 10}. Determine F
X
(x|B).
Soluo. Para resolver este problema, vamos analis-lo em duas partes:
1. para x 10, o evento {X 10} um subconjunto do evento {X x}. Desta
forma,P[X 10, X x] = P[X 10], e ento podemos escrever
F
X
(x|B) =
P[X 10, X x]
P[X 10]
=
P[X 10]
P[X 10]
= 1
2. para x 10, o evento {X x} um subconjunto do evento {X 10}. Desta
forma,P[X 10, X x] = P[X x], e ento podemos escrever
F
X
(x|B) =
P[X 10, X x]
P[X 10]
=
P[X x]
P[X 10]
Na Figura abaixo temos uma verso grca deste resultado.
Variveis Aleatrias 51
x 0 2 4 6 8 10 12 14
1
F
X
(x)
-
6
F
X
(x|B)
F
X
(x)
..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ..
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
..........
Figura 2.10: Fdcs condicional e incondicional de X.
2.8 Variveis Aleatrias Mltiplas
Quando lidamos com experimentos combinados ou tentativas repetidas de um mesmo
experimento, encontramos v.a.s mltiplas e suas fdcs e fdps. Variveis aleatrias
mltiplas so basicamente funes multidimensionais denidas em um espao amostral
de um experimento combinado.
2.8.1 Funo Distribuio de Probabilidade Conjunta
Sejam duas v.a.s X
1
e X
2
, cada uma delas podendo ser contnua, discreta ou mista.
Denio 2.13. A funo distribuio cumulativa conjunta (fdc conjunta) para as
duas v.a.s pode ser denida como
F
X
1
X
2
(x
1
, x
2
) = P[X
1
x
1
, X
2
x
2
] =
_
x
1

_
x
2

f
X
1
X
2
(u
1
, u
2
)du
1
du
2
(2.31)
onde f
X
1
X
2
(x
1
, x
2
) a funo densidade de probabilidade conjunta (fdp conjunta). Esta
ltima pode ser expressa na forma
f
X
1
X
2
(x
1
, x
2
) =

2
x
1
x
2
F
X
1
X
2
(x
1
, x
2
) (2.32)
52 Variveis Aleatrias
2.8.2 Densidades marginais
Teorema 2.4. Quando a fdp conjunta f
X
1
X
2
(x
1
, x
2
) integrada sobre uma das va-
riveis, obtemos a fdp da outra varivel, isto
_
+

f
X
1
X
2
(x
1
, x
2
)dx
1
= f
X
2
(x
2
)
_
+

f
X
1
X
2
(x
1
, x
2
)dx
2
= f
X
1
(x
1
)
As fdps f
X
1
(x
1
) e f
X
2
(x
2
) obtidas a partir da integrao de uma das variveis so
chamadas de fdps marginais.
Corolrio 2.5. Se f
X
1
X
2
(x
1
, x
2
) integrada sobre ambas as variveis, obtemos
_
+

_
+

f
X
1
X
2
(x
1
, x
2
)dx
1
dx
2
= F(, ) = 1 (2.33)
Corolrio 2.6. F(, ) = F(, x
2
) = F(x
1
, ) = 0
No caso de v.a.s discretas, substitumos as integrais por somatrios.
Teorema 2.7. Para as v.a.s discretas X e Y , temos:
p
X
(x
i
) = P[X = x
i
] = P[X = x
i
, Y = y
1
ou X = x
i
, Y = y
2
ou . . . ]
=

j=
p
XY
(x
i
, y
j
)
p
Y
(y
j
) = P[Y = y
j
] = P[Y = y
j
, X = x
1
ou Y = y
j
, X = x
2
ou . . . ]
=

i=
p
XY
(x
i
, y
j
)
E a expresso correspondente Equao 2.33 para o caso discreto
Variveis Aleatrias 53
Teorema 2.8.

i=

j=
p
XY
(x
i
, y
j
) = F(, ) = 1 (2.34)
Exemplo 2.10. Duas linhas de produo fabricam um certo tipo de pea. Suponha que
a capacidade (em qualquer dia) seja 5 peas na linha I e 3 peas na linha II. Admita que
o nmero de peas realmente produzidas em qualquer linha seja uma v.a. e que (X, Y )
represente a v.a. bidimensional que fornece o nmero de peas produzidas pela linha
I e a linha II, respectivamente. A Tabela 2.1 fornece a distribuio de probabilidade
conjunta de (X, Y ). Calcule as probabilidades marginais.
Tabela 2.1: Exemplo de probabilidades conjunta e marginal.
Y X 0 1 2 3 4 5 Soma
0 0 0,01 0,03 0,05 0,07 0,09 0,25
1 0,01 0,02 0,04 0,05 0,06 0,08 0,26
2 0,01 0,03 0,05 0,05 0,05 0,06 0,25
3 0,01 0,02 0,04 0,06 0,06 0,05 0,24
Soma 0,03 0,08 0,16 0,21 0,24 0,28 1
Soluo. Na Tabela 2.1, cada casa representa
p
XY
(x
i
, y
j
) = P[X = x
i
, Y = y
j
]
A ltima linha e a ltima coluna fornecem os totais marginais, isto , a soma das
6 colunas e 4 linhas da tabela. As probabilidades que aparecem nas margens, linha e
coluna, representam a distribuio de probabilidade de Y e de X, respectivamente. Por
exemplo, P[Y = 1] = 0.26, P[X = 3] = 0.21, etc.
Em virtude da forma de apresentao da Tabela 2.1 aludiremos, de modo muito usual
distribuio marginal de X ou distribuio marginal de Y , sempre que tivermos uma
v.a. bidimensional (X, Y ), quer discreta, quer contnua.
2.8.3 Caso multidimensional
A generalizao das expresses acima para v.a.s multidimensionais direta. Suponha
que X
i
, i = 1, 2, . . . , n so v.a.s com uma fdc conjunta denida por
F
X
1
X
2
...Xn
(x
1
, x
2
, . . . , x
n
) = P[X
1
x
1
, X
2
x
2
, . . . , X
n
x
n
]
=
_
x
1

_
x
2


_
xn

f
X
1
X
2
...Xn
(u
1
, u
2
, . . . , u
n
)du
1
du
2
. . . du
n
(2.35)
onde f
X
1
X
2
...Xn
(x
1
, x
2
, . . . , x
n
) a fdp conjunta.
54 Variveis Aleatrias
Tomando as derivadas parciais de F
X
1
X
2
...Xn
(x
1
, x
2
, . . . , x
n
) dadas por (2.35), obte-
mos
f
X
1
X
2
...Xn
(x
1
, x
2
, . . . , x
n
) =

n
x
1
x
2
x
n
F
X
1
X
2
...Xn
(x
1
, x
2
, . . . , x
n
) (2.36)
Um nmero qualquer de variveis de f
X
1
X
2
...Xn
(x
1
, x
2
, . . . , x
n
) pode ser eliminado
integrando-se sobre estas variveis. Por exemplo, integrando-se sobre x
2
e x
3
leva a
_
+

_
+

f
X
1
X
2
X
3
X
4
...Xn
(x
1
, x
2
, x
3
, x
4
, . . . , x
n
)dx
2
dx
3
= f
X
1
X
4
...Xn
(x
1
, x
4
, . . . , x
n
)
(2.37)
Segue tambm que
F
X
1
X
2
...Xn
(x
1
, , , x
4
, . . . , x
n
) = F
X
1
X
4
...Xn
(x
1
, x
4
, . . . , x
n
)
e
F
X
1
X
2
...Xn
(x
1
, , , x
4
, . . . , x
n
) = 0.
2.8.4 Funo distribuio de probabilidade condicional
Teorema 2.9. Sejam duas v.a.s X
1
e X
2
com fdp conjunta f
X
1
X
2
(x
1
, x
2
). A fdc
F
X
1
(x
1
) condicionada por
x
2
x
2
< X
2
x
2
onde x
2
algum incremento positivo, dada por
F
X
1
(x
1
|x
2
) =
_
x1

f
X
1
X
2
(u
1
, x
2
)du
1
f
X
2
(x
2
)
Demonstrao. Sejam X
1
e X
2
duas v.a.s com fdp conjunta f
X
1
X
2
(x
1
, x
2
). Queremos
determinar P[X
1
x
1
] condicionada por
x
2
x
2
< X
2
x
2
onde x
2
algum incremento positivo. Em outras palavras, desejamos calcular a pro-
babilidade do evento (X
1
x
1
|x
2
x
2
< X
2
x
2
). Usando as relaes estabelecidas
anteriormente para a probabilidade condicional de um evento, a probabilidade do evento
(X
1
x
1
|x
2
x
2
< X
2
x
2
) pode ser expressa como
P[X
1
x
1
|x
2
x
2
< X
2
x
2
] =
P[X
1
x
1
, x
2
x
2
< X
2
x
2
]
P[x
2
x
2
< X
2
x
2
]
=
_
x1

_
x2
x
2
x
2
f
X
1
X
2
(u
1
, u
2
)du
1
du
2
_
x2
x
2
x
2
f
X
2
(u
2
)du
2
(2.38)
Variveis Aleatrias 55
Vamos agora utilizar um resultado da teoria do clculo diferencial e integral para
continuarmos com a nossa prova:
Teorema 2.10. Teorema do Valor Mdio: se f for uma funo contnua em [a, b]
e diferencivel em (a, b), ento existe c (a, b) tal que f(b) f(a) = f

(c)(b a).
De acordo com o Teorema do Valor Mdio enunciado acima, existem pontos c e
c

(x
2
x
2
, x
2
) tais que
_
x1

_
x2
x
2
x
2
f
X
1
X
2
(u
1
, u
2
)du
1
du
2
_
x2
x
2
x
2
f
X
2
(u
2
)du
2
=
_
x1

f
X
1
X
2
(u
1
, c)x
2
du
1
f
X
2
(c

)x
2
(2.39)
Fazendo agora x
2
0, temos que c e c

aproximam-se de x
2
, e desta forma,
podemos reescrever (2.39) como
_
x1

f
X
1
X
2
(u
1
, c)x
2
du
1
f
X
2
(c

)x
2
=
_
x1

f
X
1
X
2
(u
1
, x
2
)du
1
f
X
2
(x
2
)
(2.40)
que a fdc condicional da v.a. X
1
dada a v.a. X
2
, ou seja
F
X
1
(x
1
|x
2
) =
_
x1

f
X
1
X
2
(u
1
, x
2
)du
1
f
X
2
(x
2
)
(2.41)
Corolrio 2.11. F
X
1
(|x
2
) = 0 e F
X
1
(+|x
2
) = 1.
Teorema 2.12.
f
X
1
(x
1
|x
2
) =
f
X
1
X
2
(x
1
, x
2
)
f
X
2
(x
2
)
(2.42)
Demonstrao. Este corolrio demonstrado diretamente derivando (2.40) em relao
a x
1
, obtemos a fdp f
X
1
X
2
(x
1
|x
2
) correspondente na forma
Alternativamente, podemos expressar a fdp conjunta f
X
1
X
2
(x
1
, x
2
) em termos das
fdps condicionais
f
X
1
X
2
(x
1
, x
2
) = f
X
1
(x
1
|x
2
)f
X
2
(x
2
) = f
X
2
(x
2
|x
1
)f
X
1
(x
1
) (2.43)
56 Variveis Aleatrias
A extenso das relaes dadas acima para o caso multidimensional direta:
f
X
1
Xn
(x
1
, . . . , x
n
) = f
X
1
X
k
(x
1
, . . . , x
k
|x
k+1
, . . . , x
n
)f
X
k+1
Xn
(x
k+1
, . . . , x
n
) (2.44)
onde k qualquer inteiro na faixa 1 < k < n. A fdc condicional conjunta correspondente
fdp f
X
1
X
k
(x
1
, . . . , x
k
|x
k+1
, . . . , x
n
) dada por
F
X
1
X
k
(x
1
, . . . , x
k
|x
k+1
, . . . , x
n
)
=
_
x
1


_
x
k

f
X
1
X
k
(u
1
, . . . , u
k
|x
k+1
, . . . , x
n
)du
1
du
k
f
X
k+1
Xn
(x
k+1
, . . . , x
n
)
(2.45)
Esta fdc condicional satisfaz as propriedades previamente estabelecidas para estas
funes tais como
F
X
1
X
2
X
k
(, x
2
, . . . , x
k
|x
k+1
, . . . , x
n
) = F
X
2
X
k
(x
2
, . . . , x
k
|x
k+1
, . . . , x
n
)
F
X
1
X
2
X
k
(, x
2
, . . . , x
k
|x
k+1
, . . . , x
n
) = 0
2.8.5 Independncia Estatstica de Variveis Aleatrias
J denimos a independncia estatstica para dois ou mais eventos de uma espao amos-
tral S. Este conceito pode ser estendido para variveis aleatrias denidas em um espao
amostral gerado por um experimento combinado ou por vrias tentativas de um nico
experimento. Se os experimentos gerarem resultados mutuamente exclusivos, a pro-
babilidade de um resultado em um experimento independente de um resultado em
qualquer outro experimento. Isto , a probabilidade conjunta dos resultados pode ser
fatorada no produto das probabilidades correspondentes a cada resultado. Consequen-
temente, as variveis aleatrias correspondentes aos resultados nestes experimentos so
independentes no sentido de que sua fdp conjunta pode ser fatorada no produto das
fdps marginais.
Denio 2.14. As v.a.s multidimensionais so estatisticamente independentes se
e somente se
F
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
) = F
X
1
(x
1
)F
X
2
(x
2
) F
Xn
(x
n
) (2.46)
ou alternativamente
f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
) = f
X
1
(x
1
)f
X
2
(x
2
) f
Xn
(x
n
) (2.47)
2.9 Funes de Variveis Aleatrias
2.9.1 Caso Unidimensional
Um problema que surge frequentemente em aplicaes de probabilidade o seguinte:
dada uma v.a. X, caracterizada por sua fdp f
X
(x), calcular a fdp da v.a. Y = g(X),
Variveis Aleatrias 57
onde g(X) alguma funo de X. Chamemos a fdp desejada de f
Y
(y).
Teorema 2.13. Sejam duas v.a.s X e Y , com Y = g(X). Nestas condies, a fdp
de Y dada por
f
Y
(y) =
f
X
(x)
|g

(X)|

x=g
1
(y)
Demonstrao. Inicialmente, vamos analisar os grcos da Figura 2.11.
a)
b)
c)
X X Y
Y
x y
Y = g(X)
f
X
(x) X f
Y
(y) Y
Figura 2.11: a) Dependncia entre X e Y, b) f
X
(x), e c) f
Y
(y).
Se X sofre uma variao X 0, e a variao correspondente em Y dada por
Y , ento bvio que a probabilidade de observar X no intervalo [x, x+x] a mesma
de observar Y no intervalo [y, y+y]. Mas estas probabilidades so dadas por f
X
(x)x
e f
Y
(y)y, respectivamente. Portanto
lim
x0
f
X
(x)x = f
Y
(y)y (2.48)
Propriamente falando a equao acima deveria ser expressa como
lim
x0
f
X
(x)|x| = f
Y
(y)|y| (2.49)
pois as probabilidades so iguais s magnitudes das reas sob X e Y , respectiva-
mente. Desta forma
f
Y
(y) =
f
X
(x)

dY
dX

=
f
X
(x)
|g

(X)|
(2.50)
Observe que f
Y
(y) uma funo de y. Desta forma, no lado direito da equao
acima, a varivel x deve ser expressa em termos de y. Assumindo que y = g(x) tem
uma inversa x = g
1
(y), temos
f
Y
(y) =
f
X
(x)
|g

(X)|

x=g
1
(y)
(2.51)
58 Variveis Aleatrias
Exemplo 2.11. A funo densidade de probabilidade de uma varivel aleatria X
dada por
f
X
(x) =
_
_
_
x
2
81
, 3 < x < 6
0, caso contrrio
Calcule a funo densidade de probabilidade da varivel aleatria U =
1
3
(12 x).
Soluo. Neste caso, g(x) = 1/3(12 x). Assim, a derivada e a inversa de g(x) so
dadas por:
g

(x) =
1
3
(0 1) =
1
3
g
1
(U) = 12 3U
Aplicando o Teorema 2.13, temos:
f
U
(u) =
X
2
81

1
3

g
1
(U)
=
x
2
27

g
1
(U)
=
(4 U)
2
3
Ainda, para X variando no intervalo (3, 6), U varia no intervalo (2, 5), e a soluo
nal ento dada por:
f
U
(u) =
_
_
_
(4 u)
2
3
, 2 < u < 5
0, caso contrrio
Exemplo 2.12. Considere a v.a. Y denida como Y = aX +b, a > 0. Se X tem fdp
dada por f
X
(x), encontre a fdp de Y em termos da fdp de X.
Soluo. Na Figura 2.12a) tem-se o mapeamento de X contra Y . Notamos que este
mapeamento linear e monotnico. Sejam F
X
(x) e F
Y
(y) as fdcs para X e Y , respec-
tivamente. Ento
F
Y
(y) = P[Y y] = P[aX+b y] = P
_
X
y b
a
_
=
_ yb
a

f
X
(x)dx = F
X
_
y b
a
_
Derivando a equao acima em relao a y, obtemos a relao entre as respectivas
fdps
f
Y
(y) =
1
a
f
X
_
y b
a
_
Ou seja, se a fdp de X da forma da Figura 2.12b), a fdp de Y ser aquela mostrada
na Figura 2.12c).
Uma outra forma de resolver este problema aplicando diretamente o Teorema 2.13.
Neste caso, temos:
Variveis Aleatrias 59
a) b)
c)
X
Y
x y -1
0 1
1
f
X
(x)
f
Y
(y)
b a b b +a
Y = aX +b, a > 0
1
a
Figura 2.12: Uma transformao da v.a. X e um exemplo das fdps correspondentes de
X e Y .
f
Y
(y) =
f
X
(x)
g

(x)

x=g
1
(y)
=
f
X
(x)
a

x=(yb)/a
=
1
a
f
X
_
y b
a
_
At agora assumiu-se implicitamente que existe uma correspondncia biunvoca en-
tre X e Y ou seja, existe apenas um valor de X para um dado Y , e vice-versa. Se, por
outro lado, para um dado valor de Y existir mais de um valor de X, as equaes acima
devem ser modicadas. O seguinte corolrio trata deste caso:
Corolrio 2.14. Quando a equao Y = g(X) tem duas razes, x
1
e x
2
, a fdp f
Y
(y)
dada por
f
Y
(y) =
f
X
(x
1
)
|g

1
(x
1
)|

x
1
=g
1
1
(y)
+
f
X
(x
2
)
|g

2
(x
2
)|

x
2
=g
1
2
(y)
Demonstrao. Considere a relao Y = g(X) mostrada na Figura 2.13.
x
y
g
1
(x
1
)
g
2
(x
2
)
y
x
1 x
2
x
1 x
2
Figura 2.13: Funo de uma v.a. com duas razes.
Nesta Figura, para um dado valor de Y existem dois valores correspondentes para
X. Ento a equao Y = g(X) tem duas razes, x
1
e x
2
. Vamos quebrar esta funo
em duas outras, cada qual com uma nica raiz: Y = g
1
(X
1
) e Y = g
2
(X
2
).
Note que agora temos uma correspondncia unvoca entre X e Y em cada uma
destas funes. Ento x
1
e x
2
so funes de y com uma nica raiz. Chamemos as
60 Variveis Aleatrias
relaes inversas de x
1
= g
1
1
(y) e x
2
= g
1
2
(y).
Da Figura 2.13 temos que Y est no intervalo (y, y+y) quando x
1
est no intervalo
(x
1
, x
1
+ x
1
) ou quando x
2
est no intervalo (x
2
, x
2
+ x
2
). Os dois ltimos eventos
so mutuamente exclusivos, pois X pode assumir o valor x
1
ou o valor x
2
mas no
ambos. Desta forma, temos
f
Y
(y)|y| = lim
x
1
0
x
2
0
(f
X
(x
1
)|x
1
| +f
X
(x
2
)|x
2
|) (2.52)
f
Y
(y) =
f
X
(x
1
)
|g

1
(x
1
)|

x
1
=g
1
(y)
+
f
X
(x
2
)
|g

2
(x
2
)|

x
2
=g
1
(y)
(2.53)
Se existirem n valores de X para um dado valor de Y , podemos estender este resul-
tado para o seguinte corolrio:
Corolrio 2.15. Quando a equao Y = g(X) tem n razes, x
1
, . . . , x
n
, a fdp f
Y
(y)
dada por
f
Y
(y) =
f
X
(x
1
)
|g

1
(x
1
)|

x
1
=g
1
1
(y)
+ +
f
X
(x
n
)
|g

n
(x
n
)|

xn=g
1
n
(y)
onde x
1
, x
2
, . . . , x
n
so os valores de X quando Y = y.
Exemplo 2.13. Considere a v.a. Y denida como Y = aX
2
+b, a > 0. Se X tem fdp
dada por f
X
(x), encontre a fdp de Y em termos da fdp de X.
Soluo. Na Figura 2.14 temos o mapeamento de Y em relao a X.
Figura 2.14: Uma transformao quadrtica da v.a. X.
Para determinar a fdc de Y , observamos que
F
Y
(y) = P[Y y] = P[aX
2
+b y] = P[|X|
_
y b
a
]
e ento
Variveis Aleatrias 61
F
Y
(y) = F
X
_
_
y b
a
_
F
X
_

_
y b
a
_
Derivando a equao acima em relao a y, obtemos a fdp de Y em termos da fdp de X
f
Y
(y) =
f
X
_
_
yb
a
_
2a
_
yb
a
+
f
X
_

_
yb
a
_
2a
_
yb
a
Utilizando agora o Corolrio 2.9.1, temos: a equao g(X) = aX
2
+ b = y tem duas
solues reais x
1
=
_
yb
a
e x
2
=
_
yb
a
, e portanto, f
Y
(y) consiste de dois termos
correspondentes a estas duas solues
f
Y
(y) =
f
X
_
x
1
=
_
yb
a
_

X
_
x
1
=
_
yb
a
_

+
f
X
_
x
2
=
_
yb
a
_

X
_
x
2
=
_
yb
a
_

=
f
X
_
_
yb
a
_
2a
_
yb
a
+
f
X
_

_
yb
a
_
2a
_
yb
a
2.9.2 Caso Multidimensional
Teorema 2.16. Considere duas v.a.s X e Y e sua fdp conjunta f
XY
(x, y). Sejam
U e V outras duas v.a.s relacionadas a X e Y por U = U(X, Y ) e V = V (X, Y ).
Suponha que tanto U como V assumem valores nicos para valores particulares de X
e Y , e vice-versa. Ento
f
UV
(u, v) =
f
XY
(x, y)
J
_
u, v
x, y
_
Demonstrao. Considere duas v.a.s X e Y e sua fdp conjunta f
XY
(x, y). Sejam U e
V outras duas v.a.s relacionadas a X e Y por U = U(X, Y ) e V = V (X, Y ). Suponha
que tanto U como V assumem valores nicos para valores particulares de X e Y , e vice-
versa. Similarmente ao caso unidimensional, para obter f
UV
(u, v) a partir de f
XY
(x, y),
observe que
f
UV
(u, v)|dudv| = f
XY
(x, y)|dxdy| (2.54)
Portanto
f
UV
(u, v) =
f
XY
(x, y)

dudv
dxdy

(2.55)
A relao entre os dois elementos de rea nos dois sistemas de coordenadas pode ser
expressa em termos do Jacobiano como
62 Variveis Aleatrias
dudv = J
_
u, v
x, y
_
dxdy (2.56)
onde J o Jacobiano da transformao, dado pelo determinante
J
_
u, v
x, y
_
=

u
x
u
y
v
x
v
y

(2.57)
Portanto
f
UV
(u, v) =
f
XY
(x, y)
J
_
u, v
x, y
_ (2.58)
Note que para que o Jacobiano exista as derivadas parciais de u e v em relao a x
e a y devem tambm existir.
Teorema 2.17. Se X e Y so funes de mltiplos valores, isto , se
(x
1
, y
1
), (x
2
, y
2
), . . . , (x
n
, y
n
) so as solues das equaes U = U(X, Y ) e V =
V (X, Y ) ento
f
UV
(u, v) =
f
XY
(x
1
, y
1
)

J
_
u, v
x
1
, y
1
_

+
f
XY
(x
2
, y
2
)

J
_
u, v
x
2
, y
2
_

+ +
f
XY
(x
n
, y
n
)

J
_
u, v
x
n
, y
n
_

(2.59)
O resultado acima pode ser estendido a qualquer nmero de variveis. Suponha
que temos n v.a.s X
1
, X
2
, . . . , X
n
com uma fdp conjunta f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
).
Desejamos encontrar a fdp conjunta f
Y
1
Y
2
Yn
(y
1
, y
2
, . . . , y
n
) de n v.a.s relacionadas
com X
1
, X
2
, . . . , X
n
por
Y
i
= Y
i
(X
1
, X
2
, . . . , X
n
), i = 1, 2, . . . , n
X
j
= X
j
(Y
1
, Y
2
, . . . , Y
n
), j = 1, 2, . . . , n
Assume-se que todas essas funes sejam de valor nico e com derivadas parciais
contnuas em todos os pontos. Assim, temos
f
Y
1
Y
2
Yn
(y
1
, y
2
, . . . , y
n
)|dy
1
, dy
2
, . . . , dy
n
| =
f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
)|dx
1
, dx
2
, . . . , dx
n
| (2.60)
Portanto
Variveis Aleatrias 63
f
Y
1
Y
2
Yn
(y
1
, y
2
, . . . , y
n
) =
f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
)

dy
1
, dy
2
, . . . , dy
n
dx
1
, dx
2
, . . . , dx
n

(2.61)
A razo dos elementos de rea dada pelo Jacobiano da transformao J
_
y
1
,...,yn
x
1
,...,xn
_
dy
1
, dy
2
, . . . , dy
n
= J
_
y
1
, y
2
, . . . , y
n
x
1
, x
2
, . . . , x
n
_
dx
1
, dx
2
, . . . , dx
n
(2.62)
onde
J
_
y
1
, y
2
, . . . , y
n
x
1
, x
2
, . . . , x
n
_
=

y
1
x
1
y
1
x
2
. . .
y
1
x
n
y
2
x
1
y
2
x
2
. . .
y
2
x
n
.
.
.
.
.
.
.
.
.
.
.
.
y
n
x
1
y
n
x
2
. . .
y
n
x
n

(2.63)
Portanto
f
Y
1
Y
2
Yn
(y
1
, y
2
, . . . , y
n
) =
f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
)
J
_
y
1
, y
2
, . . . , y
n
x
1
, x
2
, . . . , x
n
_ (2.64)
Pode-se mostrar que
J
_
y
1
, y
2
, . . . , y
n
x
1
, x
2
, . . . , x
n
_
=
1
J
_
x
1
, x
2
, . . . , x
n
y
1
, y
2
, . . . , y
n
_ (2.65)
Se Y
1
, Y
2
, . . . , Y
n
so funes de mltiplos valores de X
1
, X
2
, . . . , X
n
, uma equao
similar a (2.59) deve ser utilizada. (Qual ?)
Exemplo 2.14. Para ilustrar o exemplo de transformao de uma fdp de segunda or-
dem, considere o caso do arremesso de um dardo. Assuma que ambas as variveis X e Y
que descrevem as coordenadas de um ponto onde o dardo atinge o alvo so independentes
e tem fdps normais (gaussianas)
f
X
(x) =
1

2
2
e
x
2
2
2
e f
Y
(y) =
1

2
2
e
y
2
2
2
Encontre a fdp f
R
(r, ) onde R a distncia do ponto origem e o ngulo do
ponto em relao ao eixo x. As relaes entre as variveis so as seguintes:
R =
_
X
2
+Y
2
e = arctg
_
Y
X
_
Soluo.
J
_
R,
X, Y
_
=

R
X
R
Y

64 Variveis Aleatrias
Assim, a fdp f
R
(r, ) pode ser escrita como
f
R
(r, ) =
f
XY
(x, y)

J
_
r,
x,y
_

=
r
2
2
e

x
2
+y
2
2
2
=
r
2
2
e

r
2
2
2
A varivel no aparece na equao acima. Isto quer dizer que as variveis R e
so independentes e f

() precisa ser uma constante. Desde que varia no intervalo


[0, 2], evidente que f

() uma constante de modo a termos


_
2
0
f

()d = 1.
Portanto
f
R
(r, ) =
_
1
2
__
r

2
e

r
2
2
2
_
= f
R
(r)f

()
onde
f

() =
_
1
2
, 0 < < 2
0, caso contrrio
f
R
(r) =
r

2
e

r
2
2
2
f
R
(r) conhecida como funo densidade de Rayleigh.
r 0
f
R
(r)
-
6
............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... .............
.............
.............
.............
.............
.............
.............
.............
.............
Figura 2.15: Funo densidade de probabilidade de Rayleigh.
2.10 Exerccios
1. A funo densidade de probabilidade da amplitude de um certo sinal (em volts)
dada por
f
X
(x) = xe
x
u(x)
(a) Qual a probabilidade da amplitude do sinal ser maior que 1 volt?
(b) Qual a probabilidade de observar a amplitude do sinal na faixa de 1 a 2
volts?
Resp: a) 2e
1
b) 2e
1
3e
2
Variveis Aleatrias 65
2. A funo densidade de probabilidade conjunta f
XY
(x, y) de duas v.a.s contnuas
X e Y dada por
f
XY
(x, y) = xye

x
2
+y
2
2
u(x)u(y)
(a) Encontre as seguintes funes densidade de probabilidade: f
X
(x), f
Y
(y),
f
XY
(x|Y = y), f
XY
(y|X = x).
(b) As v.a.s X e Y so independentes?
Resp:
(a) f
X
(x) = xe

x
2
2
f
Y
(y) = ye

y
2
2
f
XY
(x|Y = y) = xe

x
2
2
f
XY
(y|X = x) = ye

y
2
2
(b) sim
3. A funo densidade de probabilidade conjunta f
XY
(x, y) de duas v.a.s contnuas
X e Y dada por
f
XY
(x, y) = ke
(x
2
+2xy+2y
2
)
(a) Determine o valor da constante k.
(b) Determine as funes densidade de probabilidade f
X
(x), f
Y
(y), f
XY
(x|Y =
y), e f
XY
(y|X = x).
(c) Estas duas v.a.s so independentes?
(a) k = 1/
(b) f
X
(x) =
1

2
e

x
2
2
f
Y
(y) =
1

e
y
2
f
XY
(x|Y = y) =
1

e
(x
2
+2xy+y
2
)
f
XY
(y|X = x) =
_
2

e
(
x
2
2
+2xy+2y
2
)
(c) no
4. O sinal de entrada X e o sinal de sada Y de um reticador de meia onda so
relacionados por
Y =
_
X
2
, X > 0
0, X 0
A funo densidade de probabilidade do sinal de entrada dada por
66 Variveis Aleatrias
f
X
(x) =
1

2
e

x
2
2
2
Encontre f
Y
(y).
Resp: f
Y
(y) =
_
_
_
1
2

2y
e

y
2
2
, y > 0
0, caso contrrio
5. Repita o problema anterior para um reticador de onda completa.
Dica: para um reticador de onda completa, os sinais de entrada e sada esto
relacionados por Y = X
2
.
Resp: f
Y
(y) =
_
_
_
1

2y
e

y
2
2
, y > 0
0, caso contrrio
6. Suponha que trs usurios de telefone tenham uma linha em comum. Qual a pro-
babilidade de mais de um deles utilizar a linha ao mesmo tempo? Admita que,
em mdia, um usurio utilize o aparelho durante 5 minutos por hora.
Resp: 425/21600 0, 0197
7. Se 20% dos bits transmitidos por um transmissor acusam defeito, determine a
probabilidade de que, em 4 bits transmitidos ao acaso:
(a) Um seja errado
(b) Nenhum esteja errado
(c) Ao menos dois estejam errados
Resp: a) 0,4096 b) 0,4096 c) 0,1808
8. Se os defeitos de um tecido seguem uma lei de Poisson com mdia de defeito a cada
500 m, qual a probabilidade de que o intervalo entre dois defeitos consecutivos
seja:
(a) no mnimo 1250 m
(b) entre 1000 m e 1250 m
(c) menor que 1000 m
Resp: a) e
5/2
0, 082 b) e
2
e
5/2
0, 053 c) 1 e
2
0, 865
9. Sabe-se que a mdia de carros com um pneu furado durante a travessia de um
determinado tnel de 0,06 casos/ms. Calcular a probabilidade de pelo menos
2 carros terem um pneu furado ao passar pelo tnel durante um ms de trfego
normal, sabendo-se que a distribuio de Poisson.
Resp: 0,0017
10. Suponha que a varivel aleatria X tem uma distribuio de chi-quadrado, com
10 graus de liberdade. Se pedirmos para determinar dois nmeros a e b, tais que
P(a < x < b) = 0, 85, por exemplo, deveremos compreender que existem muitos
Variveis Aleatrias 67
pares dessa espcie. Determine dois diferentes conjuntos de valores (a, b) que sa-
tisfaam condio acima. Suponha que, em aditamento ao acima, se exija que
P(X < a) = P(X > b).
Resp: a = 4, 45 e b = 16, 97
11. A fdp de uma varivel aleatria X f
X
(x). Uma varivel aleatria Y denida
como Y = aX +b, a < 0. Determine a fdp de Y em termos da fdp de X.
Resp: f
Y
(y) =
1
a
f
X
_
y b
a
_
, a < 0
12. Verique quais das funes abaixo podem ser consideradas fdcs. Justique sua
resposta.
a) y =
_
_
_
0 x < 0
x
2
0 x < 1
1 x 1
b) y =
_
1 e
2x
x 0
0 x < 0
c) y =
_
2x x 0
0 x < 0
Resp: Apenas o item c) no pode ser fdc.
13. A fdc conjunta de duas variveis aleatrias X e Y dada por
F
XY
(x, y) =
_
(1 e
x)
(1 e
y)
x 0, y 0
0 caso contrrio
(a) Encontre as fdcs marginais.
(b) Encontre as probabilidades dos eventos
i) A = {X 1, Y 1}
ii) B = {X > x, Y > y}, x > 0, y > 0
Dica: use a lei de De Morgan
Resp:
(a) F
X
(x) =
_
1 e
x
, x 0
0, caso contrrio
F
Y
(y) =
_
1 e
y
, y 0
0, caso contrrio
(b) i. P[X 1, Y 1] = (1 e

)(1 e

)
ii. P[X > x, Y > y] = e
x
e
y
14. Uma varivel aleatria X tem funo densidade de probabilidade dada por
f
X
(x) =
c
x
2
+ 1
, < X <
(a) Determine o valor da constante c.
(b) Calcule a probabilidade do evento [1/3 X
2
1].
(c) Determine a funo distribuio de probabilidade de X.
68 Variveis Aleatrias
Resp:
(a) c = 1/
(b) P[1/3 X
2
1] = 1/6
(c) F
X
(x) =
1
2
+
1

arctg(x)
15. Seja a varivel aleatria X com funo densidade de probabilidade dada por
f
X
(x) =
_
6x(1 x), 0 < x < 1
0, caso contrrio
Determine uma funo Y = h(X) que tenha a funo densidade de probabilidade
f
Y
(y) =
_
12y
3
(1 y
2
), 0 < y < 1
0, caso contrrio
Dica: Admita que a funo incgnita h seja tal que os intervalos X x e Y y
se correspondam biunvoca e continuamente, de forma que P[X x] = P[Y y],
ou seja F
X
(x) = F
Y
(y).
Resp: Y =

X
16. Assuma que duas variveis aleatrias X e Y tm funo densidade de probabili-
dade conjunta dada por
f
XY
(x, y) =
1
2
exp
_

1
2
(x
2
+y
2
)
_
Sejam duas outras variveis aleatrias U e W denidas da seguinte maneira:
U

= 3X + 5Y W

= X + 2Y
Detemine a funo densidade de probabilidade conjunta de U e W.
Resp: F
UW
(u, w) =
1
2
e

1
2
(5U
2
26UW+34W
2
)
17. Seja uma v.a. com fdp dada por
f
X
(x) = ke
|x|
, > 0, < x <
onde k uma constante.
(a) Calcule o valor de k.
(b) Encontre a funo distribuio cumulativa de X.
(c) Calcule P[1 X 2] usando a fdp, para = 1.
(d) Calcule P[1 X 2] usando a fdc, para = 1.
Resp:
Variveis Aleatrias 69
(a) k =

2
(b) F
X
(x) =
_

_
1
2
e
x
, x < 0
1
1
2
e
x
, x 0
(c) E[X] = 0, Var[X] =
2

2
(d)
1
2
(e
1
e
2
) 0, 1163
(e)
1
2
(e
1
e
2
) 0, 1163
18. A probabilidade de uma chamada telefnica no durar mais do que t minutos
geralmente descrita por uma fdc exponencial
F
T
(t) =
_
1 e
t/3
t 0
0 caso contrrio
Qual a fdp da durao em minutos de uma conversa telefnica? Qual a
probabilidade de uma conversao durar entre 2 e 4 minutos?
Resp:
(a) f
T
(t) =
_
_
_
1
3
e
t/3
, t 0
0, caso contrrio
(b) P[2 t 4] = e
2/3
e
4/3
0, 25
19. Expresse os valores extremos das fdcs conjuntas F
XY
(x, y) por nmeros ou em
termos das fdcs F
X
(x) e F
Y
(y).
(a) F
XY
(, 2) (b) F
XY
(, )
(c) F
XY
(, y) (d) F
XY
(, )
Resp: a) 0 b) 1 c) F
Y
(y) d) 0
20. Considere as variveis aleatrias X e Y com fdp conjunta
f
XY
(x, y) =
_
4xy 0 x 1, 0 y 1
0 caso contrrio
X e Y so independentes?
Resp: sim
21. Sejam X e Y duas v.a.s com fdp conjunta dada por
f
XY
(x, y) =
_
A(x +y), 0 x 1, 0 y 1
0, caso contrrio
70 Variveis Aleatrias
(a) Calcule o valor de A.
(b) Calcule as fdps marginais.
(c) X e Y so independentes?
Resp:
(a) A = 1
(b) f
X
(x) = x + 1/2
f
Y
(y) = y + 1/2
(c) no
22. Que distribuio de probabilidade voc pode utilizar para modelar as seguintes
situaes?
(a) Nmero de toques entre erros de digitao, dado que cada toque tem uma
certa probabilidade de estar com erro;
(b) Nmero de toques com erro dentre m toques, dado que cada toque tem uma
certa probabilidade de estar com erro;
(c) Tempo entre chegadas sucessivas, dado que as chegadas so sem memria;
(d) Tempo de servio de um dispositivo que consiste de m servidores sem me-
mria, em srie.
Resp: (a) Geomtrica (b) Binomial (c) Exponencial (d) m-Erlang
23. Uma fonte binria gera dgitos 0 e 1 de forma aleatria com probabilidades 0,6 e
0,4, respectivamente.
(a) Qual a probabilidade de que ocorram dois 1s e trs 0s em uma sequncia
de cinco dgitos?
(b) Qual a probabilidade de ocorrerem pelo menos trs 1s em uma sequncia de
cinco dgitos?
Resp: (a) 0,3456 (b) 0,31744
24. Seja Y = e
X
. Encontre a fdp de Y se X = N(,
2
).
Resp: f
Y
(y) =
_
_
_
1

2y
e

(ln(y))
2
2
2
y > 0
0 caso contrrio
25. A funo densidade de probabilidade conjunta de duas variveis aleatrias X e Y
dada por
f
XY
(x, y) = Asen(x +y), 0 x /2, 0 y /2
Determine:
(a) A constante A.
Variveis Aleatrias 71
(b) A funo distribuio de probabilidade conjunta F
XY
(x, y)
(c) As funes distribuies de probabilidade marginais F
X
(x) e F
Y
(y).
(d) A probabilidade do evento

6
X

4
.
Resp:
(a) A = 0, 5
(b) F
XY
(x, y) = 0, 5 [sen(x) + sen(y) sen(x +y)]
(c) F
X
(x) = 0, 5 [1 cos(x) + sen(x)] F
Y
(y) = 0, 5 [1 cos(y) + sen(y)]
(d) 0,18
26. Uma companhia area sabe que 5% das pessoas que fazem reservas em um deter-
minado vo no comparecem para o embarque. Consequentemente, sua poltica
vender 52 passagens para um vo que pode transportar at 50 passageiros. Qual
a probabilidade de haver assentos disponveis para todos os passageiros que com-
parecerem ao embarque?
Resp: 0,7405
27. Suponha que um sinal x(t) alimenta um dispositiva cuja sada seja y(t). Se X tem
distribuio uniforme no intervalo (0, 2) e y = ln(x), calcule f
Y
(y) e F
Y
(y). Faa
os esboos das curvas pertinentes, indicando valores em alguns pontos notveis
(onde a funo corta os eixos ou muda abruptamente).
Resp:
f
Y
(y) =
_
_
_
e
y
2
, < y < ln(2)
0, y ln(2)
F
Y
(y) =
_
_
_
e
y
2
, < y < ln(2)
1, y ln(2)
28. Sabe-se que a distncia (em metros) do ponto de aterrissagem de um paraquedista
em relao ao centro da rea alvo opde ser modelada como uma varivel aleatria
contnua X com distribuio de Rayleigh de parmetro
2
= 100.
(a) Encontre a probabilidade de o paraquedista aterrisar dentro de um raio de
10m do centro da rea alvo.
(b) Encontre o raio r tal que a probabilidade do evento {X > r} seja e
1
.
Resp:
(a)
(b)
29. Uma fonte gera um sinal de rudo com distribuio gaussiana de mdia zero e
potncia 2 W. Encontre a probabilidade de a amplitude do sinal exceder 5 volts.
Resp: Q(5/

2) 2, 0563 10
4
30. Repita o problema anterior, se a potncia for de 1 W.
Resp: Q(5) 2, 89 10
7
Captulo 3
Mdias Estatsticas de Variveis
Aleatrias
3.1 Mdias
O conceito de mdias assume uma posio extremamente importante em processos alea-
trios. Como mencionado anteriormente, os processos aleatrios so caracterizados pela
regularidade estatstica. Usando o termo regularidade estatstica indicamos que o
processo no pode ser predito especicamente, mas pode ser predito em uma base m-
dia. Por exemplo, no experimento de jogar moedas no possvel prever o resultado de
uma jogada particular, mas em mdia, podemos conar que metade das jogadas iro
ser caras, e a outra metade, coroas, dado que esta mdia seja feita sobre um nmero
sucientemente grande de jogadas.
3.1.1 Mdia de uma Varivel Aleatria
Considere uma v.a. X que pode assumir n valores x
1
, x
2
, . . . , x
n
. Suponha que o expe-
rimento (representado por X) foi repetido N vezes (N ) e sejam m
1
, m
2
, . . . , m
n
o nmero de tentativas favorveis aos resultados x
1
, x
2
, . . . , x
n
, respectivamente. Ento
o valor mdio de X dado por
E[X] =
1
N
(m
1
x
1
+m
2
x
2
+ +m
n
x
n
) =
m
1
N
x
1
+
m
2
N
x
2
+ +
m
n
N
x
n
(3.1)
No limite quando N , a razo m
i
/N tende a f
X
(x
i
) de acordo com a denio
por frequncia relativa de probabilidade. Portanto
E[X] =
n

i=1
x
i
p
X
(x
i
) (3.2)
O valor mdio tambm chamado de valor esperado da v.a. X.
Mdias Estatsticas de Variveis Aleatrias 73
Denio 3.1. A mdia ou valor esperado de uma v.a. discreta dado por
E[X] =
n

i=1
x
i
p
X
(x
i
) (3.3)
Se X uma v.a. contnua, o valor mdio dado por
E[X] =
_
+

xf
X
(x)dx (3.4)
Exemplo 3.1. Uma fdp gaussiana geral dada por
f
X
(x) =
1

2
e

(xm)
2
2
2
Encontre o valor mdio de X.
Soluo. Na Figura 3.1 tem-se um esboo de f
X
(x). Para esta distribuio, temos
E[X] =
1

2
_
+

xe

(xm)
2
2
2
dx
Fazendo X = Y +m, podemos reescrever a equao acima como
E[X] =
1

2
_
+

(y +m)e

y
2
2
2
dy =
1

2
__
+

ye

y
2
2
2
dy +m
_
+

y
2
2
2
dy
_
O integrando da primeira integral uma funo mpar de y, e por isso, o resultado
zero. O da segunda integral uma funo par de y, de modo que podemos reescrever
a equao acima como
E[X] =
1

2
2m
_
+
0
e

y
2
2
2
dy =
1

2
2m
1
2

2
2
= m
m x
f
X
(x)
1

2
2
-
6
.................................................................................................................................................................................................................................................................................................................
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
............. ............. ............. ............. ............. ............. ............. ............. .............
.............
.............
.............
.............
.............
.............
.............
.............
Figura 3.1: Funo densidade de probabilidade gaussiana com mdia m e varincia
2
.
74 Mdias Estatsticas de Variveis Aleatrias
3.1.2 Mdia de uma Funo de uma Varivel Aleatria
Frequentemente desejamos encontrar a mdia de uma funo de uma v.a. ao invs da
mdia da prpria v.a. Como um exemplo simples disso, analisemos o caso de um sinal
de rudo cuja amplitude representada por uma v.a. X. Na prtica estamos mais
interessados no valor quadrtico mdio do sinal do que no valor mdio deste.
De forma geral, desejamos obter a expresso do valor mdio de uma v.a. Y a qual
por sua vez uma funo da v.a. X
Y = g(X) (3.5)
Teorema 3.1. Sejam duas v.a.s X e Y relacionadas por Y = g(X). Ento o valor
mdio de Y dado por
E[Y ] =
_
+

yf
Y
(y)dy =
_
+

g(X)f
X
(x)dx (3.6)
Demonstrao. Considere o grco da Figura 3.2, onde aparece um esboo da curva de
X contra Y = g(X)
X
y
Y
y +dy
dy
x
1
x
2 x
3
dx
1 dx
2
dx
3
Figura 3.2: Y = g(X).
Da gura, podemos ver que y = g(x
1
) = g(x
2
) = g(x
3
), ento podemos escrever
f
Y
(y)dy = f
X
(x
1
)dx
1
+f
X
(x
2
)dx
2
+f
X
(x
3
)dx
3
(3.7)
Multiplicando ambos os lados da equao por y, obtemos
yf
Y
(y)dy = g(x
1
)f
X
(x
1
)dx
1
+g(x
2
)f
X
(x
2
)dx
2
+g(x
3
)f
X
(x
3
)dx
3
(3.8)
Ento para cada diferencial em (3.8) correspondem um ou mais diferenciais em (3.6).
medida que dy cobre o eixo y, os dxs correspondentes so no sobrepostos e cobrem
todo o eixo x. Desta forma, as integrais em (3.8) e (3.6) so iguais, e a prova est
completa.
Mdias Estatsticas de Variveis Aleatrias 75
Teorema 3.2. Se X uma v.a. discreta, (3.6) pode ser reescrita como
E[Y ] =

i
g(x
i
)P[X = x
i
] =

i
g(x
i
)p
X
(x
i
) (3.9)
Exemplo 3.2. Encontrar o valor quadrtico mdio da distribuio gaussiana do Exem-
plo 3.1.
Soluo. Temos que Y = g(X) = X
2
. Ento
E[Y ] =
1

2
_
+

x
2
e

(xm)
2
2
2
dx
Fazendo u = x m, reescrevemos a equao acima como
E[Y ] =
1

2
_
+

(u +m)
2
e

u
2
2
2
du
Resolvendo as trs integrais acima, chega-se a (resolver)
E[Y ] = E[X
2
] =
2
+m
2
3.1.3 Mdias para Variveis Mltiplas
Seja Z uma v.a. que funo de duas v.a.s X e Y
Z = g(X, Y ) (3.10)
Ento
E[Z] =
_
+

zf
Z
(z)dz (3.11)
Podemos calcular E[Z] a partir de (3.11) e do conhecimento da densidade conjunta
f
XY
(x, y). Entretanto, podemos determinar E[Z] diretamente a partir da densidade
conjunta f
XY
(x, y) usando o seguinte teorema
Teorema 3.3. Sejam duas v.a.s X e Y com fdp conjunta f
XY
(x, y), e a v.a. Z
denida por Z = g(X, Y ). Ento o valor mdio de Z dado por
E[Z] =
_
+

_
+

g(X, Y )f
XY
(x, y)dxdy (3.12)
Demonstrao. A prova desta relao similar da equao (3.9). Se a varivel Z est
no intervalo [z, z+z], ento as variveis X e Y esto na regio limitada por [x, x+x]
e [y, y + y]. A rea desta regio obviamente xy. Segue tambm que
76 Mdias Estatsticas de Variveis Aleatrias
f
Z
(z)z = f
XY
(x, y)xy (3.13)
Integrando ambos os lados de (3.13), chegamos equao (3.12).
Teorema 3.4. Para v.a.s discretas, (3.12) pode ser reescrita como
E[Z] =

j
g(x
i
, y
j
)p
XY
(x
i
, y
j
) (3.14)
Podemos estender facilmente a equao (3.12) para o caso de uma funo de n v.a.s:
Corolrio 3.5. Seja Z uma v.a. que funo de n v.a.s X
1
, . . . , X
n
:
Z = g(X
1
, . . . , X
n
)
Ento a mdia de Z dada por
E[Z] =
_
+


_
+

g(X
1
, . . . , X
n
)f
X
1
,...,Xn
(x
1
, . . . , x
n
)dx
1
. . . dx
n
(3.15)
Se algumas das v.a.s so discretas, a equao (3.15) ainda vlida desde que a
distribuio discreta considerada um caso limite da distribuio contnua atravs do
uso da funo impulso.
3.1.4 Mdia da Soma de Funes
Teorema 3.6. Se g
1
(X, Y ), . . . , g
n
(X, Y ) so funes de X e Y ento
E[g
1
(X, Y ) + +g
n
(X, Y )] = E[g
1
(X, Y )] + +E[g
n
(X, Y )] (3.16)
A prova trivial e segue diretamente da denio das mdias. Ento a mdia da
soma igual soma das mdias. Alguns exemplos simples disto so
E[X +Y ] = E[X] +E[Y ] (3.17)
E[X
2
+Y
2
] = E[X
2
] +E[Y
2
] (3.18)
Estes resultados podem ser estendidos a funes de qualquer nmero de v.a.s.
Mdias Estatsticas de Variveis Aleatrias 77
3.1.5 Mdia do Produto de Duas Variveis Aleatrias Independentes
Teorema 3.7. Para v.a.s independentes a mdia do produto igual ao produto das
mdias individuais.
Demonstrao. Se Z = XY
E[Z] =
_
+

_
+

xyf
XY
(x, y) dxdy (3.19)
Se X e Y so independentes f
XY
(x, y) = f
X
(x)f
Y
(y), e desta forma podemos es-
crever
E[Z] =
_
+

xf
X
(x) dx
_
+

yf
Y
(y) dy = E[X]E[Y ] (3.20)
Ento, se X e Y so v.a.s independentes
E[XY ] = E[X]E[Y ] (3.21)
Este resultado pode ser estendido a qualquer nmero de variveis. Na verdade, a
equao (3.21) um caso especial de um resultado mais geral:
Teorema 3.8. Se X e Y so independentes, ento para Z = g
1
(X) g
2
(Y ) temos que
E[Z] = E[g
1
(X)]E[g
2
(Y )] (3.22)
Em outras palavras
E[g
1
(X)g
2
(Y )] = E[g
1
(X)]E[g
2
(Y )] (3.23)
3.1.6 Mdia Quadrtica da Soma de Duas Variveis Aleatrias
O valor quadrtico mdio de Z = X +Y dado por
E[Z
2
] = E[(X +Y )
2
] =
_
+

_
+

(x +y)
2
f
XY
(x, y) dxdy
=
_
+

_
+

x
2
f
XY
(x, y) dxdy +
_
+

_
+

y
2
f
XY
(x, y) dxdy
+2
_
+

_
+

xyf
XY
(x, y) dxdy
(3.24)
78 Mdias Estatsticas de Variveis Aleatrias
Se as v.a.s X e Y so independentes, ento
_
+

_
+

x
2
f
XY
(x, y) dxdy =
_
+

x
2
f
X
(x) dx
_
+

f
Y
(y) dy =
=
_
+

x
2
f
X
(x) dx = E[X
2
]
Similarmente
_
+

_
+

y
2
f
XY
(x, y) dxdy =
_
+

f
X
(x) dx
_
+

y
2
f
Y
(y) dy =
=
_
+

y
2
f
Y
(y) dy = E[Y
2
]
E usando (3.21), podemos escrever
_
+

_
+

xyf
XY
(x, y) dxdy = E[XY ] = E[X]E[Y ]
Portanto, para as v.a.s independentes X e Y temos
E[(X +Y )
2
] = E[X
2
] +E[Y
2
] + 2E[X]E[Y ] (3.25)
Se E[X] ou E[Y ] ou ambos forem zero, ento temos
E[(X +Y )
2
] = E[X
2
] +E[Y
2
] (3.26)
3.1.7 Mdia condicional
Denio 3.2. A mdia condicional (ou valor esperado condicional) de uma
v.a. X dado que outra v.a. Y = y denotada por E[X|Y = y] e denida como
E[X|Y = y] =
_
+

xf
X
(x|Y = y) dx (3.27)
Isto segue da denio bsica da mdia.
3.2 Momentos
3.2.1 N-simo momento
Denio 3.3. O n-simo momento de uma v.a. X denido como o valor
esperado da n-sima potncia de X.
E[X
n
] =
_
+

x
n
f
X
(x) dx (3.28)
Mdias Estatsticas de Variveis Aleatrias 79
3.2.2 Momentos Centrais
Denio 3.4. O n-simo momento central da v.a. X seu momento ao redor
de seu valor mdio E[X], e dado por
E[(X E[X])
n
] =
_
+

(x E[X])
n
f
X
(x) dx (3.29)
3.2.3 Varincia
Denio 3.5. O segundo momento central sobre a mdia chamado de varincia
e denotado por
2
X
.

2
X
= E
_
(X E[X])
2

(3.30)
Das expresses da seo 3.1.4, segue que

2
X
= E[X
2
] 2E[X]E[X] +E[E
2
[X]] = E[X
2
] 2E
2
[X] +E
2
[X] = E[X
2
] E
2
[X]
(3.31)
Ento a varincia de uma v.a. igual sua mdia quadrtica menos o quadrado de
sua mdia.
Exemplo 3.3. Encontre a varincia
2
X
de uma varivel aleatria X com distribuio
gaussiana.
Soluo. No Exemplo 3.1 vimos que E[X] = m, e no Exemplo 3.2, foi mostrado que
E[X
2
] =
2
+m
2
.
Desta forma, pela equao (3.31) temos que
2
X
=
2
+m
2
m
2
=
2
.
A varincia tem uma grande importncia principalmente na anlise de sinais, pois
est intimamente ligada potncia dos mesmos (na verdade, ela corresponde potncia
de um sinal de mdia nula). Nos teoremas a seguir so derivadas algumas propriedades
importantes da varincia.
Teorema 3.9. Se X sempre toma o valor a, ento Var[A] = 0.
Demonstrao. Desde que X sempre toma o valor a, P[X = a] = 1. Neste caso,
E[X] = a, e Var[X] = (a a)
2
P[X = a] = 0.
80 Mdias Estatsticas de Variveis Aleatrias
Este teorema diz que a varincia de X zero quando X determinstica.
Teorema 3.10. Se Y = X +b, ento Var[Y ] = Var[X].
Demonstrao. Dada a varivel aleatria X, E[Y ] = E[X]+b, e desta forma, a varincia
de Y dada por
Var[Y ] = E
_
((X +b) (E[X] +b))
2

= E
_
(X E[X])
2

= Var[X]
Ou seja, o deslocamento da varivel aleatria X de uma constante no muda a sua
varincia.
Teorema 3.11. Se Y = aX, ento Var[Y ] = a
2
Var[X].
Demonstrao. Desde que E[Y ] = aE[X], temos
Var[Y ] = E
_
(aX aE[X])
2

= E
_
a
2
(X E[X])
2

= a
2
Var[X].
3.2.4 Caso Multidimensional
Denio 3.6. Sejam duas v.a.s X
1
e X
2
com fdp conjunta f
X
1
X
2
(x
1
, x
2
). O mo-
mento conjunto denido como
E
_
X
k
1
X
n
2
_
=
_
+

_
+

x
k
1
x
n
2
f
X
1
X
2
(x
1
, x
2
) dx
1
dx
2
(3.32)
Denio 3.7. Sejam duas v.a.s X
1
e X
2
com fdp conjunta f
X
1
X
2
(x
1
, x
2
). O mo-
mento central conjunto denido como
E
_
(X
1
m
1
)
k
(X
2
m
2
)
n
_
=
_
+

_
+

(x
1
m
1
)
k
(x
2
m
2
)
n
f
X
1
X
2
(x
1
, x
2
) dx
1
dx
2
(3.33)
onde m
i
= E[X
i
].
Mdias Estatsticas de Variveis Aleatrias 81
Uma propriedade bastante til quando lidamos com distribuies bidimensionais
a desigualdade de Cauchy-Schwarz, que apresentada a seguir
Teorema 3.12. Desigualdade de Cauchy-Schwarz. Sejam X e Y duas variveis
aleatrias. Ento
[E(XY )]
2
E
_
X
2

E
_
Y
2

(3.34)
Demonstrao. Considere a expresso E
_
(X Y )
2

para duas variveis aleatrias X


e Y quaisquer, e uma varivel real . Esta expresso, quando vista como um quadrado
em , sempre no negativa, isto :
E
_
(X Y )
2

0
Expandindo o quadrado, temos
E[X
2
] 2E[XY ] +
2
E[Y
2
] 0
Vamos escolher agora o valor de de modo que o lado esquerdo da equao acima seja
mnimo:
=
E[XY ]
E[Y
2
]
o que resulta na desigualdade
E[X
2
]
[E(X, Y )]
2
E[Y
2
]
0 [E(XY )]
2
E
_
X
2

E
_
Y
2

De particular importncia para ns so os momentos conjuntos e momentos centrais


conjuntos correspondentes a k = n = 1. Estes momentos conjuntos so chamados de
correlao e covarincia das v.a.s X
1
e X
2
, respectivamente, e sero estudados com
mais detalhes adiante.
Para v.a.s multidimensionais podemos denir momentos conjuntos de qualquer or-
dem. Entretanto, os momentos que so mais teis em aplicaes prticas so as correla-
es e covarincias entre pares de v.a.s. Suponha que X
i
, i = 1, 2, . . . , n so v.a.s com
fdp conjunta f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
). Seja f
X
i
X
j
(x
i
, x
j
) a fdp conjunta das v.a.s X
i
e X
j
.
Denio 3.8. A correlao entre duas variveis aleatrias X
i
e X
j
dada pelo
momento conjunto

ij
= E[X
i
X
j
] =
_
+

_
+

x
i
x
j
f
X
i
X
j
(x
i
, x
j
) dx
i
dx
j
(3.35)
82 Mdias Estatsticas de Variveis Aleatrias
Denio 3.9. A covarincia de duas variveis aleatrias X
i
e X
j
, cujas mdias
so, respectivamente, m
i
e m
j
, dada por
K
ij
= E[(X
i
m
i
)(X
j
m
j
)]
=
_
+

_
+

(x
i
m
i
)(x
j
m
j
)f
X
i
X
j
(x
i
, x
j
) dx
i
dx
j
=
_
+

_
+

x
i
x
j
f
X
i
X
j
(x
i
, x
j
) dx
i
dx
j
m
i
m
j
= E[X
i
X
j
] m
i
m
j
(3.36)
As matrizes n x n com elementos
ij
e
ij
so chamadas respectivamente de matriz
de correlao e matriz de covarincia das v.a.s X
i
, i = 1, 2, . . . , n.
3.2.5 Variveis Aleatrias Descorrelacionadas e Ortogonais
Denio 3.10. Duas v.a.s X
i
e X
j
so ditas descorrelacionadas se
E[X
i
X
j
] = E[X
i
]E[X
j
] = m
i
m
j
Neste caso, a covarincia K
ij
= 0. Note que quando X
i
e X
j
so estatisticamente
independentes, tambm so descorrelacionadas. Entretanto, se X
i
e X
j
so descorrela-
cionadas, no so necessariamente estatisticamente independentes.
Denio 3.11. Duas v.a.s X
i
e X
j
so ditas ortogonais se E[X
i
X
j
] = 0.
Esta condio acontece quando X
i
e X
j
so descorrelacionadas e uma ou ambas as
v.a.s tem mdia zero.
Mdias Estatsticas de Variveis Aleatrias 83
3.3 Funes Caractersticas
Denio 3.12. A funo caracterstica de uma v.a. X denida como a mdia
estatstica
(j) E[e
jX
] =
_
+

e
jx
f
X
(x) dx (3.37)
onde a varivel real e j =

1 a constante imaginria.
(j) pode ser vista como a transformada de Fourier da fdp f
X
(x). Assim, a
transformada inversa de Fourier dada por
f
X
(x) =
1
2
_
+

(j)e
jx
d (3.38)
Uma propriedade til da funo caracterstica sua relao com os momentos da
v.a. O seguinte teorema relaciona estas duas grandezas:
Teorema 3.13. Sejam uma varivel aleatria X e sua correspondente funo carac-
terstica (j). Ento
E[X
n
] = (j)
n
d
n
(j)
d
n

=0
(3.39)
Demonstrao. A derivada primeira de (j) em relao a leva a
d(j)
d
= j
_
+

xe
jx
f
X
(x) dx (3.40)
Avaliando a expresso acima em = 0, obtemos o primeiro momento (mdia)
E[X] = m
X
= j
d(j)
d

=0
(3.41)
O processo de diferenciao pode ser repetido, de modo que a n-sima derivada de
(j) avaliada em = 0 leva ao n-simo momento
E[X
n
] = (j)
n
d
n
(j)
d
n

=0
(3.42)
Ento os momentos de uma v.a. podem ser determinados a partir da funo carac-
terstica. Por outro lado suponha que a funo caracterstica possa ser expandida em
uma srie de Taylor sobre o ponto = 0, isto
84 Mdias Estatsticas de Variveis Aleatrias
(j) =

n=0
_
d
n
(j)
d
n
_
=0

n
n!
(3.43)
Usando a relao em (3.42) para eliminar a derivada em (3.43), obtemos uma ex-
presso para a funo caracterstica em termos de seus momentos na forma
(j) =

n=0
E[X
n
]
(j)
n
n!
(3.44)
A funo caracterstica fornece um meio simples de determinar a fdp da soma de
v.a.s estatisticamente independentes:
Teorema 3.14. Seja X
i
, i = 1, 2, . . . , x
n
um conjunto de n v.a.s estatisticamente
independentes e seja
Y =
n

i=1
X
i
Ento a funo caracterstica de Y dada por

Y
(j) =
n

i=1

X
i
(j)
Demonstrao. O problema consiste em determinar a fdp de Y . Iremos fazer isto encon-
trando primeiro a sua funo caracterstica a ento calculando a transformada inversa
de Fourier.

Y
(j) = E
_
e
jY

= E
_
exp
_
j
n

i=1
X
i
__
= E
_
n

i=1
_
e
jX
i
_
_
(3.45)
Desde que as v.a.s so estatisticamente independentes,
f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
) = f
X
1
(x
1
)f
X
2
(x
2
) f
Xn
(x
n
)
e desta forma a integral mltipla da equao acima pode ser fatorada em n integrais
simples, cada uma correspondendo funo caracterstica de um dos X
i
. Portanto

Y
(j) =
n

i=1

X
i
(j) (3.46)
Mdias Estatsticas de Variveis Aleatrias 85
Corolrio 3.15. Se alm de independentes, as v.a.s X
i
forem identicamente distri-
budas, as
X
i
(j) so idnticas, e a expresso acima reduz-se a

Y
(j) = [
X
i
(j)]
n
(3.47)
Observaes:
A fdp de Y pode ser determinada a partir da transformada inversa de Fourier de

Y
(j), dada pela equao (3.38).
Desde que a funo caracterstica da soma de n v.a.s estatisticamente inde-
pendentes igual ao produto das funes caractersticas das v.a.s individuais
X
i
, i = 1, 2, . . . , n, segue que no domnio da transformada, a fdp de Y a convo-
luo das fdps de X
i
. Geralmente a convoluo mais difcil de calcular do que
o mtodo da funo caracterstica descrito acima para determinar a fdp de Y .
3.3.1 Caso multidimensional
Para lidar com v.a.s n-dimensionais, conveniente denir uma transformada de Fourier
n-dimensional da fdp conjunta.
Denio 3.13. Se X
i
, i = 1, 2, . . . , n so v.a.s com fdp f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
),
a funo caracterstica n-dimensional denida como
(j
1
, j
2
, . . . , j
n
) = E
_
exp
_
j
n

i=1

i
X
i
__
=
_
+


_
+

exp
_
j
n

i=1

i
X
i
_
f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
) dx
1
dx
2
. . . dx
n
(3.48)
De especial interesse a funo caracterstica bi-dimensional
(j
1
, j
2
) =
_
+

_
+

e
j(
1
X
1
+
2
X
2
)
f
X
1
X
2
(x
1
, x
2
) dx
1
dx
2
(3.49)
Observe que as derivadas parciais de (j
1
, j
2
) em relao a
1
e a
2
podem ser
utilizadas para gerar os momentos conjuntos. Por exemplo, fcil mostrar que
E[X
1
, X
2
] =

2
(j
1
, j
2
)

1
=
2
=0
(3.50)
86 Mdias Estatsticas de Variveis Aleatrias
3.4 Exerccios
1. Se F
X
() a transformada de Fourier de uma funo densidade de probabilidade
f
X
(x) e m
n
representa o n-simo momento da v.a. X,
m
n
=
_
+

x
n
f
X
(x) dx
Ento mostre que
(a)
m
n
= (j)
n
d
n
F
X
()
d
n

=0
(b) se F
X
() expandida em srie de Taylor, ento
F
X
() = m
0
jm
1

m
2

2
2!
+j
m
3

3
3!
+ =

n=0
(j)
n
m
n
_

n
n!
_
2. Use os resultados do problema anterior para determinar o valor mdio e o valor
quadrtico mdio de
(a) um sinal gaussiano;
(b) um sinal com f
X
(x) = xe
x
u(x)
Dica: encontre F
X
() e expanda em sries de potncias como no problema ante-
rior. O segundo e terceiro coecientes representam os valores mdios e quadrtico
mdio, respectivamente.
Resp:
(a) E[X] = m E[X
2
] =
2
+m
2
(b) E[X] = 2 E[X
2
] = 6
3. Seja X uma v.a. com mdia e desvio padro > 0, e seja X

a v.a. padronizada
correspondente de X, isto X

= (X)/. Mostre que E[X

] = 0 e Var[X

] =
1. (Logo
X
= 1).
4. Encontre o n-simo momento de X, se X uma v.a. uniformemente distribuda
no intervalo [a, b].
Resp: E[X
n
] =
b
n+1
a
n+1
(b a)(n + 1)
5. Encontre a mdia e a varincia de uma v.a. gaussiana aplicando o teorema dos
momentos sobre a funo caracterstica.
6. Dado que
m =
_

xf
x
(x)dx E[X
2
] =
_

x
2
f
x
(x)dx
2
X
=
_

(x m)
2
f
x
(x)dx
Mostre que
2
X
= E[X
2
] m
2
Mdias Estatsticas de Variveis Aleatrias 87
7. Encontre a funo caracterstica de uma varivel aleatria X com distribuio de
Cauchy, cuja funo densidade de probabilidade dada por
f
X
(x) =
a
(x
2
+a
2
)
, < x <
Resp: (j) = e
a
8. Seja Y = a cos(t +) onde a, , e t so constantes, e uma varivel aleatria
com distribuio uniforme no intervalo (0, 2). A varivel aleatria Y resulta na
amostragem da amplitude de uma senide com fase aleatria . Encontre E[Y] e
E[Y
2
].
Resp: E[Y ] = 0 E[Y
2
] =
a
2
2
9. Mostre que o primeiro e segundo momentos de uma varivel aleatria com distri-
buio
2
n
so respectivamente n e (n
2
+ 2n), aplicando o teorema dos momentos
sobre a funo caracterstica.
A fdp de uma distribuio
2
n
dada pela expresso
f
Y
(y) =
1
2
n
2
(
n
2
)
y
(
n
2
1)
e

y
2
, y 0
onde (p) a funo gama, denida por
(p) =
_

0
t
p1
e
t
dt, p > 0
(p + 1) = p (p)
Dica: faa u = y/2
10. Determine os momentos de uma varivel aleatria X com distribuio N(0, 1).
Resp: E[X
n
] =
_
0 n = 1, 3, 5, 7, . . .
1 3 5 (n 1) n = 2, 4, 6, 8, . . .
11. Dada uma varivel aleatria discreta que assume dois valores 0 e 1 com proba-
bilidades p e q, respectivamente, prove que
2

0, 25. Encontre o valor para o


qual
2

= 0, 25.
Resp: q = 0, 5
12. Sabe-se que para uma varivel aleatria X positiva, o segundo e o quarto momen-
tos so dados por 2
2
e 8
4
, respectivamente. Se Y = X
2
, determine a mdia e
a varincia de Y .
Resp: E[Y ] = 2
2
Var[Y ] = 4
4
.
13. Se uma varivel aleatria X tem fmp dada por
88 Mdias Estatsticas de Variveis Aleatrias
p
X
(x
k
) =
_

_
0, 5 x = 1
0, 5 x = +1
0 caso contrrio
mostre que a funo caracterstica de X dada por cos().
14. Demonstre a consistncia da denio da funo caracterstica. Faa as suposies
necessrias para a demonstrao.
Dica: unicidade das transformadas, funo impulso, e propriedade de desloca-
mento no domnio do tempo
15. Seja a mdia de uma varivel aleatria X. Mostre que se
_

f
X
(x) dx =
_

f
X
(x) dx
ento F
X
() = 1/2.
16. Seja (X, Y ) uma v.a. bidimensional com fdp conjunta
f
XY
(x, y) =
x
2
+y
2
4
e
(x
2
+y
2
)/2
, < x < , < y <
Mostre que X e Y so descorrelacionadas mas no independentes.
17. Seja X uma varivel aleatria N(0,
2
).
(a) Calcule f
X
(x|X > 0)
(b) Calcule E[X|X > 0]
(c) Calcule V ar[X|X > 0]
Resp:
(a) f
X
(x|X > 0) =
_
_
_
0 x < 0
2
1

2
e

x
2
2
2
x 0
(b)
_
2

(c)
2
_
1
2

_
0, 363
2
18. Suponha que a fmp conjunta de uma varivel aleatria bidimensional (X, Y ) seja
dada por
p
XY
(x, y) =
_
1/3 (0, 1), (1, 0), (2, 1)
0 caso contrrio
Mdias Estatsticas de Variveis Aleatrias 89
(a) Encontre as fmps marginais.
(b) X e Y so independentes?
(c) X e Y so descorrelacionadas?
Resp:
(a) p
X
(x) =
_
1/3 x = 0, 1, 2
0 caso contrrio
p
Y
(y) =
_

_
1/3 x = 0
2/3 x = 1
0 caso contrrio
(b) no
(c) sim
Captulo 4
Mtodos computacionais para
gerao de nmeros aleatrios
4.1 Introduo
Em simulaes de sistemas reais s vezes nos deparamos com a necessidade de gerar
nmeros aleatrios segundo alguma distribuio para testar nossas idias. Por exemplo,
se queremos simular um canal de comunicao ruidoso, devemos gerar nmeros aleat-
rios segundo uma distribuio gaussiana de mdia zero e varincia igual potncia do
rudo de canal. Por outro lado, se queremos simular o trfego de dados em um determi-
nado servio, devemos gerar nmeros com distribuio exponencial para o tempo entre
chegadas de clientes.
Neste captulo sero apresentados alguns algoritmos computacionais para a gerao
de nmeros de forma aleatria, segundo uma dada distribuio. Inicialmente ser apre-
sentado o algoritmo para a gerao de nmeros com distribuio uniforme entre 0 e 1,
que ir servir de base para os demais algoritmos.
4.2 Mtodo do resduo da potncia
O primeiro problema a ser abordado quando queremos gerar nmeros aleatrios no
intervalo [0, 1] que existem innitos pontos dentro deste intervalo, mas o computador
s pode representar nmeros com preciso nita. Precisamos nos contentar ento em
gerar nmeros de forma equiprovvel dentro de um conjunto limitado, por exemplo
{0, 1, . . . , M1} ou {1, 2, . . . , M}. Dividindo estes nmeros por M, obtemos nmeros no
intervalo unitrio. Podemos gerar distribuies bastante densas se zermos M bastante
grande.
O prximo passo consiste em encontrar um mecanismo para gerar nmeros de forma
aleatria. A forma preferida para gerar nmeros aleatria atravs do computador
atravs de frmulas recursivas que possam ser implementadas de forma fcil e rpida.
No mtodo do resduo da potncia utiliza-se a seguinte frmula:
Z
k
= Z
k1
mod M (4.1)
onde um inteiro entre 0 e M, e M um nmero primo (p) ou uma potncia inteira
de um nmero primo (p
m
).
Mtodos computacionais para gerao de nmeros aleatrios 91
Exemplo 4.1. Encontre as sequncias geradas pela Equao (4.1) para:
1. M = 11, = 7, Z
0
= 1
2. M = 11, = 3, Z
0
= 1
3. M = 2
2
, = 7, Z
0
= 1
Soluo. Usando (4.1), temos:
1. Para M = 11, = 7 e Z
0
= 1, temos:
Z
1
= resto de
7 1
11
= 7
Z
2
= resto de
7 Z
1
11
= resto de
7 7
11
= resto de
49
11
= 5
e assim por diante. A sequncia resultante :
1, 7, 5, 2, 3, 10, 4, 6, 9, 8, 1, 7, 5, 2, 3, 10, 4, 6, 9, 8, 1, 7, 5, 2, 3, 10, 4, 6, 9, 8, . . .
Note que a sequncia passa por todos os inteiros de 1 a 10, e ento passa a se
repetir indenidamente.
2. Para este caso, a sequncia gerada :
1, 3, 9, 5, 4, 1, 3, 9, 5, 4, 1, 3, 9, 5, 4, . . .
Esta sequncia no passa por todos os inteiros de 1 a 0 antes de comear a se
repetir.
3. Para o ltimo caso, a sequncia gerada :
1, 2, 0, 0, 0, . . .
Do Exemplo acima, podemos notar que a escolha de inui diretamente na sequn-
cia gerada: se divisor de M, ento a sequncia gerada pela Equao (4.1) ir
eventualmente ser toda nula; caso contrrio, a sequncia ser peridica com perodo
mximo M 1. Para que a sequncia tenha o mximo comprimento possvel, deve
ser uma raiz primitiva de M, um conceito cujo estudo est fora do escopo deste texto.
Uma coisa a ser notada sobre este algoritmo que as sequncias produzidas pela
Equao (4.1) no so realmente aleatrias, mas sim peridicas. Por esta razo, as
sequncias produzidas por (4.1) so chamadas de pseudo-aleatrias.
Se zermos M grande o suciente, ento os nmeros gerados no iro se repetir
durante uma dada simulao, e a sequncia gerada tem a aparncia de uma sequncia
aleatria.
92 Mtodos computacionais para gerao de nmeros aleatrios
Vrios estudos foram feitos para determinar bons valores para M e . Uma combi-
nao que bastante usada :
Z
i
= 7
5
Z
i1
mod (2
31
1) (4.2)
ou seja, = 7
5
= 16807 e M = 2
31
1. Esta combinao gera sequncias pseudo-
aleatrias de comprimento M 1 = 2
31
1 1 = 2147483646 elementos, o que mais
que suciente para a maioria das aplicaes.
A escolha de Z
0
determina o ponto em que a sequncia ir se iniciar, e por isso, este
parmetro conhecido como a semente do gerador aleatrio.
Nas sees a seguir, iremos descrever algoritmos para gerar sequncias de nmeros
aleatrios com outras distribuies de probabilidade a partir das sequncias geradas
nesta seo.
4.3 Mtodo da transformada
Suponha que U seja uniformemente distribuda no intervalo [0, 1]. Seja F
X
(x) a fdc
de uma varivel aleatria que estamos interessados em gerar. Vamos denir a varivel
aleatria Z = F
1
X
(U); isto , primeiro selecionamos U e depois encontramos Z, como
indicado na Figura 4.1. A fdc da varivel Z encontrada desta maneira dada por:
F
Z
(z) = P[Z x] = P[F
1
X
(U) x] = P[U F
X
(x)]
Mas se U uniformemente distribuda em [0, 1] e 0 h 1, ento P[U h] = h.
Ento:
P[Z x] = F
X
(x)
e Z = F
1
X
(U) tem a fdc desejada.
0
0.2
0.4
0.6
0.8
1.0
............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................ .......................................................................................................................................................................................................................................................................................................................................................................................................................................... ................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.......... ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. .............
F
X
(x)
U
Z = F
1
X
(U)
-
?
Figura 4.1: Mtodo da transformada para gerar uma varivel aleatria com fdc F
X
(x).
Mtodos computacionais para gerao de nmeros aleatrios 93
Mtodo da transformada para gerar X
1. Gere U com distribuio uniforme no intervalo [0, 1].
2. Faa X = F
1
X
(U)
Exemplo 4.2. Determine X para gerar uma sequncia de nmeros aleatrios com
distribuio exponencial de parmetro a partir de uma sequncia de nmeros aleatrios
uniformemente distribudos no intervalo [0, 1].
Soluo. Precisamos inverter a expresso u = F
X
(x) = 1 e
x
. Com isto, obtemos
X =
1

ln(1 U)
Note que podemos usar a expresso mais simples X = ln(U)/, desde que (1U)
tambm uniformemente distribuda no intervalo [0, 1].
Exemplo 4.3. Para gerar uma varivel aleatria com distribuio de Bernoulli de
probabilidade de sucesso p, notamos da Figura 4.2 que
X =
_
0, U p
1, U > p
Em outras palavras, particionamos o intervalo [0, 1] em dois segmentos de compri-
mentos p e 1 p, respectivamente. A sada X determinada pelo intervalo em que U
cair.
-0.5 0 1 0.5 1 1.5
0.2
0.4
0.6
0.8
1.0
......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ..........................................................................................................................................................................................................................................................................................................................................................................................................................................
....................................
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
..
?
6
?
6
X = 0
X = 1
X
U
Figura 4.2: Gerando uma varivel aleatria com distribuio de Bernoulli.
94 Mtodos computacionais para gerao de nmeros aleatrios
Exemplo 4.4. Gere uma varivel aleatria com distribuio binomial de parmetros
n = 5 e p = 1/2.
Soluo. Para gerar uma varivel aleatria com distribuio binomial de parmetros
n = 5 e p = 1/2, poderamos simplesmente gerar cinco variveis aleatrias com distri-
buio de Bernoulli e assumir Y como sendo o nmero total de sucessos.
Alternativamente, podemos usar diretamente o mtodo da transformada, como mos-
trado na Figura 4.3. O intervalo unitrio agora particionado em seis elementos. A
ecincia do algoritmo de partio depende da ordem na qual fazemos a busca. Por
exemplo, se fazemos a busca nos segmentos em ordem (de 0 a 5), sero necessrias em
mdia 3.5 comparaes para cada nmero gerado. Se zermos a busca nos segmentos
em ordem decrescente de probabilidade, ento o nmero mdio de comparaes cai para
2.38.
0 1 2 3 4 5
0.2
0.4
0.6
0.8
1.0
....................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ..........................................................................................................................................................................................................................................................................................................................................................................................................................................
X = 0 X = 1
X = 2
X = 3
X = 4
X = 5
X
U
Figura 4.3: Gerando uma varivel aleatria com distribuio Binomial.
Claramente qualquer varivel aleatria nita discreta pode ser gerada dividindo-
se o intervalo unitrio em subintervalos com comprimentos determinadospela fmp. O
prximo mtodo baseado na fdp ao invs da fdc de Z.
4.4 O mtodo da rejeio
Iremos considerar uma verso simplicada deste algoritmo para explicar porque ele
funciona. Depois o algoritmo ser reapresentado em sua forma geral.
Suponha que estamos interessados em gerar uma varivel aleatria Z com fdp f
X
(x),
como mostrado na Figura 4.4. Em particular, assumimos que:
a fdp no nula somente no intervalo [0, a];
a fdp assume valores no intervalo [0, b].
Mtodos computacionais para gerao de nmeros aleatrios 95
0 a
0
b
........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ..................................................................................................................................................................................................................................................................................... ............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................. ................................................................................................
..............................................................................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x x +dx
f
X
(x)
Aceitar
Rejeitar
Figura 4.4: Mtodo da rejeio para gerar uma varivel aleatria com fdp f
X
(x).
O mtodo da rejeio neste caso funciona da seguinte maneira:
1. Gere X
1
com distribuio uniforme no intervalo [0, a].
2. Gere Y com distribuio uniforme no intervalo [0, b].
3. Se Y f
X
(X
1
), ento Z = X
1
; seno, rejeite X
1
e retorne ao passo 1.
Note que este algoritmo ir realizar um nmero aleatrio de passos antes de produzir
a sada Z.
Iremos mostrar agora que a sada Z tem a fdp desejada: os passos 1 e 2 selecionam
aleatoriamente um ponto em um retngulo de largura a e altura b. A probabilidade
de selecionar um ponto em qualquer regio simplesmente a rea da regio dividida
pela rea total do retngulo, ab. Ento a probabilidade de aceitar X
1
a rea da
regio abaixo de f
X
(x) dividida por ab. Mas a rea sob qualquer fdp 1, de modo
que conclumos que a probabilidade de sucesso 1/(ab). Considere agora a seguinte
probabilidade:
P[{x < X
1
x +dx|X
1
ser aceito }] =
P[{x < X
1
x +dx}, {X
1
ser aceito }]
P[X
1
ser aceito ]
=
rea sombreada/(ab)
1/(ab)
=
f
X
(x) dx/(ab)
1/(ab)
= f
X
(x)dx
Ento, X
1
, quando aceito, tem a fdp desejada, e portanto Z tem a fdp desejada.
O algoritmo acima pode apresentar dois problemas: primeiro, se a diferena entre
o retngulo e a fdp a ser gerada for muito grande, ento o nmero de X
1
s que devem
ser gerados antes da aceitao pode ser excessivamente alto; segundo, este mtodo no
pode ser utilizado se f
X
(x) no limitada, ou se seu contradomnio no limitado.
A verso geral deste algoritmo resolve estes dois problemas: suponha que queremos
gerar X com fdp f
X
(x). Seja W uma varivel aleatria com fdp F
W
(x) que fcil de
gerar, e tal que para alguma constante K > 1,
Kf
W
(x) f
X
(x), x
ou seja, a regio sob Kf
W
(x) contm f
X
(x), como mostrado na Figura 4.5.
96 Mtodos computacionais para gerao de nmeros aleatrios
0 1 2 3
0
0.2
0.4
0.6
0.8
1.0
......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... .................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
..................................................................................................................................................................................
..............................................................................................................................................................................................................................................................
....................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. .......
Aceitar
Rejeitar
f
X
(x)
Kf
W
(x)
Figura 4.5: Mtodo da rejeio para gerar uma varivel aleatria com distribuio gama
(0 < < 1).
Mtodo da rejeio para gerar X
1. Gere X
1
com fdp f
W
(x). Dena B(X
1
) = Kf
W
(X
1
).
2. Gere Y com distribuio uniforme no intervalo [0, B(X
1
)].
3. Se Y f
X
(X
1
), ento X = X
1
; seno, rejeite X
1
e retorne ao passo 1.
Exemplo 4.5. Mostre uma maneira de gerar uma varivel aleatria com distribuio
gama de parmetros 0 < < 1 e = 1, usando o mtodo da rejeio.
Soluo. Uma funo Kf
W
(x) que cobre f
X
(x)
f
X
(x) =
x
1
e
x
()
Kf
W
(x) =
_

_
x
1
()
, 0 x 1
e
x
()
, x > 1
A fdp f
W
(x) que corresponde funo no lado direito
f
W
(x) =
_

_
ex
1
+e
, 0 x 1
e
e
x
+e
, x > 1
A fdc de W
Mtodos computacionais para gerao de nmeros aleatrios 97
F
W
(x) =
_

_
ex

+e
, 0 x 1
1 e
e
x
+e
, x > 1
W pode ser gerada facilmente usando o mtodo da transformao com
F
1
W
(u) =
_

_
_
( +e)u
e
_
1/
, u e/( +e)
ln
_
( +e)
(1 u)
e
_
, u > e/( +e)
Podemos usar o mtodo da transformada para gerar esta f
W
(x), e ento o mtodo
da rejeio para gerar qualquer varivel aleatria com distribuio gama de parmetros
0 < < 1 e = 1. Finalmente, note que se zermos W = X, ento W ter
distribuio gama com parmetros e .
4.5 Gerao de funes de uma varivel aleatria
Se tivermos um mtodo simples para gerar uma varivel aleatria X, podemos gerar
facilmente qualquer varivel aleatria que seja denida por Y = g(x) ou mesmo Z =
h(X
1
, X
2
, . . . , X
n
), onde X
1
, X
2
, . . . , X
n
so n sadas do gerador de nmeros aleatrios.
Exemplo 4.6. Mtodo Box & Muller. Pode-se mostrar que se U
1
e U
2
so variveis
aleatrias independentes e uniformemente distribudas no intervalo unitrio, ento
X = cos(2U
2
)
_
2 ln(U
1
)
2
X
+
X
e
Y = sen(2U
2
)
_
2 ln(U
1
)
2
Y
+
Y
so variveis aleatrias gaussianas de mdias
X
e
Y
varincias
2
X
e
2
Y
, respectiva-
mente. Este resultado pode ento ser utilizado para produzir duas variveis aleatrias
gaussianas a partir de duas variveis aleatrias com distribuio uniforme.
Exemplo 4.7. Seja X
1
, X
2
, . . . , X
m
uma sequncia de variveis aleatrias iid com dis-
tribuio exponencial de parmetro . Iremos mostrar no Captulo 5 que a varivel
aleatria
Y = X
1
+X
2
+ +X
m
tem uma distribuio m-Erlang com parmetro . Podemos ento gerar uma varivel
aleatria m-Erlang gerando primeiro m variveis aleatrias com distribuio exponen-
cial de parmetro atravs do mtodo da transformada, e tomando a soma destas.
98 Mtodos computacionais para gerao de nmeros aleatrios
Desde que a varivel aleatria m-Erlang um caso especial da varivel aleatria
gama, para m grande pode ser prefervel usar o mtodo da rejeio descrito anterior-
mente.
4.6 Gerao de misturas de variveis aleatrias
s vezes uma varivel aleatria consiste de uma mistura de vrias variveis aleatrias.
Para gerar este tipo de varivel aleatria podemos primeiramente selecionar uma dis-
tribuio de acordo com alguma fmp, e ento gerar uma amostra da varivel aleatria
selecionada. Este procedimento pode ser facilmente simulado, como mostrado da seguir:
Exemplo 4.8. Uma varivel aleatria exponencial de dois estgios tem fdp
f
X
(x) = pae
ax
+ (1 p)be
bx
Fica claro da expresso acima que X consiste da mistura de duas variveis aleatrias
exponenciais com parmetros a e b, respectivamente.
X pode ser gerada da seguinte maneira:
Realize um teste de Bernoulli com probabilidade de sucesso p.
Se o resultado for um sucesso, use o mtodo da transformada para gerar uma
varivel aleatria exponencial de parmetro a.
Se o resultado for um fracasso, use o mtodo da transformada para gerar uma
varivel aleatria exponencial de parmetro b.
4.7 Exerccios
1. Escreva um programa de computador para implementar um gerador de nmeros
aleatrios segundo a Equao (4.2).
(a) Para checar seu programa, encontre Z
1000
; com semente Z
0
= 1, ele deve ser
522329230.
(b) Gere 10000 nmeros aleatrios no intervalo unitrio e plote o histograma. O
resultado o esperado? Justique sua resposta.
2. Suponha que estamos interessados em utilizar arremessos de uma moeda ideal para
simular um experimento aleatrio no qual existem seis resultados equiprovveis,
S = {0, 1, 2, 3, 4, 5}. O seguinte algoritmo proposto:
1) Jogue uma moeda ideal trs vezes e obtenha um nmero binrio, associando
cara com o zero e coroa com o 1.
2) Se o resultado dos arremessos do passo 1) for a representao binria de um
nmero em S, gere o nmero; caso contrrio, retorne ao passo 1).
Mtodos computacionais para gerao de nmeros aleatrios 99
Este algoritmo uma verso simplicada do mtodo da rejeio.
(a) Encontre a probabilidade de um nmero ser gerado no passo 2).
(b) Mostre que os nmeros gerados no passo 2) so equiprovveis.
(c) Generalize o algoritmo acima para mostrar como o arremesso de moedas
pode ser usado para simular qualquer experimento aleatrio com urnas.
3. Encontre a transformao necessria para gerar uma varivel aleatria com dis-
tribuio de Laplace.
4. Uma varivel aleatria mista Y tem fdp dada por
f
Y
(x) = p(x) + (1 p)f
X
(x)
onde X uma varivel aleatria com distribuio de Laplace, e p um nmero
entre 0 e 1. Encontre a transformao necessria para gerar Y .
5. Especique o mtodo de transformao necessrio para gerar uma varivel alea-
tria com distribuio de parmetro ( pequeno). Calcule o nmero mdio de
comparaes necessrio na busca.
Captulo 5
Somas de Variveis Aleatrias e o
Teorema do Limite Central
5.1 Introduo
Uma grande variedade de questes pode ser respondida estudando-se uma v.a. W
n
,
denida como a soma de n v.a.s
W
n
= X
1
+X
2
+ +X
n
(5.1)
Pelo fato de W
n
ser uma funo de n v.a.s, poderamos utilizar as distribuies
conjuntas de X
1
, X
2
, . . . , X
n
para derivar o modelo de probabilidade completo de W
n
na forma de uma fdp ou de uma fmp. Entretanto, em muitas aplicaes prticas, a
natureza da anlise das propriedades das v.a.s nos permite aplicar tcnicas que so
mais simples do que analizar um modelo de probabilidade n-dimensional.
5.2 Mdias de somas
Teorema 5.1. Para qualquer conjunto de v.a.s X
1
, X
2
, . . . , X
n
, o valor esperado de
W
n
= X
1
+X
2
+ +X
n

E[W
n
] = E[X
1
] +E[X
2
] + +E[X
n
]
Demonstrao. Vamos mostrar inicialmente que E[W
2
] = E[X
1
] +E[X
2
].
Sejam g
1
(X
1
, X
2
) = X
1
, g
2
(X
1
, X
2
) = X
2
e g(X
1
, X
2
) = g
1
(X
1
, X
2
) +g
2
(X
1
, X
2
).
Usando a propriedade da mdia de uma funo de duas variveis aleatrias, podemos
escrever (para o caso contnuo)
E[g(X
1
, X
2
)] =
_
+

_
+

g(X
1
, X
2
)f
X
1
X
2
(X
1
, X
2
) dx
1
dx
2
=
_
+

_
+

[g
1
(X
1
, X
2
) +g
2
(X
1
, X
2
)]f
X
1
X
2
(X
1
, X
2
) dx
1
dx
2
Somas de Variveis Aleatrias e o Teorema do Limite Central 101
=
_
+

_
+

g
1
(X
1
, X
2
)f
X
1
X
2
(X
1
, X
2
) dx
1
dx
2
+
_
+

_
+

g
2
(X
1
, X
2
)f
X
1
X
2
(X
1
, X
2
) dx
1
dx
2
= E[g
1
(X
1
, X
2
)] +E[g
2
(X
1
, X
2
)]
Portanto mostramos que E[W
2
] = E[X
1
+X
2
] = E[X
1
] +E[X
2
].
Assumimos agora
E[W
n1
] = E[X
1
] +E[X
2
] + +E[X
n1
]
Note que W
n
= W
n1
+X
n
. Desde que W
n
uma soma de duas v.a.s W
n1
e X
n
,
E[W
n
] = E[W
n1
] +E[X
n
] = E[X
1
] +E[X
2
] + +E[X
n
]
Ou seja, a esperana da soma igual soma das esperanas quer as v.a.s sejam
independentes ou no. Para a varincia de W
n
, temos
Teorema 5.2. A varincia de W
n
= X
1
+X
2
+ +X
n

Var[W
n
] =
n

i=1
Var[X
i
] + 2
n1

i=1
n

j=i+1
Cov[X
i
, X
j
]
Demonstrao. Da denio de varincia, podemos escrever
Var[W
n
] = E
_
(W
n
E[W
n
])
2
_
Por convenincia, chamemos
i
= E[X
i
]. Desde que W
n
=

n
i=1
X
i
e E[W
n
] =

n
i=1

i
,
Var[W
n
] = E
_
_
_
n

i=1
(X
i

i
)
_
2
_
_
= E
_
_
n

i=1
(X
i

i
)
n

j=1
(X
j

j
)
_
_
Separando os termos para os quais i = j, temos
Var[W
n
] =
n

i=1
E
_
_
(X
i

i
)
2
+

j=i
(X
i

i
)(X
j

j
)
_
_
=
n

i=1
Var[X
i
] +
n

i=1

j=i
Cov[X
i
, X
j
]
Por ltimo, notamos que Cov[X
i
, X
j
] = Cov[X
j
, X
i
], e desta forma
102 Somas de Variveis Aleatrias e o Teorema do Limite Central
n

i=1

j=i
Cov[X
i
, X
j
] = 2
n

i=1
n

j=i+1
Cov[X
i
, X
j
]
Quando X
1
, X
2
, . . . , X
n
so mutuamente independentes, os termos Cov[X
i
, X
j
] = 0
se j = i (veja Denio 3.9), e temos o seguinte resultado
Teorema 5.3. Quando X
1
, X
2
, . . . , X
n
so mutuamente independentes, a varincia
de W
n
= X
1
+X
2
+ +X
n
a soma das varincias
Var[W
n
] = Var[X
1
] + Var[X
2
] + + Var[X
n
]
Exemplo 5.1. A entrada de um ltro digital uma sequncia aleatria X
n
= X
0
, X
1
,
X
2
, . . .
O valor esperado de X
n
a funo
X
(n) = 0, n. A funo de covarincia de X
n
C
X
[X
n
, X
k
] = C
X
[n k] = 0, 8
|nk|
. A sada do ltro uma sequncia aleatria Y
n
,
relacionada a X
n
por
Y
n
= X
n
+X
n1
+X
n2
, para todo n inteiro
Qual a varincia de Y
n
?
Soluo. Aplicando o teorema 5.2 obtemos para cada i,
Var[Y
i
] = Var[X
i
] + Var[X
i1
] + Var[X
i2
] + 2 Cov[X
i
, X
i1
]
+ 2 Cov[X
i
, X
i2
] + 2 Cov[X
i1
, X
i2
]
Desde que Var[X
j
] = C
X
[0] e Cov[X
i
, X
j
] = C
X
[i j],
Var[Y
i
] = 3C
X
[0] + 4C
X
[1] + 2C
X
[2] = 3 0, 8
0
+ 4 0, 8
1
+ 2 0, 8
2
= 7, 48
A mesma estratgia pode ser utilizada para encontrar as propriedades de ltros
digitais mais complexos com relao entre entrada e sada dada pela forma geral
Y
n
=
N1

i=0
a
i
X
ni
Somas de Variveis Aleatrias e o Teorema do Limite Central 103
5.3 Fdp da soma de duas v.a.s
Antes de analisar o modelo de probabilidade da soma de n v.a.s, instrutivo analisar
a soma W = X +Y de duas v.a.s contnuas.
Teorema 5.4. A fdp de W=X+Y
f
W
(w) =
_
+

f
XY
(x, w x) dx =
_
+

f
XY
(w y, y) dy
Demonstrao. Para a prova deste teorema, vamos encontrar a fdp de W usando um
procedimento em dois passos: primeiro encontramos a fdc F
W
(w) integrando a fdp con-
junta f
XY
(x, y) sobre a regio X+Y w mostrada na Figura 5.1, e depois encontramos
a fdp f
W
(w) derivando a expresso de F
W
(w).
X
Y
w
w
X +Y w
Figura 5.1: Regio de integrao para a obteno de F
W
(w).
F
W
(w) = P[X +Y w] =
_
+

__
wx

f
XY
(x, y) dy
_
dx
Tomando as derivadas da fdc para encontrar a fdp, temos
f
W
(w) =
dF
W
(w)
dw
=
_
+

_
d
dw
__
wx

f
XY
(x, y) dy
__
dx =
_
+

f
XY
(x, w x) dx
Atravs de um desenvolvimento similar,podemos mostrar tambm que
f
W
(w) =
_
+

f
XY
(w y, y) dy
104 Somas de Variveis Aleatrias e o Teorema do Limite Central
Exemplo 5.2. Encontre a fdp de W = X +Y se X e Y tm fdp conjunta
f
XY
(x, y) =
_
2 0 y 1, 0 x 1, x +y 1
0 caso contrrio
Soluo. A fdp de W = X+Y pode ser encontrada usando-se o teorema 5.4. Note que
X e Y so dependentes e que os valores possveis de X, Y ocorrem na regio triangular
sombreada da Figura 5.2.

x
y
w
w
1
1
y = w x
Figura 5.2: Regio de integrao para a obteno de F
W
(w).
Portanto 0 X+Y 1. Assim, f
W
(w) = 0 para w < 0 ou w > 1. Para 0 w 1,
aplicando o teorema 5.4, chega-se a
f
W
(w) =
_
w
0
2 dx = 2w (0 w 1)
A expresso completa para a fdp de W ento dada por
f
W
(w) =
_
2w 0 w 1
0 caso contrrio
Quando X e Y so independentes, a fdp conjunta de X e Y pode ser escrita como o
produto das fdps marginais f
XY
(x, y) = f
X
(x)f
Y
(y). Neste caso, podemos reescrever
o teorema 5.4 como
Teorema 5.5. Quando X e Y so v.a.s independentes, a fdp de W = X +Y
f
W
(w) =
_
+

f
X
(w y)f
Y
(y) dy =
_
+

f
X
(x)f
Y
(w x) dx
Somas de Variveis Aleatrias e o Teorema do Limite Central 105
Neste teorema combinamos duas funes de uma varivel f
X
() e f
Y
() para produzir
uma terceira funo f
W
(). A combinao no teorema 5.5, chamada de convoluo,
e denotada por f
W
() = f
X
() f
Y
(). De maneira geral, melhor usar mtodos de
transformao para calcular a convoluo de duas funes. Na linguagem de teoria de
probabilidade, a transformada de uma fdp ou de uma fmp uma funo geratriz de
momentos.
5.4 Funo geratriz de momentos
A fdp da soma das v.a.s independentes X
1
, X
2
, . . . , X
n
uma sequncia de convolues
envolvendo as fdps f
X
1
(x), f
X
2
(x), e assim por diante. Na teoria de sistemas lineares,
uma convoluo no domnio do tempo corresponde a uma multiplicao no domnio da
frequncia com as funes no tempo e na frequncia relacionadas pela transformada de
Fourier. Na teoria de probabilidade podemos, de forma similar, usar mtodos de trans-
formadas para substituir a convoluo de fdps por multiplicaes de transformadas.
Denio 5.1. Funo geratriz de momentos (FGM): Para uma v.a. X, a
funo geratriz de momentos (FGM) dada por

X
(s) = E
_
e
sX

Esta denio se aplica tanto a v.a.s contnuas como discretas. O que muda de um
caso para outro a forma de clculo da esperana. Quando X uma v.a. contnua

X
(s) =
_
+

e
sx
f
X
(x) dx (5.2)
Esta equao indica que a FGM de uma v.a. contnua similar transformada de
Laplace de uma funo temporal. Para uma v.a. discreta Y a FGM torna-se

Y
(s) =

y
i
S
Y
e
sy
i
p
Y
(y
i
) (5.3)
Na forma integral da Equao (5.2), a FGM lembra a transformada de Laplace que
geralmente utilizada na teoria de sistemas lineares. A principal diferena que a FGM
denida para valores reais de s.
Para uma dada v.a. X, existe uma faixa de valores possveis de s para os quais

X
(s) existe. O conjunto de valores de s para os quais
X
(s) existe chamada de
regio de convergncia. Por exemplo, se X uma v.a. no negativa, a regio de
convergncia inclui todo s 0. Para qualquer v.a. X,
X
(s) sempre existe para s = 0.
Iremos usar a FGM avaliando suas derivadas em s = 0. medida que a regio de
convergncia inclui um intervalo no vazio (, ) em torno da origem s = 0, podemos
avaliar as derivadas da FGM em s = 0.
A exemplo da fmp de uma v.a. discreta e da fdp de uma v.a. contnua, a FGM
um modelo de probabilidade completo para uma v.a. Usando mtodos de transformada
inversa, possvel calcular a fmp ou a fdp a partir da FGM.
106 Somas de Variveis Aleatrias e o Teorema do Limite Central
Exemplo 5.3. Se X = a, uma constante, ento f
X
(x) = (x a), e

X
(s) =
_
+

e
sx
(x a) dx = e
sa
Exemplo 5.4. Quando X tem uma fdp uniforme,
f
X
(x) =
_
1 0 X 1
0 caso contrrio
a FGM de X

X
(s) =
_
1
0
e
sx
dx =
e
s
1
s
Exemplo 5.5. Seja a v.a. X com fdp exponencial
f
X
(x) =
_
e
x
x 0
0 caso contrrio
a FGM de X

X
(s) =
_

0
e
sx
e
x
dx =

s
Exemplo 5.6. Seja X uma v.a. de Bernoulli com
f
X
(x) =
_

_
1 p x = 0
p x = 1
0 caso contrrio
a FGM de X

X
(s) = E[e
sx
] = (1 p)e
0
+pe
s
= 1 p +pe
s
Exemplo 5.7. Seja X com fmp geomtrica
f
X
(x) =
_
(1 p)
x1
p x = 1, 2, . . .
0 caso contrrio
a FGM de X

X
(s) =

x=1
e
sx
(1 p)
x1
p = pe
s

x=1
((1 p)e
s
)
x1
=
pe
s
1 (1 p)e
s
Somas de Variveis Aleatrias e o Teorema do Limite Central 107
Exemplo 5.8. Seja X com fmp de Poisson
p
X
(x) =
_

x
e

/x! x = 0, 1, 2, . . .
0 caso contrrio
a FGM de X

X
(s) =

x=0
e
sx

x
e

/x! = e

x=0
(e
s
)
x
/x! = e
(e
s
1)
A funo geratriz de momentos tem algumas propriedades:
Teorema 5.6. Para qualquer v.a. X, a FGM satisfaz

X
(s)|
s=0
= 1
Demonstrao.

X
(s)|
s=0
= E
_
e
sX

s=0
= E
_
e
0

= 1
Este teorema bastante til para vericar se uma funo pode ser uma FGM vlida.
Teorema 5.7. A FGM de Y = aX +b satisfaz

Y
(s) = e
sb

X
(as)
Demonstrao.

Y
(s) = E[e
s(aX+b)
] = e
sb
E[e
(as)X
] = e
sb

X
(as)
Como seu nome sugere, a funo
X
(s) especialmente til para encontrar os mo-
mentos de X.
Teorema 5.8. Uma v.a. com FGM
X
(s) tem n-simo momento
E[X
n
] =
d
n

X
(s)
ds
n

s=0
108 Somas de Variveis Aleatrias e o Teorema do Limite Central
Demonstrao. A derivada primeira de
X
(s)
d
X
(s)
ds
=
d
ds
__
+

e
sx
f
X
(x) dx
_
=
_
+

xe
sx
f
X
(x) dx
Avaliando esta derivada em s = 0, conclumos a prova para n = 1
d
X
(s)
ds

s=0
=
_
+

xf
X
(x) dx = E[X]
Similarmente, a n-sima derivada de
X
(s) dada por
d
n

X
(s)
ds
n
=
_
+

x
n
e
sx
f
X
(x) dx
Avaliando a expresso acima em s = 0 completamos a prova do teorema.
Uma vantagem da FGM que geralmente mais fcil encontrar a FGM de X e
tomar as derivadas para encontrar os momentos de X do que encontr-los diretamente.
Exemplo 5.9. Encontre o n-simo momento de uma v.a. com fdp exponencial
f
X
(x) =
_
e
x
x 0
0 caso contrrio
Soluo. Podemos escrever o primeiro momento como
E[X] =
d
X
(s)
ds

s=0
=

( s)
2

s=0
=
1

o segundo momento como


E[X
2
] =
d
2

X
(s)
ds
2

s=0
=
2
( s)
3

s=0
=
2

2
e o terceiro momento como
E[X
3
] =
d
3

X
(s)
ds
3

s=0
=
6
( s)
4

s=0
=
6

3
Por induo, podemos armar que o n-simo momento de X dado por
E[X
n
] =
d
n

X
(s)
ds
n

s=0
=
n!
( s)
n+1

s=0
=
n!

n
Somas de Variveis Aleatrias e o Teorema do Limite Central 109
5.5 FGM da soma de v.a.s independentes
FGMs so particularmente teis para analisar a soma de v.a.s independentes. Se
W = X +Y onde X e Y so v.a.s com transformadas
X
(s) e
Y
(s) respectivamente,
a transformada de W

W
(s) = E
_
e
sW

= E
_
e
s(X+Y )

= E
_
e
sX
e
sY

(5.4)
Geralmente a expresso acima difcil de calcular. Entretanto, quando X e Y
so independentes, podemos escrever a esperana do produto e
sX
e
sY
como o produto
das esperanas E
_
e
sX

E
_
e
sY

. Neste caso, encontrar


W
(s) ca fcil se conhecermos

X
(s) e
Y
(s).

W
(s) = E
_
e
sX
e
sY

= E
_
e
sX

E
_
e
sY

=
X
(s)
Y
(s) (5.5)
Quando as n v.a.s X
1
, X
2
, . . . , X
n
so independentes, a esperana do produto
g
1
(X
1
) g
2
(X
2
) g
n
(X
n
) pode ser escrita como o produto das esperanas
E[g
1
(X
1
)g
2
(X
2
) g
n
(X
n
)] = E[g
1
(X
1
)]E[g
2
(X
2
)] E[g
n
(X
n
)] (5.6)
Esta expresso leva ao seguinte teorema
Teorema 5.9. Para uma sequncia X
1
, X
2
, . . . , X
n
de n v.a.s independentes, a FGM
de W = X
1
+X
2
+ +X
n

W
(s) =
X
1
(s)
X
2
(s)
Xn
(s)
Demonstrao. Da denio de FGM

W
(s) = E
_
e
s(X
1
+X
2
++Xn)
_
= E
_
e
sX
1
e
sX
2
e
sXn

Usando a Equao (5.5) com g


i
(X
i
) = e
sX
i
, a esperana do produto
E[W] = E
_
e
sX
1

E
_
e
sX
2

E
_
e
sXn

=
X
1
(s)
X
2
(s)
Xn
(s)
Quando X
1
, X
2
, . . . , X
n
so independentes e identicamente distribudas,
X
i
(s) =

X
(s) para todo i, e o teorema 5.9 tem um corolrio simples
Corolrio 5.10. Para as v.a.s X
1
, X
2
, . . . , X
n
independentes e identicamente dis-
tribudas cada qual com FGM
X
(s), a FGM de W = X
1
+X
2
+ +X
n

W
(s) = [
X
(s)]
n
110 Somas de Variveis Aleatrias e o Teorema do Limite Central
Vimos anteriormente que a fdp f
W
(w) obtida atravs da convoluo das fdps
individuais f
X
i
(x
i
). A FGM
W
(s) simplesmente a multiplicao das FGMs indi-
viduais
X
i
(s). Geralmente, o clculo destas convolues um processo complexo e
tedioso, e a alternativa seria transformar f
X
(x) em
X
(s), e ento usar o Corolrio
5.10 para obter
W
(s), e nalmente calcular a transformada inversa, obtendo-se assim
f
W
(w).
Exemplo 5.10. Seja K
1
, K
2
, . . . , K
n
um conjunto de n v.a.s independentes com distri-
buio de Poisson, tais que E[K
i
] =
i
. Encontre a FGM de W = K
1
+K
2
+ +K
n
.
Soluo. Do Exemplo 5.8 sabemos que K
i
tem FGM
K
i
(s) = e

i
(e
s
1)
. Pelo Corolrio
5.10,

W
(s) = e

1
(e
s
1)
e

2
(e
s
1)
e
n(e
s
1)
= e
(
1
+
2
++n)(e
s
1)
= e
(
T
)(e
s
1)
onde
T
=
1
+
2
+ +
n
. Examinando o Exemplo 5.8, observamos que
W
(s) a
FGM de uma v.a. com distribuio de Poisson com mdia
T
. Portanto
f
W
(w) =
_

w
T
e

/w! w = 0, 1, . . . , n
0 caso contrrio
O modelo de probabilidade da soma de n v.a.s identicamente distribudas com
distribuio de Poisson tem a mesma forma do modelo de probabilidade de cada v.a.
individual. Esta propriedade vlida tambm para v.a.s identicamente distribudas
com distribuio gaussiana. Para v.a.s com outras distribuies esta propriedade no
mais vlida.
Exemplo 5.11. Encontre a FGM de uma v.a. Binomial K com fmp
p
K
(k) =
_
_
n
k
_
p
k
(1 p)
(nk)
k = 0, 1, . . . , n
0 caso contrrio
Soluo. Calcular a FGM de K diretamente como E[e
sK
] bastante complicado. Ao
invs disso, lembremos que podemos representar K como K = X
1
+X
2
+ +X
n
onde
cada X
i
uma v.a. de Bernoulli independente. Desta forma, do Exemplo 5.6

K
(s) = (
X
(s))
n
= (1 p +pe
s
)
n
Exemplo 5.12. Uma v.a. Erlang-n T
n
tem fdp
f
Tn
(t) =
_

n
t
n1
e
t
(n1)!
t 0
0 caso contrrio
Encontre a FGM de T
n
Somas de Variveis Aleatrias e o Teorema do Limite Central 111
Soluo. A FGM de T
n
pode ser calculada diretamente como

Tn
(s) =
_

0
e
st

n
t
n1
e
t
(n 1)!
dt =
_

s
_
n
_

0
( s)
n
t
n1
e
(s)t
(n 1)!
dt
. .
1
A integral (1) igual a 1 pois a integral de um fdp Erlang sobre todos os valores
possveis. Ento

Tn
(s) =
_

s
_
n
No Exemplo 5.5 observamos que
X
(s) = /(s) a FGM de uma v.a. exponencial
X com mdia 1/. Portanto, a soma de n v.a.s exponenciais identicamente distribudas,
cada uma com mdia 1/ tem FGM (/ s)
n
, que exatamente a FGM de uma v.a.
Erlang de ordem n.
Isto mostra que uma v.a. Erlang a soma de v.a.s exponenciais identicamente
distribudas.
5.6 Somas de v.a.s gaussianas independentes
Seja X
1
, X
2
, . . . , X
n
um conjunto de v.a.s gaussianas independentes. Podemos usar a
FGM de cada v.a. na soma para derivar algumas propriedades interessantes de W
n
=
X
1
+ X
2
+ + X
n
. Quando n = 1, W = X
1
apenas uma v.a. gaussiana. Para
encontrar sua FGM, encontramos inicialmente a FGM de uma v.a. N(0, 1).
Teorema 5.11. A FGM de uma v.a. gaussiana Z com mdia nula e varincia
unitria

Z
(s) = e
s
2
/2
Demonstrao. A FGM de Z pode ser escrita como

Z
(s) =
_
+

e
sz
f
Z
(z) dz =
1

2
_
+

e
sz
e
z
2
/2
dz
Esta integral pode ser resolvida completando-se o quadrado no expoente

Z
(s) =
1

2
_
+

1
2
(z
2
2sz+s
2
)
e
s
2
/2
dz = e
s
2
/2
1

2
_
+

1
2
(zs)
2
dz
. .
1
O teorema se sustenta pois no lado direito temos uma integral de uma fdp gaussiana
com mdia s e varincia 1.
112 Somas de Variveis Aleatrias e o Teorema do Limite Central
Teorema 5.12. A FGM de uma v.a. gaussiana com mdia e varincia
2

X
(s) = e
s+
2
s
2
/2
Demonstrao. Uma v.a. gaussiana X com mdia e varincia
2
pode ser expressa
em termos da v.a. Z N(0, 1) como
X = Z +
Consequentemente, do Teorema 5.7, a FGM de X

X
(s) = e
s

Z
(s) = e
s+
2
s
2
/2
Agora podemos apresentar o resultado principal desta seo.
Teorema 5.13. A soma de n v.a.s gaussianas independentes W
n
= X
1
+X
2
+ +
X
n
tem uma distribuio gaussiana com mdia e varincia dadas por
E[W
n
] = E[X
1
] +E[X
2
] + +E[X
n
]
Var[W
n
] = Var[X
1
] + Var[X
2
] + + Var[X
n
]
Demonstrao. Por convenincia, seja
i
= E[X
i
] e
2
i
= Var[X
i
]. Desde que os X
i
so
independentes, sabemos que

W
(s) =
X
1
(s)
X
2
(s)
Xn
(s)
= e
s
1
+
2
1
s
2
/2
e
s
2
+
2
2
s
2
/2
e
sn+
2
n
s
2
/2
= e
s(
1
+
2
++n)+(
2
1
+
2
2
++
2
n
)s
2
/2
Da equao acima, pode-se ver que
W
(s) a FGM de uma v.a. gaussiana com
mdia
1
+
2
+ +
n
e varincia
2
1
+
2
2
+ +
2
n
.
5.7 Somas aleatrias de v.a.s independentes
Muitos problemas prticos podem ser analisados pela soma de v.a.s identicamente dis-
tribudas, mas cujo nmero de termos na soma tambm uma v.a. Referimo-nos
v.a. resultante R como uma soma aleatria de v.a.s independentes e identicamente
distribudas. Ento, dada uma v.a. N e uma sequncia de v.a.s X
1
, X
2
, . . . , X
N
iden-
ticamente distribudas, seja
R = X
1
+X
2
+ +X
N
(5.7)
Somas de Variveis Aleatrias e o Teorema do Limite Central 113
Os dois exemplos a seguir descrevem processos estocsticos nos quais as observaes
so somas aleatrias de v.a.s.
Exemplo 5.13. Em um terminal de nibus, conte o mmero de pessoas que chegam
nos nibus durante uma hora.
Soluo. Se o nmero de pessoas no i-simo nibus K
i
e o nmero de nibus que
chegam N, ento o nmero de pessoas chegando durante uma hora
R = K
1
+K
2
+ +K
N
Em geral, o nmero N de nibus que chegam ir ser uma v.a., e desta forma, R
uma somas aleatria de v.a.s.
Exemplo 5.14. Conte o nmero N de pacotes de dados transmitidos atravs de um
link de comunicaes em um minuto.
Soluo. Suponha que cada pacote corretamente decodicado com probabilidade p,
independentemente do resultado da decodicao de qualquer outro pacote. O nmero
de pacotes decodicados corretamente em um minuto de transmisso
R = X
1
+X
2
+ +X
N
onde X
i
1 se o i-simo pacote decodicado corretamente, e 0, caso contrrio. Pelo
fato de o nmero de pacotes transmitido N ser aleatrio, R no a v.a. binomial usual.
No exemplo acima, podemos utilizar os mtodos utilizados para v.a.s mltiplas
para encontrar a fmp conjunta f
NR
(n, r). Entretanto no somos capazes de encontrar
uma expresso simples em forma fechada para a fmp f
R
(r). Por outro lado, vamos
demonstrar nesta seo que possvel expressar o modelo de probabilidade de R como
uma frmula para a FGM
R
(s).
Embora nos exemplos acima tenhamos considerado apenas casos nos quais os X
i
so
v.a.s discretas, ser mais instrutivo enfatizar o caso em que os X
i
so v.a.s contnuas.
Sejam as v.a.s
W
n
= X
1
+X
2
+ +X
n
(5.8)
R = X
1
+X
2
+ +X
N
(5.9)
importante sabermos distinguir a v.a. W
n
da v.a. R. Especicamente, W
n
a
soma de um nmero determinstico particular n dos X
i
e no uma soma aleatria de
v.a.s. Portanto, a fdp de W
n
a fdp condicional de R dado que N = n. Em geral,
encontrar a fdp ou a fmp de R bastante difcil. Entretanto, encontrar a FGM de R
surpreendentemente fcil, como podemos ver no teorema a seguir
114 Somas de Variveis Aleatrias e o Teorema do Limite Central
Teorema 5.14. A soma aleatria de v.a.s independentes e identicamente distribu-
das R = X
1
+X
2
+ +X
N
tem FGM dada por

R
(s) =
N
(ln(
X
(s)))
Demonstrao. Para encontrar
R
(s) = E
_
e
sR

, iremos usar iteraes de esperanas,


encontrando primeiro a esperana condicional E
_
e
sR
|N = n

, e ento tomando a espe-


rana sobre N

R
(s) =

n=0
E
_
e
sR
|N = n

p
N
(n) =

n=0
E
_
e
s(X
1
+X
2
++X
N
)
|N = n
_
p
N
(n)
Pelo fato de os X
i
serem independentes de N,
E
_
e
s(X
1
+X
2
++X
N
)
|N = n
_
= E
_
e
s(X
1
+X
2
++Xn)
_
= E
_
e
sWn

=
Wn
(s)
Do teorema 5.10, sabemos que
Wn
(s) = [
X
(s)]
n
, o que implica em

R
(s) =

n=0
[
X
(s)]
n
p
N
(n)
Observamos que podemos escrever [
X
(s)]
n
=
_
e
ln(
X
(s))

n
= e
[ln(
X
(s))]n
. Isto
implica

R
(s) =

n=0
e
[ln(
X
(s))]n
p
N
(n)
Reconhecendo que esta soma tem a mesma forma daquela da Equao (5.3), obtemos

R
(s) =
N
(ln(
X
(s)))
Exemplo 5.15. O nmero N de pginas em uma transmisso de fax tem fmp geo-
mtrica com mdia 1/q = 4. O nmero K de bits em uma pgina de fax tambm tem
distribuio geomtrica com mdia 1/p = 10
5
bits, independentemente de qualquer outra
pgina e do nmero de pginas. Encontre a FGM de B, o nmero total de bits em uma
transmisso de fax.
Soluo. Quando a i-sima pgina tem K
i
bits, o nmero total de bits a soma
aleatria
B = K
1
+K
2
+ +K
N
Ento
Somas de Variveis Aleatrias e o Teorema do Limite Central 115

B
(s) =
N
(ln(
K
(s)))
Do exemplo 5.7

N
(s) =
qe
s
1 (1 q)e
s

K
(s) =
pe
s
1 (1 p)e
s
Para calcular
B
(s), substitumos ln(
K
(s)) para toda ocorrncia de s em
N
(s).
Equivalentemente, podemos substituir
K
(s) para toda ocorrncia de e
s
em
N
(s). Esta
substituio leva a

B
(s) =
q
_
pe
s
1 (1 p)e
s
_
1 (1 q)
_
pe
s
1 (1 p)e
s
_ =
pqe
s
1 (1 pq)e
s
Podemos ver que B tem FGM de uma v.a. geomtrica com mdia 1/(pq) = 400000
bits.
Usando o teorema 5.14, podemos tomar as derivadas de
N
(ln(
X
(s))) para encon-
trar expresses simples para a mdia e varincia de R
Teorema 5.15. A soma aleatria das v.a.s independentes e identicamente distri-
budas R = X
1
+X
2
+ +X
N
tem mdia e varincia dadas por
E[R] = E[N]E[X] Var[R] = E[N] Var[X] + Var[N](E[X])
2
Demonstrao. Pela regra da cadeia das derivadas,

R
(s) =

N
(ln(
X
(s)))

X
(s)

X
(s)
Desde que
X
(0) = 1, avaliando em s = 0, temos
E[R] =

R
(0) =

N
(0)

X
(0)

X
(0)
= E[N]E[X]
Para a derivada segunda de
X
(s) temos

R
(s) =

N
(ln(
X
(s)))
_

X
(s)

X
(s)
_
2
+

N
(ln(
X
(s)))

X
(s)

X
(s) [

X
(s)]
2
[
X
(s)]
2
Novamente, avaliando em s = 0, temos
E[R
2
] = E[N
2
]
2
X
+E[N]
_
E[X
2
]
2
X
_
Subtraindo (E[R])
2
= (
N

X
)
2
de ambos os lados da equao acima completamos
a prova.
116 Somas de Variveis Aleatrias e o Teorema do Limite Central
Observe que Var[R] contm dois termos: o primeiro termo
N
Var[X] resulta da
aleatoriedade de X, enquanto que o segundo termo Var[N]
2
X
uma consequncia da
aleatoriedade de N. Para visualizar isto, considere estes dois casos
Suponha que N determinstico, de modo que N = n todas as vezes. Neste caso,

N
= n e Var[N] = 0. A soma aleatria R uma soma determinstica ordinria
R = X
1
+X
2
+ +X
n
e Var[R] = nVar[X].
Suponha que N aleatria, mas cada X
i
uma constante determinstica x. Neste
exemplo,
X
= x e Var[X] = 0. alm disso, a soma aleatria torna-se R = Nx e
Var[R] = x
2
Var[N].
importante enfatizar que os teoremas 5.14 e 5.15 exigem que N seja independente
da sequncia aleatria X
1
, X
2
, . . . , X
n
, isto , o nmero de termos na soma aleatria
no pode depender dos valores dos termos da soma.
Exemplo 5.16. Seja X
1
, X
2
, . . . uma sequncia de v.a.s gaussianas independentes e
identicamente distribudas com mdia 100 e varincia 100. Se K uma v.a. de Poisson
com mdia 1, encontre a mdia e a varincia de R = X
1
+X
2
+ +X
K
.
Soluo. A distribuio de R ou mesmo a FGM de R so difceis de se obter. Entre-
tanto, o Teorema 5.15 torna o clculo dos momentos bastante fcil. Sabemos que uma
v.a. de Poisson com mdia 1 tambm tem varincia 1. Ento
E[R] = E[X]E[K] = 100
Var[R] = E[K] Var[X] + Var[K](E[X])
2
= 100 + (100)
2
= 10100
Pode-se ver que a maior parte da varincia devida aleatoriedade de K. Isto
acontece porque muito provvel que K assuma os valores 0 e 1, e estas duas escolhas
mudam de forma dramtica a soma.
5.8 Teorema do limite central
Em um grande nmero de situaes prticas, histogramas de medidas seguem apro-
ximadamente uma curva em forma de sino. Um histograma um grco de barras
que divide o conjunto de medidas possveis em intervalos iguais e mostra o nmero de
medidas em cada intervalo.
Quando o tamanho de cada intervalo pequeno e o nmero de medidas grande,
a forma da histograma assemelha-se bastante forma da fdp da v.a. que descreve as
medidas. Por exemplo, o primeiro grco da Figura 5.3 um histograma derivado a
partir de 400 repeties de um experimento. Em cada experimento algum joga uma
moeda 50 vezes e observa o nmero de coroas. O histograma segue aproximadamente
uma curva em forma de sino. O segundo grco na Figura 5.3 mostra as probabilidades
binomiais exatas do nmero de caras em 50 jogadas.
Somas de Variveis Aleatrias e o Teorema do Limite Central 117
Figura 5.3: O nmero de caras em 50 arremessos de uma moeda ideal: 400 repeties
experimentais versus a fmp binomial.
Lembremos que a fdp em forma de sino corresponde de uma v.a. gaussiana. O
teorema do limite central explica porque muitos fenmenos produzem dados que podem
ser modelados como v.a.s gaussianas na prtica.
Iremos usar o teorema do limite central para estimar as probabilidades associadas
com a soma de v.a.s independentes e identicamente distribudas W
n
= X
1
+X
2
+ +
X
n
. Entretanto, medida que n , E[W
n
] = n
X
e Var[W
n
] = nVar[X] tendem
a innito, o que faz com que seja muito difcil fazer uma armao matemtica sobre
a convergncia da fdc F
Wn
(w). Portanto o teorema do limite central ser escrito em
termos da v.a. normalizada
Z
n
=
n

i=1
X
i
n
X
_
n
2
X
Dizemos que a soma Z
n
est normalizada pois para todo n
E[Z
n
] = 0 Var[Z
n
] = 1
118 Somas de Variveis Aleatrias e o Teorema do Limite Central
Teorema 5.16. Teorema do limite central. Dada uma sequncia X
1
, X
2
, . . . de
v.a.s independentes e identicamente distribudas com valor esperado
X
e varincia

2
X
, a fdc de Z
n
= (

n
i=1
X
i
n
X
) /
_
n
2
X
satisfaz
lim
n
F
Zn
(z) = (z)
onde (z) a fdc de uma v.a. N(0, 1).
A prova deste teorema bastante complexa, e est fora do escopo deste texto. Alm
do Teorema 5.16 existem outros teoremas do limite central, cada um deles com sua
prpria restrio sobre a natureza da sequncia W
n
de v.a.s.
Um aspecto singular do Teorema do Limite Central o fato de no haver restries
sobre a natureza das v.a.s X
i
na soma. Elas podem ser contnuas, discretas ou mistas.
Em todos os casos a fdc de sua soma assemelha-se mais e mais da fdc Gaussiana
medida que o nmero de termos na soma cresce. Algumas verses do Teorema do
Limite Central aplicam-se a somas de sequncias X
i
que no so nem independentes e
identicamente distribudas.
Para usar o teorema do limite central, observe que podemos expressar a soma de
v.a.s identicamente distribudas W
n
= X
1
+X
2
+ +X
n
como
W
n
=
_
n
2
X
Z
n
+n
X
(5.10)
A fdc de W
n
pode ser expressa em termos da fdc de Z
n
como
F
Wn
(w)
_
_
w n
X
_
n
2
X
_
_
(5.11)
Para n grande, o teorema do limite central diz que F
Zn
(z) (z). Esta aproximao
a base para a maneira prtica de se utilizar o teorema do limite central.
Corolrio 5.17. Aproximao do teorema do limite central: Seja W
n
= X
1
+
X
2
+ + X
n
uma soma de v.a.s independentes e identicamente distribudas com
E[X] =
X
e Var[X] =
2
X
. A fdc de W
n
pode ser aproximada por
F
Wn
(w)
_
_
w n
X
_
n
2
X
_
_
Frequentemente chamamos a Denio 5.17 uma aproximao Gaussiana para W
n
.
5.9 Aplicaes do Teorema do Limite Central
O Teorema do Limite Central torna possvel fazer clculos rpidos e precisos que de
outra maneira seriam bastante complexos e demorados. Nestes, a v.a. de interesse
Somas de Variveis Aleatrias e o Teorema do Limite Central 119
uma soma de outras v.a.s, e calculamos as probabilidades dos eventos referindo-nos
v.a. Gaussiana correspondente.
Exemplo 5.17. Um disco digital compacto (CD) contm amostras digitalizadas de uma
forma de onda acstica.
Em um CD player com um conversor D/A de 1 bit, cada amostra digital repre-
sentada com uma preciso de 0, 5 mV.
Para minimizar o erro de reproduo, a forma de onda sobreamostrada tomando-
se oito medidas independentes para cada amostra. O valor nal da amostra da forma
de onda obtido calculando a mdia (mdia amostral) de oito medidas.
Qual a probabilidade de o erro na amostra da forma de onda ser maior que 0.05
mV?
Soluo. As medidas X
1
, . . . , X
8
tm distribuio uniforme na faixa (V 0, 5 mV) <
X < (V +0, 5 mV), onde V o valor exato da amostra da forma de onda. O CD player
produz a sada U = W
8
/8 onde
W
8
=
8

i=1
X
i
Para encontrar P[|U V | > 0.05] exatamente, precisaramos encontrar o modelo
de probabilidade exato para W
8
, ou calculando oito convolues da fdp uniforme de
X
i
ou ainda, usando a funo geratriz de momentos. De qualquer forma, o processo
extremamente complexo.
Alternativamente, podemos usar o Teorema do Limite Central para modelar W
8
como uma v.a. Gaussiana com = 8
X
= 8mV e varincia Var[W
8
] = 8/12.
Portanto, U uma v.a. Gaussiana com E[U] = E[W
8
]/8 = V e Var[W
8
]/64 = 1/96.
Finalmente, o erro U V na amostra da forma de onda de sada Gaussiano com
valor esperado zero e varincia 1/96. Segue ento que
P[|U V | > 0, 05] = 2
_
1
_
0, 05/
_
1/96
__
= 0, 62
Exemplo 5.18. Um modem transmite um milho de bits. Cada bit 0 ou 1 com
probabilidades iguais. Estime a probabilidade de pelo menos 502000 uns.
Soluo. Seja W o nmero de uns em um milho de bits. Note que E[W] = 500000 e
Var[W] = 10
6
/4 = 250000, de modo que
W
= 500. Pela aproximao do Teorema do
Limite Central,
P[W 502000] = 1 P[W < 502000] 1
_
502000 500000
500
_
= 1 (4)
Vericando os valores da funo () em tabelas matemticas, temos que
1 (4) = Q(4) = 3, 17 10
5
120 Somas de Variveis Aleatrias e o Teorema do Limite Central
5.10 Exerccios
1. Seja W
n
a soma de n arremessos independentes de um dado de quatro faces.
Encontre a mdia e a varincia de W
n
.
Resp: E[W
n
] = 2, 5n Var[W
n
] = 1, 25n
2. Sejam X e Y duas v.a.s exponenciais independentes com mdias E[X] = 1/3 e
E[Y ] = 1/2. Encontre a fdp de W = X +Y .
Resp: f
W
(w) = 6(e
2w
e
3w
)
3. A v.a. K tem fmp dada por
f
K
(k) =
_
0.2, k = 0, 1, 2, 3, 4
0, caso contrrio
Encontre a FGM
K
(s) de K. Use-a para encontrar os quatro primeiros momentos
de K.
Resp:
K
(s) = 0, 2(1 +e
s
+e
2s
+e
3s
+e
4s
)
E[K] = 2 E[K
2
] = 6 E[K
3
] = 20 E[K
4
] = 70, 8
4. Seja K
1
, K
2
, . . . uma sequncia de v.a.s independentes e identicamente distribu-
das, cada uma delas com distribuio dada por
f
K
(k) =
_
1/n, k = 1, 2, . . . , n
0, caso contrrio
Encontre a FGM de J = K
1
+K
2
+ +K
m
Resp:
J
(s) =
e
ms
(1 e
ns
)
m
n
m
(1 e
s
)
m
5. Seja X
1
, X
2
, . . . , X
n
uma sequncia de v.a.s gaussianas independentes de mdia
zero e varincia tal que Var[X
i
] = i. Encontre a fdp de
W = X
1
+
2
X
2
+ +
n
X
n
Resp: f
W
(w) =
1
_
2
2
W
e
w
2
/2
2
W
6. Seja X
1
, X
2
, . . . uma sequncia de v.a.s independentes e identicamente distribu-
das com fdp exponencial
f
X
(x) =
_
e
x
, x 0
0, caso contrrio
Seja N uma v.a. geomtrica com mdia 1/p. Qual a FGM de R = X
1
+ X
2
+
+X
N
? Adicionalmente, encontre a fdp de R.
Resp:
Somas de Variveis Aleatrias e o Teorema do Limite Central 121

R
(s) =
p
p s
f
R
(r) =
_
p e
pr
, r 0
0, caso contrrio
7. A v.a. X milissegundos o tempo total de acesso (tempo de espera + tempo
de leitura) para obter um bloco de informao de um disco de computador. X
uniformemente distribuda no intervalo de 0 a 12 milissegundos. Antes de realizar
uma determinada tarefa, o computador precisa acessar 12 blocos de informao
diferentes do disco. (Os tempos de acesso para blocos diferentes so independentes
um do outro). O tempo total de acesso para todas as informaes uma v.a. A
milissegundos.
(a) Calcule E[X], o valor esperado para o tempo de acesso.
(b) Calcule Var[X], a varincia do tempo de acesso.
(c) Calcule E[A], o valor esperado do tempo total de acesso.
(d) Calcule
A
, o desvio padro do tempo total de acesso.
(e) Use o Teorema do Limite Central para estimar P[A > 75 ms], a probabilidade
do tempo total de acesso exceder 75 ms.
(f) Use o Teorema do Limite Central para estimar P[A < 48 ms], a probabilidade
do tempo total de acesso ser menor que 48 ms.
Resp: a) E[X] = 6ms b) Var[X] = 12 c) E[A] = 72ms d) Var[A] = 144
e) P[A > 75] 0, 4013 f) P[A < 48] 0, 0227
8. Seja X
1
, X
2
, . . . uma sequncia de v.a.s independentes e identicamente distribu-
das com fdp uniforme entre 0 e 1, e seja N uma v.a. geomtrica com mdia
1/p.
a) Qual a FGM de R = X
1
+X
2
+ +X
N
?
b) Calcule a mdia e a varincia de R.
Resp:
(a)
R
(s) =
p(e
s
1)
s (1 p)(e
s
1)
(b) E[R] =
1
2p
Var[R] =
3 2p
12p
2
9. Seja X uma v.a. N(0, 1). Encontre a mdia e a varincia de Y = 2X + 1 usando
a funo geratriz de momentos.
Resp: E[Y ] = 1 e Var[Y ] = 4
10. Seja a funo geratriz de momentos de uma v.a. discreta dada por

X
(s) = 0.25e
s
+ 0.35e
3s
+ 0.40e
5s
Encontre P[X = 0], P[X = 1], P[X = 2], P[X = 3], P[X = 4] e P[X = 5].
Dica: lembre que, para o caso discreto,
X
(s) =

i
e
sx
i
f
X
(x
i
), e que f
X
(x
0
) =
P[X = x
0
].
122 Somas de Variveis Aleatrias e o Teorema do Limite Central
Resp: P[X = 0] = 0 P[X = 1] = 0, 25 P[X = 2] = 0 P[X = 3] = 0, 35
P[X = 4] = 0 P[X = 5] = 0, 40
11. Seja K
1
, K
2
, . . . uma sequncia de v.a.s iid com distribuio de Bernoulli, com
fmp dada por
p
K
(k) =
_

_
1 p k = 0
p k = 1
0 caso contrrio
Seja M = K
1
+K
2
+. . . +K
n
.
(a) Encontre a FGM
K
(s)
(b) Encontre a FGM
M
(s)
(c) Use
M
(s) para calcular E[M] e V ar[M].
Resp:
(a)
K
(s) = 1 p +pe
s
(b)
M
(s) = (1 p +pe
s
)
n
(c) E[M] = np e V ar[M] = np(1 p).
12. Suponha que durante o i-simo dia de dezembro, a energia X
i
armazenada por um
coletor solar bem modelada por uma v.a. gaussiana com mdia (32 i)/4 kWh
e desvio padro de 10 kWh. Assumindo que a energia armazenada a cada dia
independente de qualquer outro dia, qual a fdp de Y , a energia total armazenada
nos 31 dias de dezembro?
Resp: Gaussiana de mdia 124 e varincia 3100
13. O k-simo momento de uma v.a. discreta dado por
E[X
k
] = 0.8, k = 1, 2, . . .
(a) Encontre a funo geratriz de momentos de X.
(b) Encontre P[X = 0] e P[X = 1].
Resp:
(a)
X
(s) = 0, 2 + 0, 8e
s
(b) P[X = 0] = 0, 2 e P[X = 1] = 0, 8.
14. Seja X uma varivel aleatria com distribuio N(0, 1). Usando a funo geratriz
de momentos, determine E[X
n
] para n = 1, 2, 3.
Resp: E[X] = 0, E[X
2
] = 1 e E[X
3
] = 0.
Somas de Variveis Aleatrias e o Teorema do Limite Central 123
15. As chamadas telefnicas podem ser classicadas como sendo de voz (V ), se algum
est falando, ou de dados (D), se corresponder a uma transmisso de modem
ou fax. Baseado em uma grande quantidade de observaes realizadas por uma
companhia telefnica, temos o seguinte modelo de probabilidade: P[V ] = 0.8 e
P[D] = 0.2. As chamadas de voz e de dados ocorrem independentemente umas
das outras. Seja a varivel aleatria K
n
denida como o nmero de chamadas de
dados em uma coleo de n chamadas telefnicas.
(a) Calcule E[K
100
], o nmero esperado de chamadas de dados em um conjunto
de 100 chamadas.
(b) Calcule
K
100
, o desvio padro do nmero de chamadas de dados em um
conjunto de 100 chamadas.
(c) Use o Teorema do Limite Central para estimar P[K
100
18], ou seja, a
probabilidade de pelo menos 18 chamadas de dados em um conjunto de 100
chamadas telefnicas.
(d) Use o Teorema do Limite Central para estimar P[16 K
100
24], ou seja, a
probabilidade de existirem entre 16 e 24 chamadas de dados em um conjunto
de 100 chamadas telefnicas.
Dica: Q(x) = 1 Q(x).
Resp: (a) 20 (b) 4 (c) 0,6915 (d) 0,6826
16. Sejam X
1
, X
2
, . . . , X
n
n variveis aleatrias iid com distribuio de Cauchy
f
X
(x) =
a
(x
1
2
+a
1
2
)
, < x <
Seja a varivel aleatria Y
n
dada por
Y
n
=
1
n
(X
1
+ X
n
) =
1
n
n

i=1
X
i
(a) Encontre a funo caracterstica de Y
n
.
(b) Encontre a fdp de Y
n
.
(c) O Teorema do Limite Central se aplica neste caso? Justique sua resposta.
Resp: (a)
X
(j) = e
a||
(b) F
Yn
(y
n
) =
a
(y
2
n
+a
2
)
(c) no
17. Sejam X e Y duas variveis aleatrias independentes com distribuio uniforme
no intervalo (0, 1). Encontre e esboce a fdp de Z = X +Y .
Dica: faa a anlise para o intervalo (0 < z < 1) e depois para o intervalo
(1 < z < 2).
Resp: f
Z
(z) =
_

_
z 0 < z < 1
2 z 1 < z < 2
0 caso contrrio
124 Somas de Variveis Aleatrias e o Teorema do Limite Central
18. Seja K a soma de 20 variveis aleatrias iid com distribuio de Bernoulli com
probabilidade p = 0, 4 de produzir um resultado igual a 1. Usando o Teorema
do Limite Central, estime P[K = 8], e compare com o valor exato para esta
probabilidade.
Dica: Considere P[7, 5 < Z
n
< 8, 5] como aproximao para P[K = 8]. (Por
qu
a
?)
Resp: P[K = 8] 0, 1811.
19. O nmero N de servios submetidos a um computador em uma hora uma varivel
aleatria geomtrica com parmetro p, e os tempos de execuo destes trabalhos
so variveis aleatrias independentes com distribuio exponencial de mdia 1/.
Encontre a fdp da soma dos tempos de execuo dos trabalhos submetidos em uma
hora.
Resp: f
R
(r) =
_

p
e
p
r 0
0 caso contrrio
20. As resistncias dos resistores r
1
, r
2
, r
3
e r
4
so variveis aleatrias independen-
tes, cada uma delas uniformemente distribuda no intervalo (450,550). Usando o
Teorema do Limite Central, calcule P[1900 r
1
+r
2
+r
3
+r
4
2100].
Resp: 0,9164
Captulo 6
Limitantes Superiores para a
Probabilidade de Cauda
Neste captulo, iremos desenvolver desigualdades para probabilidades que podem ser
muito difceis de calcular exatamente. Geralmente, o desempenho de um sistema
determinado pela probabilidade de um evento indesejvel. Por exemplo, a medida
principal de um sistema de comunicao digital a probabilidade de um erro de bit.
Para um alarme de incndio, a probabilidade de um falso alarme no pode ser muito
grande; caso contrrio o alarme pode ser ignorado quando houver um incndio real.
Quando o clculo exato muito difcil de realizar, um limitante superior oferece um
meio de garantir que a probabilidade do evento indesejvel no ser muito alta.
6.1 Desigualdade de Markov
Teorema 6.1. Desigualdade de Markov. Para uma varivel aleatria X no
negativa e uma constante c > 0,
P[X c]
E[X]
c
Demonstrao. Desde que X no negativo, f
X
(x) = 0 para x < 0 e
E[X] =
_
c
0
xf
X
(x) dx +
_

c
xf
X
(x) dx

_

c
xf
X
(x) dx c
_

c
f
X
(x) dx = cP[X c]
importante lembrar que a desigualdade de Markov vlida somente para variveis
aleatrias no negativas. Como veremos no exemplo a seguir, geralmente o limitante
fornecido pela desigualdade de Markov bastante fraco.
126 Limitantes Superiores para a Probabilidade de Cauda
Exemplo 6.1. Seja X a altura (em ps) de um adulto selecionado aleatoriamente. Se
o valor mdio da altura E[X] = 5, 5, estime a probabilidade de um adulto ter pelo
menos 11 ps usando a desigualdade de Markov.
Soluo. A desigualdade de Markov arma que a probabilidade de um adulto ter pelo
menos 11 ps satisfaz
P[X 11]
5, 5
11
= 0, 5
Dizemos que a desigualdade de Markov folgada porque a probabilidade de uma
pessoa ter uma altura maior que 11 ps praticamente zero, enquanto que a desigual-
dade arma meramente que ela menor ou igual a 0,5. Embora esta desigualdade seja
extremamente folgada para muitas variveis aleatrias, ela apertada (de fato, uma
equao) com relao a algumas variveis aleatrias.
Exemplo 6.2. Suponha que uma v.a. Y tome o valor c > 0 com probabilidade p e o
valor 0 caso contrrio. Neste caso, E[Y ] = pc e utilizando a desigualdade de Markov,
temos
P[Y c] E[Y ]/c = p
Desde que P[Y c] = p, observamos que a desigualdade de Markov de fato uma
igualdade neste caso.
6.2 Desigualdade de Chebyshev
Teorema 6.2. Desigualdade de Chebyshev. Seja X uma v.a. com mdia m
x
e
varincia
2
X
nitas. Para todo nmero positivo
P [|X m
x
| ]

2
X

2
Demonstrao. P [|X m
x
| ] a probabilidade da v.a. X ter um valor na regio
A {x : |X m
x
| }, mostrada na Figura 6.1.
Limitantes Superiores para a Probabilidade de Cauda 127
x 0
f
X
(x)
-
6
......................................................
......................................................
................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................ ......
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
..... .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Figura 6.1: Regio A (sombreada).
Usando a expresso da varincia, podemos escrever

2
X
=
_
+

(x m
x
)
2
f
X
(x) dx
_
A
(x m
x
)
2
f
X
(x) dx
Mas da denio da regio A, temos |X m
x
| |X m
x
|
2

2
, x A.
Assim
_
A
(x m
x
)
2
f
X
(x) dx
2
_
A
f
X
(x) dx
Mas
_
A
f
X
(x) dx = P [|X m
x
| ] e ento podemos escrever

2
X

2
P [|X m
x
| ] P [|X m
x
| ]

2
X

2
Diferentemente da desigualdade de Markov, a desigualdade de Chebyshev vlida
para todas as v.as. Enquanto a desigualdade de Markov necessita apenas do valor
esperado de uma v.a., a desigualdade de Chebyshev necessita tambm da varincia. Por
usar mais informaes sobre a v.a., a desigualdade de Chebyshev geralmente fornece um
limitante mais apertado do que a desigualdade de Markov.
Exemplo 6.3. Se a altura X de um adulto escolhido aleatoriamente tem valor esperado
E[X] = 5, 5 ps, e desvio padro
X
= 1 ps, use a desigualdade de Chebyshev para
encontrar um limitante superior para P[X 11].
Soluo. Desde que a altura X no negativa, a probabilidade do evento X 11 pode
ser escrita como
P[X 11] = P[X
X
11
X
] = P[|X
X
| 5, 5]
Usamos agora a desigualdade de Chebyshev para obter
P[X 11] = P[|X
X
| 5, 5]
V ar[X]
(5, 5)
2
=
1
(5, 5)
2
= 0, 033
Embora este limitante seja melhor que o obtido pela desigualdade de Markov,
tambm bastante folgado. De fato, P[X 11] na prtica muitas ordens de magnitude
menor que 0,033.
128 Limitantes Superiores para a Probabilidade de Cauda
6.3 Limitante de Cherno
O limitante de Chebyshev dado acima envolve a rea das duas caudas da fdp. Em
algumas aplicaes estamos interessados somente na rea de uma das caudas (, )
ou (, ). Neste caso, podemos obter uma estimativa bastante justa, utilizando um
limitante exponencial.
Teorema 6.3. Limitante de Cherno. Para uma v.a. X e uma constante c
arbitrrias,
P[X c] min
s0
e
sc

X
(s)
Demonstrao. Em termos da funo degrau unitrio, observamos que
P[X c] =
_
+
c
f
X
(x)dx =
_
+

u(x c)f
X
(x)dx
Para todo s 0, u(x c) e
s(xc)
, pois e
s(xc)
representa uma famlia de curvas
que passa pelo ponto c, como mostrado na Figura 6.2. Isto implica em
P[X c]
_
+

e
s(xc)
f
X
(x)dx = e
sc
_
+

e
sx
f
X
(x)dx = e
sc

X
(s)
Este limitante vlido para qualquer s 0. O limitante superior mais apertado
obtido selecionando-se o valor de s que minimiza e
sc

X
(s).
0
1
c x
u(x c)
e
s(xc)
Figura 6.2: Um limitante superior exponencial usado para obter a probabilidade de
cauda (limitante de Cherno).
O limitante de Cherno pode ser aplicado a qualquer v.a. Entretanto, para valores
pequenos de c, e
sc

X
(x) ir ser minimizada por um valor negativo de s. Neste caso, o
Limitantes Superiores para a Probabilidade de Cauda 129
valor de s no negativo que minimiza esta expresso s = 0, o que fornece a resposta
trivial: P[X c] 1
Exemplo 6.4. Se a altura X de um adulto escolhido aleatoriamente uma v.a. gaus-
siana com valor esperado E[X] = 5, 5 ps e desvio padro
X
= 1 ps, use o limitante
de Cherno para encontrar um limitante superior para P[X 11]
Soluo. Desde que X N(5, 5, 1), a FGM de X

X
(s) = e
(11s+s
2
)/2
Ento o limitante de Cherno
P[X 11] min
s0
e
11s
e
(11s+s
2
)/2
= min
s0
e
(s
2
11s)/2
Para encontrar s que minimiza a expresso acima, suciente encontrar s que mi-
nimize h(s) = s
2
11s. Tomando a derivada de h(s) em relao a s e igualando a
zero
dh(s)
ds
= 2s 11 = 0 s = 5, 5
Substituindo este valor de s ao limitante de Cherno, chegamos a
P[X 11] e
(s
2
11s)/2

s=5,5
= e
(5,5)
2
/2
= 2, 7 10
7
6.4 Exerccios
1. Em uma estao de metr, existem usurios sucientes para completar exatamente
trs trens. Os trens chegam estao segundo um processo de Poisson de taxa
= 0.5 trens/minuto.
Seja X igual ao tempo em minutos requerido para servir os passageiros em espera.
Encontre limitantes superiores para P[X 30 minutos] usando as desigualdades
de Markov, Chebyshev e Cherno.
Dicas: i) o tempo entre chegadas pode ser modelado por uma varivel aleatria
com distribuio exponencial; ii) a soma de m variveis aleatrias com distribuio
exponencial uma varivel aleatria com distribuio m-Erlang.
Resp:
Markov: P[X 30] =
1
5
Chebyshev: P[X 30] =
1
48
Cherno : P[X 30] = 7, 68 10
4
2. A mdia e a varincia do tempo de resposta de um sistema de computador mul-
tiusurio so 15 segundos e 4 segundos, respectivamente. Estime a probabilidade
de o tempo de resposta ser superior a 4 segundos da mdia, usando a desigualdade
de Chebyshev.
Resp: 0,25
130 Limitantes Superiores para a Probabilidade de Cauda
3. Dada uma v.a. X com fdp gaussiana de mdia zero e varincia
2
, estime a
probabilidade dos eventos (2 X +2), (3 X +3) e (4 X
+4) usando:
(a) a funo Q(x);
(b) a desigualdade de Chebyshev;
(c) a desigualdade de Cherno.
Resp:
(a) Usando a funo Q(x):
P[2 X 2] = 0, 9545
P[3 X 3] = 0, 9973
P[4 X 4] = 0, 9999
(b) Usando a desigualdade de Chebyshev:
P[2 X 2] = 0, 75
P[3 X 3] = 0, 89
P[4 X 4] = 0, 9375
(c) Usando a desigualdade de Cherno:
P[2 X 2] = 0, 7293
P[3 X 3] = 0, 9778
P[4 X 4] = 0, 9993
4. Use o limitante de Cherno para mostrar que uma v.a. Z com distribuio N(0,1)
satisfaz
P[Z c] e
c
2
/2
Para c = 1, 2, 3, 4, verique a diferena entre o limitante e o valor real da proba-
bilidade.
Resp: Na tabela abaixo tem-se os valores aproximados pelo limitante de Cherno,
e os valores exatos, dados pela funo Q(x).
Cherno Q(x)
P[Z 1] 0, 6065 0, 1587
P[Z 2] 0, 1353 0, 0228
P[Z 3] 0, 0111 1, 35 10
3
P[Z 4] 0, 0003 3, 17 10
5
P[Z 5] 3, 7267 10
6
3, 0 10
7
5. Para uma varivel aleatria arbitrria X, use a desigualdade de Chebyshev para
estimar a probabilidade de X assumir um valor maior que k desvios padres da
mdia.
Resp: 1/k
2
.
6. Use o limitante de Cherno para encontrar um limitante superior para P[X c]
quando X uma varivel aleatria N(,
2
.
Resp: P[X c] e

(c)
2
2
2
Limitantes Superiores para a Probabilidade de Cauda 131
7. Para uma varivel aleatria arbitrria X, use a desigualdade de Chebyshev, calcule
a probabilidade de X assumir valores maiores que k desvios padres de seu valor
esperado E[x]. Compare os valores obtidos com os valores exatos quando X uma
varivel aleatria com distribuio N(0, 1). Faa para 1, 2, 3 e 4 desvios padres.
Resp: 1/k
2
.
8. Seja X uma varivel aleatria com mdia 10 e varincia 15. O que podemos dizer
sobre P[5 < X < 15]?
Resp: P[|X 10| 5] 2/5
Captulo 7
A mdia amostral
7.1 Introduo
Vimos no Captulo 1 que a frequncia relativa a razo entre o nmero de vezes que
um evento ocorre e o nmero de vezes que um experimento realizado. Se realizamos
um experimento repetidas vezes, esperamos que a frequncia relativa de cada evento
convirja para uma constante medida em que o nmero de repeties cresce.
Neste captulo vamos denir a mdia amostral de uma v.a. e mostrar que muitas
quantidades interessantes, incluindo a frequncia relativa, podem ser expressas em ter-
mos da mdia amostral. Em sees posteriores, iremos mostrar matematicamente como
a mdia amostral converge para uma constante medida que o nmero de repeties
de um experimento cresce.
Este captulo, portanto, fornece a base matemtica para a armativa de que embora
o resultado de um nico experimento aleatrio seja imprevisvel, padres de comporta-
mento previsveis emergem quando coletamos mais e mais dados.
7.2 Valor esperado e varincia
Para denir a mdia amostral, consideremos tentativas repetidas e independentes de um
experimento aleatrio. Cada tentativa resulta em uma observao da v.a. X. Depois
de n tentativas, temos valores amostrais de n v.a.s X
1
, X
2
, . . . , X
n
todas com a mesma
fdp de X. A mdia amostral a mdia aritmtica das observaes.
Denio 7.1. Mdia Amostral: Para as v.a.s X
1
, X
2
, . . . , X
n
independentes
e identicamente distribudas com fdp f
X
(x), a mdia amostral de X a varivel
aleatria
M
n
(X) =
X
1
+X
2
+ +X
n
n
=
1
n
n

i=1
X
i
A primeira coisa a ser notada que M
n
(X) uma funo das v.a.s X
1
, X
2
, . . . , X
n
e portanto tambm uma v.a. importante distinguir a mdia amostral M
n
(X) do
valor esperado E[X] da v.a. X. Enquanto M
n
(X) uma v.a., E[X] um nmero.
A mdia amostral 133
A mdia amostral e o valor esperado de X esto intimamente relacionados. Desta
forma o propsito maior deste captulo explorar o fato de que medida que n cresce
sem limite, M
n
(X) aproxima E[X].
Dependendo da denio da v.a. X, podemos usar a mdia amostral para descrever
vrios aspectos de um experimento. Por exemplo, se queremos explorar P[A], a proba-
bilidade de um evento arbitrrio A, podemos denir uma v.a. indicadora X
A
tal que
X
A
= 1 se o evento A ocorre, e X
A
= 0 caso contrrio. Neste caso, X
A
uma v.a.
de Bernoulli com probabilidade de sucesso P[A] de modo que E[X
A
] = P[A]. Desde
que as propriedades gerais do valor esperado de uma v.a. aplicam-se a E[X
A
], podemos
ver que as tcnicas para estimar valores esperados iro tambm nos permitir estimar as
probabilidades de eventos arbitrrios.
O valor esperado e a varincia de M
n
(X) revelam as propriedades mais importantes
da mdia amostral:
Teorema 7.1. A mdia amostral M
n
(X) tem valor esperado e varincia dados por
E[M
n
(X)] = E[X]
Var[M
n
(X)] =
Var[X]
n
Demonstrao. Usando a Denio 7.1, o Teorema 5.1 e o fato de que E[X
i
] = E[X]
para todo i,
E[M
n
(X)] =
1
n
(E[X
1
] +E[X
2
] + +E[X
n
]) =
1
n
(E[X] + +E[X])
. .
n vezes
= E[X]
Para a varincia, temos o seguinte:
Var[M
n
(X)] = E[M
2
n
(X)] E
2
[M
n
(X)] = E[M
2
n
(X)] E
2
[X]
=
1
n
2
n

i=1
n

j=1
E[X
i
X
j
] E
2
[X]
=
1
n
2
n

i=1
i=j
E[X
2
i
] +
1
n
2
n

i=1
i=j
n

j=1
E[X
i
X
j
] E
2
[X]
=
1
n
_

2
X
+E
2
[X]
_
+
1
n
2
n(n 1)E
2
[X] E
2
[X]
=

2
X
n
Quando M
n
(X) vista como uma estimativa para a mdia m
x
, nota-se que seu
valor esperado igual a m
x
e sua varincia decresce inversamente com o nmero n de
134 A mdia amostral
amostras. medida que n , a varincia
2
X
tende a zero. Uma estimativa de um
parmetro (neste caso a mdia m
x
) que satisfaz a condio de que seu valor esperado
converge para o valor real do parmetro e a varincia converge para zero medida que
n dita uma estimativa consistente.
7.3 Mdia amostral de nmeros grandes
Quando aplicamos a desigualdade de Chebyshev a Y = M
n
(X), obtemos informaes
importantes sobre as amostras independentes de uma v.a.
Teorema 7.2. Para qualquer constante c, a mdia amostral M
n
(X) satisfaz
(a) P[|M
n
(X)
X
| c]
Var[X]
nc
2
=
(b) P[|M
n
(X)
X
| < c] 1
Var[X]
nc
2
= 1
Demonstrao. Seja Y = M
n
(X). O Teorema 7.1 diz que
E[Y ] = E[M
n
(X)] =
X
Var[Y ] = Var[M
n
(X)] = Var[X]/n
Aplicando a desigualdade de Chebyshev a Y = M
n
(X), conseguimos provar o item
a). O item b) apenas uma rearmao do item a), desde que
P[|M
n
(X)
X
| c] = 1 P[|M
n
(X)
X
| < c]
Observaes
O Teorema 7.2(b) contm duas desigualdades. Uma desigualdade,
|M
n
(X)
X
| < c
dene um evento. Este evento diz que a mdia amostral est c unidades do valor
esperado. O comprimento do intervalo que dene este evento, 2c unidades, chamado
de intervalo de conana.
A outra desigualdade arma que a probabilidade da mdia amostral estar no inter-
valo de conana pelo menos 1. Chamaremos a quantidade 1 = 1 Var[X]/(nc
2
)
de coeciente de segurana. Se pequeno, podemos ter grande conana de que
M
n
(X) est no intervalo (
X
c,
X
+c)
No Teorema 7.2(a) observamos que para qualquer nmero c positivo, independente
de quo pequeno seja, podemos fazer to pequeno quanto desejarmos escolhendo n
grande o suciente.
Em uma aplicao prtica, c indica a preciso desejada de uma estimativa para
X
,
1 indica a coana que temos de ter alcanado esta preciso, e n nos diz quantas
amostras foram necessrias para alcanar o valor desejado de 1 .
A mdia amostral 135
Alternativamente, dados Var[X], n e , o Teroma 7.2(b) nos diz o tamanho c do
intervalo de conana.
Exemplo 7.1. O Teorema 7.2(b) d origem a declaraes que ouvimos no noticirio,
tais como:
Baseada em uma amostra de 1103 eleitores, a porcentagem de pessoas que apoiam o
candidato Jos da Silva de 58 % com preciso de mais ou menos 3 pontos percentuais.
Comente estes fatos.
Soluo. O experimento consiste em observar um eleitor escolhido aleatoriamente e
determinar se o mesmo apia ou no o candidato Jos da Silva.
Vamos associar o valor X = 1 se o eleitor apoiar o candidato Jos da Silva, e X = 0
caso contrrio.
Portanto, X uma v.a. com distribuio de Bernoulli com valor esperado E[X] = p
e varincia p (1 p), onde p = p
X
(1). Para c = 0, 03, o Teorema 7.2(b) diz
P[|M
n
(X) p| < 0, 03] 1
p (1 p)
n(0, 03)
2
= 1
Desta forma o coeciente de conana para a estimativa de p dado por
1 = 1
p (1 p)
n(0, 03)
2
Devemos sempre ter em mente que temos grande conana em nosso resultado
quando pequeno. Entretanto, dede que no sabemos o valor real de p, gostaramos
de ter conana em nossos resultados independentemente do valor de p.
Analisando a funo x(1 x) para x entre 0 e 1, verica-se que a mesma tem
um mximo igual a 1/4 em x = 1/2. Ento para todos os valores de p entre 0 e 1,
Var[X] = p (1 p) 0, 25. Desta forma, podemos concluir que
1 1
0, 25
n(0, 03)
2
= 1
277, 778
n
Ento para n = 1103 amostras, 1 0, 75. Isto nos diz que nossa estimativa de p
est dentro de 3 pontos percentuais de p com probabilidade de pelo menos 1 = 0, 75.
7.4 Leis de Nmeros Grandes
Alm da Desigualdade de Chebyshev e do Teorema 7.2(a), os quais descrevem as pro-
priedades estatsticas de colees de dados, temos as leis de nmeros grandes, que se
referem a limites quando estas colees crescem sem limite.
136 A mdia amostral
7.4.1 Lei Fraca de Nmeros Grandes
Teorema 7.3. Lei Fraca de Nmeros Grandes. Se Var[X] < , ento para
qualquer constante c > 0, a mdia amostral M
n
(X) satisfaz
(a) lim
n
P[|M
n
(X)
X
| c] = 0
(b) lim
n
P[|M
n
(X)
X
| < c] = 1
Demonstrao. A prova deste teorema segue diretamente dos resultados do Teorema
7.2 desde que
P[|M
n
(X)
X
| c] = 1 P[|M
n
(X)
X
| < c]
A lei fraca de nmeros grandes arma que, para um valor sucientemente grande e
fixo de n, a probabilidade da mdia amostral usando n amostras estar perto da mdia
real alta.
Como podemos ver no exemplo seguinte, a lei fraca de nmeros grandes tambm
valida a interpretao de frequncia relativa de probabilidades.
Exemplo 7.2. Suponha que realizemos n tentativas independentes de um experimento.
Vamos denir a v.a. indicadora para o evento A como
X
i
=
_
1, se A ocorre na tentativa i
0, caso contrrio
X
1
, X
2
, . . . uma sequncia aleatria de Bernoulli com probabilidade de sucesso
P[A]. Ento E[X
i
] = P[A] e Var[X
i
] = P[A](1 P[A]).
A frequncia relativa de A em n tentativas
R
n
= M
n
(X) =
X
1
+X
2
+ +X
n
n
Desde que E[R
n
] = E[X
i
] = P[A], o Teorema 7.3(a) diz que
lim
n
P[|R
n
P[A]| c] = 0
Portanto, medida que n , R
n
P[A], que a verso matemtica da ar-
mao de que medida que o nmero de observaes cresce sem limite, a frequncia
relativa de qualquer evento aproxima a probabilidade do evento.
A mdia amostral 137
7.4.2 Lei Forte de Nmeros Grandes
Suponha que realizemos uma srie de medidas independentes da mesma v.a. Seja
X
1
, X
2
, . . . a sequncia resultante de v.a.s identicamente distribudas com mdia .
Considere agora uma sequncia de mdias amostrais que resulta das medidas acima:
M
1
, M
2
, . . . , onde M
j
a mdia amostral usando as amostras X
1
at X
j
. Por causa da
regularidade estatstica do experimento, espera-se que esta sequncia de mdias amos-
trais convirja para , isto , esperamos que com probabilidade alta, cada sequncia
particular de mdias amostrais aproxime-se de e permanea l, como mostrado na
Figura 7.1. Formalmente, podemos escrever este resultado da seguinte maneira:
Teorema 7.4. Seja X
1
, X
2
, . . . uma sequncia de v.a.s independentes e identica-
mente distribudas com mdia E[X] = e varincia nitas. Ento
P
_
lim
n
M
n
(X) =
_
= 1
Este resultado similar quele obtido no Teorema 7.3, mas na verdade faz uma
armao dramaticamente diferente: arma que com probabilidade 1, toda sequncia
de clculos de mdias amostrais ir eventualmente aproximar-se e permanecer perto de
E[X] = . Este o tipo de convergncia que esperamos observar em situaes reais
onde haja regularidade estatstica.
Figura 7.1: Convergncia de uma sequncia de mdias amostrais obtidas a partir de
uma sequncia de v.a.s com distribuio Gaussiana de mdia 4 e varincia 10.
138 A mdia amostral
7.5 Exerccios
1. Suponha que o nmero de emisses de partculas de uma massa radioativa em t se-
gundos uma v.a. com distribuio de Poisson com mdia t. Use a desigualdade
de Chebyshev para obter um limitante para P[|N(t)/t | > ].
Resp: P[|N(t)/t | ] /
2
t
2. Suponha que 10 % dos eleitores esto a favor de certa lei. Um grande nmero n
de eleitores consultado e obtm-se uma estimativa por frequncia relativa f
A
(n)
da proporo acima. Use o Teorema 7.2 para determinar quantos eleitores devem
ser consultados de modo a termos uma probabilidade de pelo menos 0,95 de f
A
(n)
diferir de 0,10 em menos de 0,02.
Resp: n = 4500
3. Um dado ideal arremessado 100 vezes. Use o Teorema 7.2 e encontre um limi-
tante para a probabilidade de o nmero total de pontos estar entre 300 e 400.
Resp: P[|M
n
(x) 350| 50] = 0, 9994
4. Seja X
i
uma sequncia de v.a.s Gaussianas independentes de mdia zero e va-
rincia unitria. Compare o limitante dado pela Teorema 7.2 com o valor exato
para n = 10 e n = 100.
Resp: Para c = 4, temos:
(a) Valor exato: P[|M
n
(x) < 4] = 1 2Q(4) 0, 9999367
(b) n = 10: P[|M
n
(x) < 4] 0, 99375
(c) n = 100: P[|M
n
(x) < 4] 0, 999375
5. (Para ser feito no MATLAB) Gere sequncias de nmeros aleatrios com diversas
distribuies, variando a mdia (e a varincia, quando for o caso) e calcule as
sequncias de mdias amostrais. Com isto podemos comprovar na prtica a lei
forte de nmeros grandes.
6. Deseja-se medir uma tenso constante mas desconhecida. Cada medida X
j
na
verdade a soma da tenso desejada v com a tenso do rudo N
j
de mdia zero e
desvio padro de 1 V
X
j
= v +N
j
Assuma que as tenses do rudo so v.a.s independentes. Quantas medidas sero
necessrias de modo que a probabilidade de M
n
(X) esteja a = 1V da mdia
verdadeira seja pelo menos 0,99?
Resp: n 100
7. Seja X uma varivel aleatria com funo densidade de probabilidade f
X
(x), e
seja X
1
, X
2
, . . . , X
n
um conjunto de variveis aleatrias independentes, cada qual
com funo densidade de probabilidade f
X
(x). O conjunto de variveis aleatrias
X
1
, X
2
, . . . , X
n
chamado de uma amostra aleatria de tamanho n de X. A mdia
amostral denida como
A mdia amostral 139
X
n
=
1
n
(X
1
+ +X
n
) =
1
n
n

i=1
X
i
Seja X
1
, X
2
, . . . , X
n
uma amostra aleatria de X com mdia e varincia
2
.
Quantas amostras de X devemos tomar para que a probabilidade da mdia amos-
tral desviar da mdia real por mais que /10 seja de pelo menos 0, 95?
Resp: n 2000
Captulo 8
Processos Estocsticos
8.1 Denio
A noo de processo estocstico uma extenso do conceito de v.a. Considere, por
exemplo, a temperatura X de uma certa cidade ao meio dia. A temperatura X uma
v.a. e toma valores diferentes a cada dia. Para obter as estatsticas completas de X,
precisamos armazenar valores de temperatura durante vrios dias (um grande nmero
de tentativas). A partir destes dados podemos determinar f
X
(x), a fdp da v.a. X.
Mas a temperatura tambm funo do tempo. uma da tarde, por exemplo, a
temperatura pode ter uma distribuio totalmente diferente daquela obtida para o meio
dia. Ento a v.a. X uma funo do tempo, e pode ser expressa como X(t).
Denio 8.1. Uma v.a. que uma funo do tempo chamada de um processo
estocstico (ou processo aleatrio).
Para especicar uma v.a. X, repetimos um experimento vrias vezes e a partir dos
resultados, determinamos a sua fdp f
X
(x). Similarmente, para especicar um processo
estocstico X(t), fazemos a mesma coisa para cada valor de t.
Continuando com nosso exemplo, precisamos armazenar temperaturas dirias para
cada valor de t (cada hora do dia). Isto pode ser feito armazenando-se temperaturas a
cada instante do dia. Este procedimento fornece uma forma de onda X(t;
i
) onde
i
indica o dia em que foi feita a medida. Precisamos repetir este procedimento todos os
dias por um grande nmero de dias.
A coleo de todas as formas de onda possveis conhecida como o conjunto do
processo estocstico X(t), e uma forma de onda nesta coleo uma funo amostra
(ao invs de um ponto amostral) do processo estocstico. As amplitudes das funes
amostra em algum instante t = t
1
so os valores que a v.a. X(t
1
) assume em vrias
tentativas. Na Figura 8.1 tem-se o conceito que acabamos de denir em forma grca.
Podemos ver um processo estocstico de outra forma. No caso de uma v.a., o resul-
tado de cada tentativa de um experimento aleatrio um nmero. Para um processo
estocstico o resultado de cada tentativa uma forma de onda (uma funo amostra)
que uma funo de t. O nmero de formas de onda em um conjunto pode ser nito
ou innito. No caso do processo estocstico X(t) (a temperatura de uma cidade), o
Processos Estocsticos 141
t
1
t
2
t
t
t
t
X(t
1
) = x
1
X(t
2
) = x
2
X(t,
1
)
X(t,
2
)
X(t,
3
)
X(t,
4
)
Figura 8.1: Um processo estocstico que representa a temperatura de uma cidade.
conjunto tem innitas formas de onda. Por outro lado, se considerarmos a sada de
um gerador de sinais binrios (sobre um perodo de 0 a 10T ) existem no mximo 2
10
formas de onda neste conjunto (Figura 8.2).
X(t,
1
)
X(t,
2
)
X(t,
3
)
X(t,
4
)
t
t
t
t
Figura 8.2: Um conjunto com um nmero nito de funes amostra.
Um ponto que precisa ser esclarecido que as formas de onda (funes amostra) no
so aleatrias, mas determinsticas. A aleatoriedade neste caso associada no com a
forma de onda mas com a incerteza de qual delas vai ocorrer em uma dada tentativa.
142 Processos Estocsticos
Isto completamente anlogo ao caso de uma v.a. Por exemplo, no experimento de jogar
uma moeda quatro vezes em sucesso, existem 16 resultados possveis, todos conhecidos.
A aleatoriedade nesta situao est associada no aos resultados mas com a incerteza
de qual deles ir ocorrer em uma dada tentativa.
8.2 Tipos de procesos estocsticos
Os processos estocsticos podem ser classicados em termos dos valores que podem
assumir assim como dos instantes de tempo em que podem sofrer mudanas. Segundo
esta tica, podem ser classicados em processos de valor discreto e valor contnuo, e
processos de tempo discreto e tempo contnuo.
Denio 8.2. Processos de valor contnuo e de valor discreto: X(t) um
processo de valores discretos se o conjunto de todos os valores possveis de X(t) para
todos os instantes de tempo t um conjunto contvel S
X
; caso contrrio, X(t) um
processo de valores contnuos.
Denio 8.3. Processos de tempo contnuo e tempo discreto. O processo
estocstico X(t) de tempo discreto se X(t) denido apenas para um conjunto de
instantes de tempo t
n
= nT, onde T uma constante e n um inteiro; caso contrrio,
X(t) um processo de tempo contnuo
Estes conceitos so ilustrados na Figura 8.3. Nesta, podemos identicar que para o
processo X(t), existem quatro possibilidades bsicas:
amplitude discreta, tempo discreto
amplitude discreta, tempo contnuo
amplitude contnua, tempo discreto
amplitude contnua, tempo contnuo
Para um processo de tempo discreto, a funo amostra completamente descrita
pela sequncia ordenada de variveis aleatrias X
n
= X(nT).
Denio 8.4. Sequncia aleatria. Uma sequncia aleatria uma sequncia
ordenada de variveis aleatrias X
0
, X
1
, . . .
Processos Estocsticos 143
X(t)
X(n)
Y (t)
Y (n)
Figura 8.3: Funes amostra de quatro tipos de processos estocsticos: X(t) um
processo contnuo no tempo e na amplitude; X(n), obtido a partir da amostragem de
X(t) em instantes de tempo inteiros n, discreto no tempo e contnuo na amplitude;
Y (t) obtida a partir da quantizaco de X(t) nos instantes de amostragem, e um
processo discreto na amplitude e contnuo no tempo; nalmente, Y (n), um processo
discreto no tempo e na amplitude, obtido a partir da amostragem de Y (t).
Alm de caracterizar os processos estocsticos em relao sua natureza temporal
e das amplitudes, podemos classic-los quanto ao seu tempo de durao:
Denio 8.5. Processos de durao nita, semi-innita e innita.
a) X(t) um processo de durao nita t
2
t
1
se para todo s, x(t, s) = 0 para
t < t
1
e t > t
2
> t
1
.
b) X(t) um processo de durao semi-innita se para todo s, x(t, s) = 0, para
t < t
1
.
c) caso contrrio, X(t) um processo de durao innita.
8.3 Variveis aleatrias a partir de processos estocsticos
Suponha que estamos observando um processo estocstico em um instante de tempo
particular t
1
. Neste caso, cada vez que realizamos um experimento, observamos uma
funo amostra x(t, s) e esta funo amostra especica o valor de x(t
1
, s). Cada vez que
realizamos o experimento, temos um novo s e observamos um novo x(t
1
, s). Portanto,
144 Processos Estocsticos
cada x(t
1
, s) uma amostra de uma varivel aleatria. Aqui usada a notao X(t
1
)
para esta varivel aleatria. Como qualquer outra varivel aleatria, tem ou uma fdp
f
X(t
1
)
(x) ou uma fmp p
X(t
1
)
(x). Note que a notao X(t) pode se referir tanto a um
processo estocstico como a uma varivel aleatria, correspondente ao valor do processo
estocstico no instante t. Nas sees subsequentes, ir car claro a partir do contexto
se estamos nos referindo ao processo inteiro ou uma varivel aleatria.
Exemplo 8.1. Seja X(t) = R| cos(2ft)| um sinal cossenoidal reticado com amplitude
aleatria R com fdp exponencial
f
R
(r) =
_

_
1
10
e
r/10
, r 0
0, caso contrrio
Qual a fdp de f
X(t
1
)
(x)?
Soluo. Desde que X(t) 0 para todo t, P[X(t) x] = 0 para x < 0. Quando x 0
e cos(2ft) = 0,
P[X(t) x] = P[R x/| cos(2ft)|] =
_
x/| cos(2ft)|
0
f
R
(r) dr = 1 e
x/10| cos(2ft)|
Quando cos(2ft) = 0, a cdf completa de X(t)
F
X(t)
(x) =
_

_
0, x < 0
1 e
x/10| cos(2ft)|
, x 0
Quando cos(2ft) = 0, a fdp completa de X(t)
f
X(t)
(x) =
dF
X(t)
(x)
dx
_

_
0, x < 0
1
10| cos(2ft)|
e
x/10| cos(2ft)|
, x 0
Quando | cos(2ft)| = 0, o que corresponde a t = /2 +k, X(t) = 0 independente
de quo grande R possa ser. Neste caso, f
X(t)
(x) = (x). Neste exemplo, existe uma
varivel aleatria diferente para cada valor de t.
Quando X(t) um processo de tempo discreto, toda informao sobre o mesmo est
contida no valor da constante T na Denio 8.3 e a sequncia de variveis aleatrias,
X(nT), n = . . . , 2, 1, 0, 1, 2, . . .
Processos Estocsticos 145
Exemplo 8.2. Suponha que nos instantes de tempo T = 0, 1, 2, . . . , jogamos um dado
e anotamos o resultado N
T
, onde 1 N
T
6. Denimos um processo estocstico
X(t) tal que para T T < T + 1, X(t) = N
T
. Neste caso, o experimento consiste em
uma sequncia innita de jogadas, e uma funo amostra apenas uma forma de onda
correspondente sequncia particular dos resultados observados.
Seja X
n
= X(nT). Qual a fmp de X
3
?
Soluo. a varivel aleatria X
3
o valor da jogada do dado no instante 3. Neste caso,
p
X
3
(x) =
_
1/6, x = 1, 2, . . . , 6
0, caso contrrio
Vimos no Captulo 2 que a fdp f
X
(x) um modelo probabilstico completo para a
varivel aleatria X. Similarmente, para um par de variveis aleatrias X
1
, X
2
, preci-
samos da fdp conjunta f
X
1
,X
2
(x
1
, x
2
). Vimos tambm que as fdps marginais f
X
1
(x
1
) e
f
X
2
(x
2
) no so sucientes para descrever este par de variveis aleatrias.
Para processos estocsticos, a situao similar. Se amostramos um processo em
k instantes de tempo t
1
, . . . , t
k
, obtemos k variveis aleatrias X(t
1
), . . . , X(t
k
).
possvel ver esta coleo de variveis aleatrias como um vetor k-dimensional [X(t
1
),
X(t
2
) . . . , X(t
k
)], chamado de vetor aleatrio.
8.4 Sequncias aleatrias independentes e identicamente
distribudas
Denio 8.6. Sequncias iid. Uma sequncia aleatria independente e
identicamente distribuda (iid) uma sequncia aleatria X
n
para a qual
. . . , X
2
, X
1
, X
0
, X
1
, X
2
, . . . so variveis aleatrias iid.
Uma sequncia aleatria ocorre quando realizamos tentativas independentes de um
experimento a uma taxa constante. Uma sequncia aleatria pode assumir tanto valo-
res discretos quanto contnuos. No caso discreto, cada varivel aleatria X
i
tem fmp
p
X
i
(x) = p
X
(x), enquanto que no caso contnuo, cada X
i
tem fdp f
X
i
(x) = f
X
(x).
Exemplo 8.3. Em uma linha de produo de resistores de 1000, a resistncia real de
cada resistor uma varivel aleatria R com distribuio uniforme entre 950 e 1050.
Assuma que os valores das resistncias dos diferentes resistores so independentes. A
companhia tem uma encomenda de resistores de 1% de tolerncia (resistncias entre
990 e 1010). Um testador automtico toma um resistor por segundo e mede sua re-
sistncia exata. Seja R
n
igual ao nmero de resistores com tolerncia de 1% encontrados
durante o minuto n. Assim, a varivel aleatria R
n
tem fmp binomial
146 Processos Estocsticos
p
Rn
(r) =
_
_
60
r
_
p
r
(1 p)
60r
, r = 0, 1, . . . , 60
0, caso contrrio
Desde que cada resistor um resistor de tolerncia 1% independentemente de todos
os outros resistores, o nmero de resistores com tolerncia de 1% encontrados a cada
minuto independente do nmero encontrado em outros minutos. Ento, R
1
, R
2
, . . .
uma sequncia aleatria iid.
Para uma sequncia aleatria, a distribuio conjunta de um vetor amostra X
1
, X
2
,
. . . , X
n
fcil de escrever desde que o produto das fdps ou fmps indivivuais.
Teorema 8.1. Seja X
n
uma sequncia aleatria iid. Para um processo de valor
discreto, o vetor amostra X
n
1
, . . . , X
n
k
tem fmp conjunta
p
Xn
1
,...,Xn
k
(x
1
, . . . , x
k
) = p
X
(x
1
)p
X
(x
2
) p
X
(x
k
) =
k

i=1
p
X
(x
i
)
Se o processo assume valores contnuos, ento a fdp conjunta de X
n
1
, . . . , X
n
k
dada
por
f
Xn
1
,...,Xn
k
(x
1
, . . . , x
k
) = f
X
(x
1
)f
X
(x
2
) f
X
(x
k
) =
k

i=1
f
X
(x
i
)
De todas as sequncias iid, talvez a mais simples seja a sequncia aleatria de Ber-
noulli.
Denio 8.7. Um processo de Bernoulli X
n
com probabilidade de sucesso p uma
sequncia aleatria na qual cada X
n
uma varivel aleatria com distribuio de
Bernoulli tal que P[X
n
= 1] = p = 1 P[X
n
= 0].
Exemplo 8.4. Para o processo do resistor do Exemplo 8.3, seja Y
n
= 1 se no i-simo
segundo encontramos um resistor de 1%, caso contrrio Y
n
= 0. A sequncia aleatria
Y
n
um processo de Bernoulli.
Exemplo 8.5. Para um processo de Bernoulli X
n
com probabilidade de sucesso p,
encontre a fmp conjunta de X
1
, . . . , X
n
.
Soluo. Para uma nica amostra X
i
, podemos escrever a fmp de Bernoulli da seguinte
maneira
Processos Estocsticos 147
p
X
i
(x
i
) =
_
p
x
i
(1 p)
1x
i
, x
i
{0, 1}
0, caso contrrio
Quando x
i
{0, 1} para i = 0, . . . , n, a fmp conjunta pode ser escrita como
p
X
1
,...,Xn
(x
1
, . . . , x
n
) =
n

i=1
p
x
i
(1 p)
1x
i
= p
k
(1 p)
nk
onde k = x
1
+ +x
n
. A expresso completa para a fmp conjunta
p
X
1
,...,Xn
(x
1
, . . . , x
n
) =
_
p
x
1
++xn
(1 p)
n(x
1
++xn)
, x
i
{0, 1}, i = 1, 2, . . . , n
0, caso contrrio
8.5 Processo de Contagem
Um processo de contagem N(t) comea no instante t = 0 e conta a ocorrncia de eventos.
Estes eventos so em geral chamados de chegadas desde que os processos de contagem
so mais usados para modelar a chegada de clientes a um determinado servidor.
Desde que iniciamos em t = 0, n(t, s) = 0 para todo t 0. Ainda, o nmero de
chegadas at um instante t > 0 qualquer um nmero inteiro que no decresce com o
tempo.
Denio 8.8. Processo de contagem. Um processo estocstico N(t) um pro-
cesso de contagem se para cada funo amostra, n(t, s) = 0 para t 0 e n(t, s)
assume valores inteiros e no decrescentes com o tempo.
Podemos imaginar N(t) como o nmero de clientes que chega a um sistema no
intervalo (0, t]. Uma funo amostra tpica de um processo de contagem mostrada
na Figura 8.4. Os saltos na funo amostra de um processo de contagem marcam as
chegadas e o nmero de chegadas no intervalo (t
0
, t
1
] simplesmente N(t
1
) N(t
0
).
Podemos usar um processo de Bernoulli X
1
, X
2
, . . . para derivar um processo de
contagem simples. Considere um intervalo de tempo de tamanho de modo que exista
uma chegada na intervalo (n, (n + 1)] se e somente se X
n
= 1. Para uma constante
arbitrria > 0, podemos escolher pequeno o suciente para assegurar que < 1.
Neste caso, escolhemos a probabilidade de sucesso de X
n
como sendo . Isto implica
que o nmero de chegadas N
m
no instante T = m tem fmp binomial
P
Nm
(n) =
_
_
m
n
_
(T/m)
n
(1 T/m)
mn
, n = 0, 1, . . . , m
0, caso contrrio
(8.1)
Pode-se mostrar que medida que m , ou equivalentemente medida que
0 a fmp de N
m
aproxima-se da fmp de uma v.a. com distribuio de Poisson
N(T) com fmp
148 Processos Estocsticos
S
1
S
2
S
3
S
4
S
5
t
1
2
3
4
5
N(t)
-
6
................................................................................................................................................. ............................................................................................................................................................................ ......................................................................................................................................................................................................................................................................................................................................... .............................................................................................................................................................................................................................................................................................. ...............................................................................................................................................
...............
...............
...............
...............
...............
...............
- - - - -
X
1
X
2
X
3
X
4
X
5
............... .............................. ............................................ ................................................................................................................................. .......................................................................................................................................................................................... ......................................................................................
............. ............. .............
............. ............. ............. ............. ............. .............
............. ............. ............. ............. ............. ............. ............. ............. ............. .............
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. .............
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
..........
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
......
Figura 8.4: Funo amostra de um processo de contagem
P
N(t)
(n) =
_
(T)
n
e
T
/n!, n = 0, 1, 2, . . .
0, caso contrrio
Podemos generalizar este argumento e dizer que para qualquer intervalo (t
0
, t
1
], o
nmero de chegadas poderia ter uma fmp de Poisson com parmetro T onde T = t
1
t
0
.
Alm disso, o nmero de chegadas em (t
0
, t
1
] depende das tentativas independentes de
Bernoulli correspondentes quele intervalo. Ento o nmero de chegadas em intevalos
no sobrepostos ir ser independente. No limite medida que 0, obtemos um
processo de contagem no qual o nmero de chegadas em qualquer intervalo uma
varivel aleatria com distribuio de Poisson independente das chegadas em qualquer
outro intervalo no sobreposto. Chamamos este processo limite de um processo de
Poisson. Na prxima seo iremos examinar o processo de Poisson com mais detalhes.
8.6 Processo de Poisson
Considere uma situao na qual os eventos ocorrem em instantes de tempo aleatrios a
uma taxa mdia de eventos por segundo. Por exemplo, um evento poderia representar
a chegada de um cliente a uma estao de servio ou a falha de um componente em
algum sistema. Seja N(t) o nmero de ocorrncias destes eventos no intervalo de tempo
[0, t]. N(t) ento um processo estocstico contnuo no tempo, no descrescente e que
assume apenas valores inteiros, como mostrado na Figura 8.4.
Suponha agora que o intervalo [0, t] seja dividido em n subintervalos de durao
innitesimal = t/n. Assuma tambm que as seguintes condies sejam tambm
observadas:
1. A probabilidade da ocorrncia de mais de um evento em um destes subintervalos
desprezvel comparada probabilidade de observar zero ou um eventos.
Processos Estocsticos 149
2. A ocorrncia de um evento em um dado subintervalo independe dos resultados
observados nos outros subintervalos.
A primeira suposio implica que o resultado em cada subintervalo pode ser visto
como o resultado de um teste de Bernoulli. A segunda suposio implica que estes testes
de Bernoulli so independentes. Ento, estas duas suposies juntas implicam que o
processo de contagem N(t) pode ser aproximado pelo processo de contagem binomial,
que conta o nmero de sucessos em n testes de Bernoulli.
Se a probabilidade de ocorrncia de um evento em cada subintervalo p, ento o
nmero esperado de eventos no intervalo [0, t] np. Desde que os eventos ocorrem a
uma taxa de eventos por segundo, o nmero mdio de eventos no intervalo [0, t]
tambm t. Ento devemos ter
t = np
Se zermos agora n (isto , 0), e p 0 enquanto mantemos t = np xo,
ento a distribuio binomial tende a uma distribuio de Poisson com parmetro t.
Podemos concluir ento que o nmero de ocorrncias N(t) de eventos no intervalo [0, t]
tem uma distribuio de Poisson de mdia t:
P[N(t) = k] =
(t)
k
k!
e
t
, k = 0, 1, 2, . . . (8.2)
Por esta razo, N(t) conhecido como processo de Poisson. Formalmente, podemos
denir um processo de Poisson como:
Denio 8.9. Processo de Poisson. Um processo de contagem N(t) um pro-
cesso de Poisson de taxa se
O nmero de chegadas em qualquer intervalo (t
0
, t
1
], N(t
1
) N(t
0
), uma
varivel aleatria com distribuio de Poisson com valor esperado (t
1
t
0
).
Para qualquer par de intervalos no sobrepostos, (t
0
, t
1
] e (t

0
, t

1
], o nmero de
chegadas em cada intervalo, N(t
1
) N(t
0
) e N(t

1
) N(t

0
) respectivamente,
so variveis aleatrias independentes.
Chamamos de taxa do processo pois o nmero esperado de chegadas por unidade
de tempo E[N(t)]/t = . Pela denio da varivel aleatria de Poisson, M =
N(t
1
) N(t
0
) tem fmp
P
M
(m) =
_
_
_
[(t
1
t
0
)]
m
m!
e
(t
1
t
0
)
, m = 0, 1, . . .
0, caso contrrio
(8.3)
Para um conjunto de instantes de tempo t
1
< t
2
< < t
k
, podemos usar a propri-
edade de que o nmero de chegadas em intervalos no sobrepostos so independentes
para escrever a fmp conjunta de N(t
1
), . . . , N(t
k
) como um produto de probabilidades.
150 Processos Estocsticos
Teorema 8.2. Para um processo de Poisson N(t) de taxa , a fmp conjunta de
N(t
1
), . . . , N(t
k
), t
1
< t
2
< < t
k
, dada por
p
N(t1),...,N(t
k
)
(n
1
, . . . , n
k
) =
_

n1
1
e
1
n
1
!

n2n1
2
e
2
(n
2
n
1
)!


n
k
n
k1
k
e

k
(n
k
n
k1
)!
, 0 n
1
n
k
0, caso contrrio
onde
i
= (t
i
t
i1
).
Demonstrao. Seja M
1
= N(t
1
) e para i = 2, . . . , k, seja M
i
= N(t
i
) N(t
i1
). Pela
denio do processo de Poisson, M
1
, . . . , M
k
uma coleo de variveis aleatrias
independentes com distribuio de Poisson tal que E[M
i
] =
i
.
p
N(t
1
),...,N(t
k
)
(n
1
, . . . , n
k
) = p
M
1
,M
2
, ,M
k
(n
1
, n
2
n
1
, . . . , n
k
n
k1
)
= p
M
1
(n
1
)p
M
2
(n
2
n
1
) p
M
k
(n
k
n
k1
)
Substituindo a Equao (8.3) por p
M
i
(n
i
n
i1
), completamos a prova.
Exemplo 8.6. Um sistema de mensagens gravadas recebe acessos de acordo com um
processo de Poisson de taxa 15 acessos por minuto. Encontre a probabilidade de, em
um intervalo de tempo de 1 minuto, 3 acessos sejam feitos nos primeiros 10 segundos e
2 acessos sejam feitos nos ltimos 15 segundos.
Soluo. A taxa de chegada em segundos = 15/60 = 1/4 acessos por segundo.
Escrevendo o tempo em segundos, a probabilidade de interesse
P[N(10) = 3 e N(60) N(45) = 2]
Aplicando as propriedades de incrementos independentes e incrementos estacion-
rios,
P[N(10) = 3 e N(60) N(45) = 2] = P[N(10) = 3]P[N(60) N(45) = 2]
= P[N(10) = 3]P[N(60 45) = 2]
=
(10/4)
3
e
10/4
3!
(15/4)
2
e
15/4
2!
= 0, 035
importante lembrar que a propriedade dos intervalos independentes do processo
de Poisson precisa se manter mesmo para intervalos bastante pequenos. Por exemplo,
o nmero de chegadas em (t, t + ] precisa ser independente do processo de chegada
sobre [0, t] independentemente de quo pequeno escolhamos > 0. Essencialmente, a
probabilidade de uma chegada em qualquer instante independente da histria passada
do processo. Neste sentido, o processo de Poisson sem memria.
Processos Estocsticos 151
Esta propriedade de ser sem memria pode tambm ser vista quando examinamos
os instantes entre as chegadas. Como mostrado na Figura 8.4, o tempo aleatrio X
n
entre a chegada n 1 e a chegada n chamado de n-simo tempo entre chegadas.
Adicionalmente, chamamos o instante X
1
, da primeira chegada, como o primeiro tempo
entre chegadas, mesmo no havendo chegadas anteriores.
Teorema 8.3. Para um processo de Poisson de taxa , os tempos entre chegadas
X
1
, X
2
, . . . so uma sequncia aleatria iid com fdp exponencial
f
X
(x) =
_
e
x
, x 0
0, caso contrrio
Demonstrao. Dado X
1
= x
1
, X
2
= x
2
, . . . , X
n1
= x
n1
, a chegada n 1 ocorre no
instante
t
n1
= x
1
+ +x
n1
Para x > 0, X
n
> x se e s
1
2
se no ocorrerem chegadas no intervalo (t
n1
, t
n1
+x].
O nmero de chegadas em (t
n1
, t
n1
+x] independente da histria passada descrita
por X
1
, . . . , X
n1
. Isto implica
P[X
n
> x|X
1
= x
1
, . . . , X
n1
= x
n1
] = P[N(t
n1
+x) N(t
n1
) = 0] = e
x
Ento X
n
independente de X
1
, . . . , X
n1
e tem fdc exponencial
F
Xn
(x) = 1 P[X
n
> x] =
_
1 e
x
, x > 0
0, caso contrrio
Tomando a derivada da fdc, podemos ver que X
n
tem fdp exponencial f
Xn
(x) =
f
X
(x), o que demonstra o teorema.
Exemplo 8.7. Encontre a mdia e a varincia do tempo at o dcimo acesso no Exem-
plo 8.6.
Soluo. A taxa de chegada de = 1/4 acessos por segundo, de modo que os tempos
entre chegadas so variveis aleatrias com distribuio exponencial de parmetro .
Para a distribuio exponencial, a mdia e a varincia so, respectivamente, 1/
e 1/
2
(veja Apndice E). O instante da dcima chegada a soma destas variveis
aleatrias iid, ento
E[S
10
] = 10E[T] =
10

= 40 segundos
Var[S
10
] = 10 Var[T] =
10

2
= 160 segundos
2
.
152 Processos Estocsticos
A propriedade de ser sem memria do processo de Poisson pode tambm ser vista
nos tempos entre chegadas exponenciais. Desde que P[X
n
> x] = e
x
, a probabilidade
condicional de que X
n
x

> x dado que X


n
> x

,
P[X
n
x

> x|X
n
> x

] =
P[X
n
> x +x

, X
n
> x

]
P[X
n
> x

]
= e
x
(8.4)
A interpretao da Equao (8.4) que dado que a chegada no ocorreu no instante
x

, o tempo adicional at a chegada, X


n
x

, tem a mesma distribuio exponencial de


X
n
. Isto , no importa o quanto esperamos para a chegada, o tempo restante at a
chegada tem sempre uma distribuio exponencial com mdia 1/.
A partir de uma funo amostra de N(t), podemos identicar os tempos entre che-
gadas X
1
, X
2
e assim por diante. Similarmente, a partir dos tempos entre chegadas
X
1
, X
2
, . . . , podemos construir a funo amostra do processo de Poisson N(t). Isto
implica que uma representao equivalente do processo de Poisson uma sequncia
aleatria iid X
1
, X
2
, . . . de tempos entre chegadas exponencialmente distribudos.
Teorema 8.4. Um processo de contagem com tempos entre chegadas exponenciais
independentes X
1
, X
2
, . . . com mdia E[X
i
] = 1/ um processo de Poisson de taxa
.
8.7 Processo sinal telegrco aleatrio
Considere um processo aleatrio X(t) que assume os valores 1. Suponha que X(0) =
1 com probabilidade 1/2, e suponha que X(t) mude de polaridade com cada evento de
um processo de Poisson de taxa . A Figura 8.5 mostra uma funo amostra de X(t).
......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.................................................................................................................................................................................................................................................................................................................................................................
-
6
t
1
1
X(t)
............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... - -- - --
......................
......................
......................
......................
......................
......................
X
1
X
2
X
3
X
4
X
5
X
6
X
7
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ........
............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ........
Figura 8.5: Funo amostra de um processo telegrco aleatrio
A fmp de X(t) dada por
P[X(t) = 1] = P[X(t) = 1|X(0) = 1]P[X(0) = 1]
+P[X(t) = 1|X(0) = 1]P[X(0) = 1] (8.5)
Processos Estocsticos 153
Podemos encontrar as fmps condicionais notando que X(t) ir ter a mesma pola-
ridade de X(0) somente quando ocorrer um nmero par de eventos no intervalo (0, t].
Ento
P[X(t) = 1|X(0) = 1] = P[N(t) = inteiro par]
=

j=0
(t)
2j
(2j)!
e
t
= e
t
1
2
_
e
t
+e
t
_
=
1
2
_
1 +e
2t
_
(8.6)
X(t) e X(0) iro ter sinais opostos quando o nmero de eventos no intervalo (0, t]
for mpar:
P[X(t) = 1|X(0) = 1] = P[N(t) = inteiro mpar]
=

j=0
(t)
2j+1
(2j + 1)!
e
t
= e
t
1
2
_
e
t
e
t
_
=
1
2
_
1 e
2t
_
(8.7)
Substituindo estes resultados na Equao (8.5), temos:
P[X(t) = 1] =
1
2
1
2
{1 +e
2t
} +
1
2
1
2
{1 e
2t
} =
1
2
P[X(t) = 1] = 1 P[X(t) = 1] =
1
2
(8.8)
Ento, o sinal telegrco assume os valores -1 e +1 com a mesma probabilidade. A
mdia e a varincia de X(t) so dadas por:
E[X(t)] = 1P[X(t) = 1] + (1)P[X(t) = 1] = 0
Var[X(t)] = E[X
2
(t)] E
2
[X(t)] = (1)
2
P[X(t) = 1] + (1)
2
P[X(t) = 1] 0 = 1
E a funo de autocorrelao de X(t) dada por:
C
X
(t
1
, t
2
) = E[X(t
1
), X(t
2
)]
= 1P[X(t
1
) = X(t
2
)] + (1)P[X(t
1
) = X(t
2
)]
=
1
2
_
1 +e
2|t
2
t
1
|
_

1
2
_
1 e
2|t
2
t
1
|
_
= e
2|t
2
t
1
|
Pode-se ver ento que as amostras de X(t) tornam-se cada vez menos correlacionadas
medida que o tempo entre elas aumenta.
154 Processos Estocsticos
8.8 Processo movimento Browniano
O processo de Poisson e o processo telegrco so exemplos de processos de tempo
contnuo e valor discreto. Agora iremos examinar o processo movimento Browniano,
que um processo de tempo e valores contnuos.
Denio 8.10. Processo movimento Browniano. Um processo movimento
Browniano X(t) tem a propriedade de que X(0) = 0 e para > 0, X(t +) X(t)
uma varivel aleatria gaussiana com mdia 0 e varincia que independente de
X(t

) para todo t t

.
Para o movimento Browniano, podemos ver X(t) como a posio de uma partcula
em uma linha. Para um pequeno incremento de tempo ,
X(t +) = X(t) + [X(t +) X(t)] (8.9)
Embora esta expanso possa parecer trivial, pela denio de movimento Browni-
ano, o incremento Y

= X(t + ) X(t), independente de X(t) e Gaussiano de


mdia zero e varincia . Esta propriedade do movimento Browniano chamada de
incrementos independentes. Ento, depois de um intervalo de tempo , a posio da
partcula moveu-se de uma quantidde Y

que independente da posio anterior X(t).


A mudana de posio Y

pode ser positiva ou negativa. Por esta razo, o movimento


Browniano tambm chamado de uma caminhada aleatria unidimensional.
Teorema 8.5. Para o processo movimento Browniano X(t), a fdp conjunta de
X(t
1
), . . . , X(t
k
)
f
X(t
1
),...,X(t
k
)
(x
1
, . . . , x
k
) =
k

n=1
1
_
2(t
n
t
n1
)
e
(xnx
n1
)
2
/[2(tnt
n1
)]
(8.10)
Demonstrao. Desde que X(0) = 0, X(t
1
) = X(t
1
) X(0) uma varivel aleatria
Gaussiana. Dados os instantes de tempo t
1
, . . . , t
k
, denimos t
0
= 0 e, para n =
1, . . . , k, Y
n
= X(t
n
)X(t
n1
). Note que Y
1
, . . . , Y
k
so variveis aleatrias Gaussianas
independentes de mdia zero tais que Y
n
N(0, (t
n
t
n1
)).
f
Yn
(y) =
1
_
2(t
n
t
n1
)
e
y
2
/[2(tnt
n1
)]
(8.11)
Note que X(t
1
) = x
1
, . . . , X(t
n
) = x
n
se e somente se Y
1
= x
1
, Y
2
= x
2
x
1
, . . . , Y
k
=
x
k
x
k1
.
Depois de alguma manipulao, chegamos a
f
X(t
1
),...,X(t
k
)
(x
1
, . . . , x
k
) =
k

n=1
f
Yn
(x
n
x
n1
) (8.12)
Processos Estocsticos 155
Substituindo (8.11) em (8.12), completamos a prova.
8.9 Mdias estatsticas de processos aleatrios
Assim como denimos mdias estatsticas para v.a.s, podemos de forma similar, denir
mdias estatsticas para um processo estocstico. Tais mdias so tambm chamadas
de mdias de conjunto. Estas sero ento utilizadas para especicar um processo
aleatrio.
Se adotarmos a idia de que um processo aleatrio X(t) uma v.a. X que uma
funo do tempo, chegaremos concluso de que X(t) completamente especicada se
a fdp de X especicada para cada valor de t. Iremos ver rapidamente que as coisas
no so assim to simples. Entretanto, comecemos com a idia de especicar uma v.a.
X para cada valor de t.
Para o processo estocstico X(t) representando a temperatura de uma cidade, isto
implicar em considerar as amplitudes das funes amostra em algum instante t = t
1
. O
valor X(t
1
;
1
) representa a temperatura no instante t
1
no
i
-simo dia e o resultado
da
i
-sima tentativa. Ento, todas as amplitudes das funes amostra em t = t
1
representam valores tomados pela v.a. X em t = t
1
, isto X(t
1
).
Podemos fazer isto para cada valor de t. A fdp de X pode ser diferente para
diferentes valores de t em geral. Para indicar este fato, a fdp de X no instante t
expressa por f
X
(x; t).
Exemplo 8.8. Limiar de deteo. Sobre um canal binrio, as mensagens m = 0 e
m = 1 so transmitidas com probabilidades iguais usando um pulso positivo e negativo,
respectivamente. O pulso transmitido correspondente mensagem 1 p(t), mostrado na
Figura 8.6, e o pulso transmitido correspondente mensagem 0 ser p(t). Determine
as estatsticas de primeira ordem.
p(t)
A
p
t
T
p
Figura 8.6: Forma de onda do pulso p(t).
Soluo. Seja A
p
a amplitude de pico de p(t) em t = T
p
. Por causa do rudo de canal
n(t), os pulsos recebidos sero p(t) +n(t) (Figura 8.7).
Para detectar os pulsos no receptor, cada pulso amostrado em sua amplitude de
pico. Na ausncia de rudo, a sada do amostrador A
p
(para m = 1) ou A
p
(para
m = 0). Por causa do rudo do canal, a sada do amostrador A
p
+ n, onde n, a
amplitude do sinal de rudo no instante de amostragem, uma v.a. No receptor, utiliza-
se um limiar de deteo igual a 0, isto , se o pulso amostrado em seu pico tem um valor
positivo, a deciso 1, e se menor que 0, a deciso 0.
156 Processos Estocsticos
Figura 8.7: Erro de deteo devido ao rudo.
Vamos tentar interpretar P[|1], a probabilidade de erro dado que 1 foi transmitido.
Se 1 transmitido, a sada do amostrador no receptor A
p
+n. Se A
p
+n > 0, fazemos
uma deciso correta, e se A
p
+ n < 0, ou equivalentemente n < A
p
, tomamos uma
deciso errada.
Interpretando a probabilidade em termos de frequncia relativa, se repetimos o ex-
perimento (de transmitir e receber o smbolo 1) N vezes (N ), e se N

vezes a
amostra do rudo foi negativa o suciente para que A
p
+n < 0, ento
P[ |1] =
N

N
Vamos examinar o sinal de rudo no instante t
s
. Em cada tentativa, temos um
novo sinal de rudo (funo amostra) do conjunto de rudo e um valor diferente de n
no instante de amostragem t
s
, e se n < A
p
digamos 100 vezes em 100 milhes de
tentativas, ento a probabilidade de erro dada por P[ |1] = 100/100 10
6
= 10
6
.
Mas este nmero tambm a probabilidade de n < A
p
, onde n uma v.a. formada
pelas amplitudes em t = t
s
das funes amostra do conjunto do processo estocstico
n(t). Esta a v.a. n(t
s
) cuja fdp f
n
(n; t
s
).
A fdp f
X
(x; t) conhecida como fdp de primeira ordem. Infelizmente o conhecimento
da fdp de primeira ordem insuciente para especicar um processo aleatrio. Para
entender o porque, um exemplo bastante instrutivo.
Exemplo 8.9. Seja um processo estocstico X(t) cujo conjunto mostrado na Figura
8.8a). Suponha que a distribuio de amplitudes em qualquer instante t a mesma, isto
f
X
(x; t) independente de t, e f
X
(x; t) = f
X
(x), como mostrado na Figura 8.9.
Se comprimirmos no tempo o processo X(t) por um fator k (k > 1), formamos um
novo processo Y (t), como mostrado na Figura 8.8b). Verique porque as estatsiticas
de primeira ordem no so sucientes para diferenciar X(t) e Y (t).
Soluo. Pode-se ver facilmente que a distribuio de amplitudes de X(t) idntica
de Y (t) e, desta forma, a fdp de primeira ordem de X(t) idntica de Y (t).
Processos Estocsticos 157
Figura 8.8: Processo estocstico comprimido no tempo.

0
f
X
(x) ou f
Y
(y)
x ou y
Figura 8.9: Fdp dos processos x e y.
Entretanto estes processos so bastante diferentes entre si pois o processo Y (t)
contm componentes em frequncias mais altas do que as de X(t). De fato, o espectro
de Y (t) ser o espectro de X(t) expandido por um fator k.
Este exemplo mostra claramente que a fdp de primeira ordem no suciente para
especicar completamente um processo estocstico. O contedo de freqncias de um
processo depende da velocidade com que as amplitudes variam com o tempo. Isto pode
ser medido correlacionando amplitudes em t
1
e t
1
+. Se o processo varia lentamente,
as amplitudes em t
1
e t
1
+ devem ser similares (Figura 8.8a). Por outro lado, se o
processo varia rapidamente, as amplitudes em t
1
e t
1
+ no tero nenhuma semelhana
(Figura 8.8b). Podemos usar a correlao para medir a similaridade das amplitudes em
t
1
e t
2
= t
1
+.
158 Processos Estocsticos
Denio 8.11. Funo de autocorrelao. Se as variveis aleatrias X(t
1
) e
X(t
2
) so denotadas por X
1
e X
2
respectivamente, ento para um processo estocstico
real, a funo de autocorrelao R
X
(t
1
, t
2
) denida como
R
X
(t
1
, t
2
) = E[X(t
1
)X(t
2
)]
Esta a correlao das v.a.s X(t
1
) e X(t
2
) e calculada multiplicando-se as ampli-
tudes em t
1
e t
2
de uma funo amostra e ento fazendo a mdia deste produto sobre
o conjunto.
No exemplo acima, pode-se ver que para um valor pequeno de , o produto X
1
X
2
ser positivo para a maioria das funes amostra de X(t), mas o produto Y
1
Y
2
poder
ser tanto positivo como negativo. Desta forma, E[X
1
X
2
] ser maior que E[Y
1
Y
2
]. Alm
disso, X
1
e X
2
iro mostrar correlao para valores de consideravelmente grandes,
enquanto que Y
1
e Y
2
iro perder a correlao rapidamente mesmo para valores pequenos
de , como mostrado na Figura 8.10.
Figura 8.10: Funes de autocorrelao para os processos X(t) e Y (t).
Ento R
X
(t
1
, t
2
), a funo de autocorrelao de X(t), fornece informaes impor-
tantes sobre o contedo de freqncias do processo, e pode ser derivada da fdp conjunta
de X
1
e X
2
. Esta a fdp de segunda ordem.
Em resumo, para especicar um processo aleatrio, precisamos no s da fdp de
primeira ordem mas tambm da fdp de segunda ordem .
Em geral, precisamos da medida de interdependncia de n variveis x
1
, x
2
, . . . , x
n
nos instantes t
1
, t
2
, . . . , t
n
. Esta informao fornecida pela fdp de ordem n,
f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
). A determinao desta fdp uma tarefa formidvel, mas
felizmente, na maioria dos casos, iremos precisar apenas das estatsticas de primeira e
segunda ordens.
Podemos sempre derivar a fdp de ordem inferior a partir de fdps de ordem superior
por simples integrao. Por exemplo,
f
X
1
(x
1
) =
_
+

f
X
1
X
2
(x
1
, x
2
) dx
2
Ento, quando temos a fdp de ordem n, no necessrio especicar as fdps de
ordem menor que n.
Processos Estocsticos 159
8.9.1 Momentos
Denio 8.12. Seja um processo estocstico X(t) e seja tambm X
t
i
X(t
i
). O
n-simo momento da v.a. X
t
i
denido como
E
_
X
n
t
i

=
_

x
n
t
i
f
X
(x
t
i
) dx
t
i
O primeiro momento chamado de mdia de um processo estocstico, e denido
como
Denio 8.13. A mdia E[X(t)] de um processo estocstico pode ser determinada
da fdp de primeira ordem usando a seguinte expresso
E[X(t)] =
_
+

xf
X
(x; t) dx
Em geral, o valor do n-simo momento ir depender do instante de tempo t
i
se
a fdp de X
t
i
depender de t
i
. Quando o processo estacionrio, entretanto, f
X
(x
t
i
) =
f
X
(x
t
i
+t) para todo t. Portanto, a fdp independente do tempo e, como conseqncia,
o n-simo momento tambm o .
8.9.2 Funo de autocovarincia
Denio 8.14. A funo de autocovarincia denida como
K
X
(t
1
, t
2
) = E [(X
t
1
m(t
1
)) (X
t
2
m(t
2
))] = R
X
(t
1
, t
2
) m(t
1
)m(t
2
)
onde m(t
1
) e m(t
2
) so as mdias de X
t
1
e X
t
2
, respectivamente.
Momentos conjuntos de ordem superior de duas ou mais v.a.s derivadas de um pro-
cesso estocstico so denidos da mesma maneira. Entretanto, com a possvel exceo
do processo gaussiano, para o qual os momentos de ordem superior podem ser expressos
em termos do primeiro e segundo momentos, estes momentos de ordem superior so
encontrados com pouca frequncia na prtica.
160 Processos Estocsticos
8.10 Classicao dos processos estocsticos
8.10.1 Processos estocsticos estacionrios e no estacionrios
Denio 8.15. Um processo estocstico cujas caractersticas estatsticas no variam
com o tempo classicado como um processo estocstico estacionrio. Para um
processo estacionrio, podemos dizer que uma mudana da origem de tempo ser
impossvel de detectar; o processo ir parecer o mesmo.
Suponha que determinemos f
X
1
(x
1
; t
1
), desloquemos a origem para t
0
e calculemos
novamente f
X
1
(x
1
; t
1
). O instante t
0
na nova referncia dado por t
2
= t
1
+ t
0
na
referncia antiga. Desta forma, as fdps de X em t
1
e t
2
= t
1
+ t
0
precisam ser as
mesmas. Portanto, para um processo estacionrio, f
X
1
(x
1
; t
1
) e f
X
2
(x
2
; t
2
) precisam
ser idnticas. Isto possvel somente se f
X
1
(x
1
; t
1
) independente de t. Ento, a
densidade de primeira ordem de um processo estocstico estacionrio pode ser expressa
como
f
X
(x; t) = f
X
(x)
De forma similar, podemos ver que a funo de autocorrelao R
X
(t
1
, t
2
) precisa ser
funo apenas de t
2
t
1
. Desta forma, para um processo estacionrio real
R
X
(t
1
, t
2
) = R
X
(t
1
t
2
) = R
X
(), = t
1
t
2
R
X
() = E[X(t)X(t +)] (8.13)
Tambm a funo de autocovarincia pode ser simplicada para
K
X
(t
1
, t
2
) = K
X
(t
1
t
2
) = K
X
() = R
X
() E
2
[X]
onde = t
1
t
2
.
Para um processo estacionrio, a funo densidade de probabilidade conjunta para
x
1
e x
2
precisa tambm depender somente de t
2
t
1
. Similarmente, funes densidade de
probabilidade de ordem mais alta tais como f
X
1
X
2
Xn
(x
1
, x
2
, . . . , x
n
) onde x
1
= X(t
i
),
so todas independentes da escolha da origem.
Exemplo 8.10. O processo aleatrio X(t) que representa a temperatura de uma cidade
um exemplo de processo estocstico no estacionrio, pois as estatsticas da temperatura
(valor mdio por exemplo) dependem da hora do dia. Por outro lado, um processo
estocstico representado por um rudo branco um processo estacionrio, porque suas
estatsticas no se alteram com o tempo.
Em geral no fcil determinar se um processo estacionrio, pois isto envolve a
investigao das estatsticas de ordem n (n ). Na prtica, podemos determinar a
estacionariedade se no houver mudanas no mecanismo de gerao do sinal.
Processos Estocsticos 161
8.10.2 Processos estacionrios no sentido amplo
Um processo pode no ser estacionrio no sentido estrito, mas pode ainda apresentar
estacionariedade para as estatsticas de primeira e segunda ordem. Quando isto acon-
tece, temos um processo estocstico estacionrio no sentido amplo. Abaixo tem-se uma
denio formal.
Denio 8.16. Processos estacionrios no sentido amplo (ou fracamente
estacionrios) so aqueles que tm um valor mdio e uma funo de autocorrelao
que so independentes de deslocamento na origem de tempo, ou seja
E[X(t)] = constante
R
X
(t
1
, t
2
) = R
X
(), = t
1
t
2
Note que a estacionariedade um condio muito mais forte do que a estacionari-
edade no sentido amplo: todos os processos estacionrios so estacionrios no sentido
amplo, mas o inverso no necessariamente verdade.
Assim como no existem sinais senoidais na prtica, no existem tambm processos
estacionrios. Todos os processos reais so no estacionrios desde que tm durao
nita, isto , tm um incio e um nal. Um processo estacionrio precisaria iniciar
em t = e durar para sempre. Entretanto, muitos processos apresentam-se como
estacionrios para o intervalo de tempo de interesse, e a suposio de estacionariedade
permite que usemos um modelo matemtico tratvel.
Exemplo 8.11. Mostre que o processo aleatrio X(t) = Acos(
c
t +), onde uma
v.a. uniformemente distribuda na faixa (0, 2), um processo estacionrio no sentido
amplo.
Soluo. O conjunto da Figura 8.11 consiste de senides de amplitude A e freqncia

c
constantes, mas a fase aleatria. Para qualquer funo amostra a fase pode ter
qualquer valor no intervalo (0, 2), com distribuio uniforme.
Pelo fato de ser uma v.a. uniformemente distribuda sobre a faixa (0, 2), podemos
determinar f
X
(x; t) e, portanto, E[X(t)].
Para este caso particular, entretanto, E[X(t)] pode ser determinada diretamente:
E[X(t)] = AE[cos(
c
t +)]
E como cos(
c
t +) uma funo de uma v.a. , temos
E[cos(
c
t +)] =
_
2
0
cos(
c
t +)f

() d
mas f

() = 1/2 no intervalo (0, 2) e 0 fora dele, de modo que podemos reescrever a


equao acima como
E[cos(
c
t +)] =
1
2
_
2
0
cos(
c
t +) d
162 Processos Estocsticos
Figura 8.11: Processo aleatrio X(t) = Acos(
c
t +).
E portanto
E[X(t)] = 0
Desta forma, a mdia do conjunto das amplitudes das funes amostra em qualquer
instante t zero.
A funo de autocorrelao para este processo pode tambm ser determinada dire-
tamente a partir da Equao 8.13
R
X
(t
1
, t
2
) = E
_
A
2
cos(
c
t
1
+) cos(
c
t
2
+)

= A
2
E[cos(
c
t
1
+) cos(
c
t
2
+)]
=
A
2
2
E[cos[
c
(t
1
t
2
)] + cos[
c
(t
1
+t
2
) + 2]]
onde usamos a seguinte propriedade: cos Acos B =
1
2
[cos(AB) + cos(A +B)].
O primeiro termo do lado direito no contm v.a.s, e desta forma
E[cos[
c
(t
1
t
2
)] = cos[
c
(t
1
t
2
)]
O segundo termo funo da v.a. , e sua mdia
E[cos[
c
(t
1
+t
2
) + 2]] =
1
2
_
2
0
cos[
c
(t
1
+t
2
) + 2]d = 0
Portanto,
Processos Estocsticos 163
R
X
(t
1
, t
2
) =
A
2
2
cos[
c
(t
1
t
2
)]
ou
R
X
() =
A
2
2
cos(
c
), = t
1
t
2
E portanto X(t) um processo estacionrio no sentido amplo.
Propriedades da funo de autocorrelao para processos estacionrios no
sentido amplo:
1. A funo de autocorrelao par: R
X
() = R
X
()
Demonstrao. R
X
() = E[X(t)X(t +)] R
X
() = E[X(t)X(t )]
Fazendo = t , temos R
X
() = E[X( +)X()] = R
X
()
2. R
X
(0) = E[X
2
]
Demonstrao. R
X
(0) = E[X(t)X(t + 0)] = E[X(t)X(t)] = E[X
2
(t)] = E[X
2
]
3. R
X
(0) 0
Demonstrao. R
X
(0) = E[X(t)X(t)] = E[X
2
(t)].
Desde que X
2
(t) 0, E[X
2
(t)] 0, devemos ter E[X
2
(t)] 0.
4. Se Z(t) = X(t) +Y (t) ento R
Z
() = R
X
() +R
Y
() +R
XY
() +R
Y X
()
Demonstrao.
R
Z
() = E[Z(t)Z(t +)]
= E[(X(t) +Y (t))(X(t +) +Y (t +))]
= E[X(t)X(t +) +X(t)Y (t +) +Y (t)X(t +) +Y (t)Y (t +)]
= R
X
() +R
XY
() +R
Y X
() +R
Y
()
5. Se um processo estocstico tem um componente peridico, ento a funo de
autocorrelao tambm peridica:
X(t) = X(t +nT) R
X
() = R
X
( +nT)
164 Processos Estocsticos
6. Se X(t) no tem componentes peridicos, ento
lim

R
X
() = E
2
[X]
Demonstrao. A demonstrao bastante complexa, mas podemos dar uma jus-
ticativa plausvel: se X(t) no tem componentes peridicos, ento podemos con-
siderar que as variveis aleatrias em X(t) e X(t +), so independentes.
Desta forma:
lim

R
X
() = E[X(t)X(t +)] = E[X(t)]E[X(t +)] = E
2
[X]
7. R
X
(0) |R
X
()|.
Demonstrao. E[(X(t) X(t +))
2
] 0
Expandindo o quadrado, temos
E
_
X
2
(t) 2X(t)X(t +) +X
2
(t +)

0
que pode ser reescrita em termos da funo de autocorrelao como
2R
X
(0) 2R
X
() 0 R
X
(0) |R
X
()|
8.10.3 Processos ergdicos
At agora estudamos a mdia e a funo de autocorrelao de um processo aleatrio.
Estas so mdias de conjunto de algum tipo. Por exemplo, X(t) a mdia de con-
junto das amplitudes das funes amostra em t, e a mdia de conjunto do produto
das amplitudes das funes amostra X(t
1
) e X(t
2
). Podemos tambm denir mdias
temporais para cada funo amostra.
Denio 8.17. A mdia temporal, X(t,
i
), de uma funo amostra X(t,
i
) dada
por
X(t,
i
) = lim
T
1
T
_
T/2
T/2
X(t,
i
) dt
Similarmente, temos
Processos Estocsticos 165
Denio 8.18. A funo de autocorrelao temporal R
X
(,
i
) dada por
R
X
(,
i
) = X(t,
i
)X(t +,
i
) = lim
T
1
T
_
T/2
T/2
X(t,
i
) X(t +,
i
) dt
Agora temos condies para denir um processo ergdico.
Denio 8.19. Processos ergdicos so aqueles para os quais as mdias de conjunto
so iguais s mdias temporais de qualquer funo amostra. Ento para um processo
ergdico X(t)
E[X(t)] = X(t,
i
)
R
X
() = R
X
(,
i
)
Estas so apenas duas das mdias possveis. Para um processo ergdico, todas as
possveis mdias de conjunto so iguais s mdias temporais correspondentes de uma de
suas funes amostra. Pelo fato de uma mdia temporal no poder ser uma funo do
tempo, evidente que um processo ergdico necessariamente um processo estacionrio,
mas o inverso no verdadeiro. Na Figura 8.12 tem-se um diagrama com a classicao
dos processos estocsticos quanto estacionariedade e ergodicidade.
ergdicos
estacionrios no sentido estrito
estacionrios no sentido amplo
processos estocsticos
Figura 8.12: Classicao dos processos estocsticos.
A exemplo da estacionariedade, difcil testar se um processo ergdico ou no,
pois precisamos testar as mdias de conjunto e temporais para todas as ordens possveis.
Contudo, na prtica muitos dos processos estacionrios so usualmente ergdicos com
relao pelo menos s estatsticas de segunda ordem, tais como a mdia e a funo de
autocorrelao.
Exemplo 8.12. Mostre que o processo do exemplo anterior ergdico para estatsticas
de at segunda ordem.
166 Processos Estocsticos
Soluo.
X(t) = lim
T
1
T
_
T/2
T/2
X(t) dt
= lim
T
1
T
_
T/2
T/2
Acos(
c
t +) dt
= 0
R
X
() = X(t)X(t +)
= A
2
cos(
c
t +) cos(
c
(t +) +)
=
A
2
2
_
cos(2
c
t +
c
+ 2) + cos(
c
)
_
=
A
2
2
_
cos(2
c
t +
c
+ 2) + cos(
c
)
_
=
A
2
2
cos(
c
)
Exemplo 8.13. O conceito de ergodicidade pode ser explicado por um exemplo simples
de semforos de trnsito em uma cidade.
Suponha que uma cidade bem planejada, com todas as suas ruas nas direes
norte-sul e leste-oeste, e com semforos em cada inteserco. Assuma que cada sem-
foro permanea verde 0,75 minutos na direo leste-oeste e 0,25 minutos na direo
norte-sul, e que a mudana em um semforo independente de outro.
Se consideramos uma certa pessoa dirigindo um carro e que chega a um semforo
aleatoriamente na direo leste-oeste a probabilidade de encontrar um farol verde ser
de 0,75, ou seja, na mdia, 75% do tempo ele ir observar uma luz verde.
Por outro lado, se considerarmos um grande nmero de motoristas que chegam ale-
atoriamente em um semforo na direo leste-oeste simultaneamente em algum instante
t, ento 75% dos motoristas ir encontrar um farol verde, e os 25% restantes iro en-
contrar um farol vermelho.
Ento, a experincia de um nico motorista chegando aleatoriamente vrias vezes
em um farol ir conter a mesma informao estatstica (estatsticas de funes amostra)
da experincia de um grande nmero de motoristas chegando simultaneamente em vrios
semforos (estatsticas de conjunto para um dado instante).
A noo de ergodicidade extremamente importante, porque na prtica no temos
um grande nmero de funes amostra disponvel para calcular estatsticas de conjunto.
Se sabemos que um processo ergdico, ento precisamos apenas de uma funo amostra
para calcular as estatsticas de conjunto.
8.11 Exerccios
1. Seja o processo estocstico denido por
x(t) = ax +b
Processos Estocsticos 167
onde b uma constante e a uma varivel aleatria uniformemente distribuda
na faixa (0,100).
(a) Esboce o conjunto deste processo.
(b) Apenas observando o conjunto, determine se este um processo estocstico
estacionrio ou no estacionrio. Justique sua resposta.
2. Desenhe algumas funes amostra do processo estocstico denido por
x(t) = Acos(t +)
(a) Se A a varivel aleatria uniformemente distribuda na faixa (-1,1).
(b) Se a varivel aleatria uniformemente distribuda na faixa (0,10).
(c) Se a varivel aleatria uniformemente distribuda na faixa (, ).
3. Mostre que para o processo
x(t) = k cos(
0
t +)
onde uma varivel aleatria uniformemente distribuda sobre o intervalo (0, 2),
a funo de autocorrelao temporal dada por
R
X
() = x(t)x(t +) =
k
2
2
cos(
0
)
4. Para o processo estocstico
x(t) = sen(t +)
onde e so constantes e uma varivel aleatria qualquer:
(a) Calcule a mdia, a funo de autocorrelao e a funo de autocovarincia.
(b) Este processo estacionrio no sentido amplo?
Resp:
(a) E[X(t)] = E[] sen(t +)
R
X
(t
1
, t
2
) = E[
2
] sen(t
1
+) sen(t
2
+)
K
X
() =
2

sen(t
1
+) sen(t
2
+)
(b) no
5. Encontre uma expresso para E
_
(X
t
2
X
t
1
)
2

em termos da funo de autocor-


relao.
Resp: E[(X
t
2
X
t
1
)
2
] = R
X
(t
2
, t
2
) 2R
X
(t
2
, t
1
) +R
X
(t
1
, t
1
)
6. No receptor de um rdio AM, o sinal recebido contm uma portadora cossenoidal
com frequncia f
c
e fase aleatria que uniformemente distribuda no intervalo
[0, 2]. O sinal de portadora recebido
X(t) = Acos(2f
c
t + )
168 Processos Estocsticos
(a) Determine o valor esperado e a funo de autocorrelao do processo X(t).
(b) Este processo estacionrio no sentido amplo?
Resp:
(a) E[X(t)] = 0
R
X
(t
1
, t
2
) =
A
2
2
cos(2f
c
(t
1
t
2
))
(b) sim
7. Seja o processo estocstico
x(t) = Acos(t +)
onde e so constantes e A uma varivel aleatria uniformemente distribuda
no intervalo (-1,1).
(a) Esboce o conjunto deste processo.
(b) Apenas pela observao do conjunto, determine se este processo estacion-
rio ou no estacionrio. Justique sua resposta.
Resp:
(a)
(b) No. Em t + = /2 + n, o processo vale 0. Nos demais pontos, vale
Acos(t +)
8. Seja o processo estocstico denido por
X(t) = Acos t +Bsen t
onde A e B so v.a.s iid de mdia zero.
(a) Mostre que X(t) estacionrio no sentido amplo.
(b) Mostre que X(t) no estacionrio no sentido estrito. Dica: Considere
E[X
3
(t)].
Resp:
(a) E[X(t)] = 0
R
X
(t
1
, t
2
) = E[A
2
] cos((t
1
t
2
))
(b) E[X
3
(t)] = E[A
3
](cos
3
(t) + sen
3
(t))
9. Seja um processo estocstico X(t) dado por
X(t) = Y cos t, t 0
onde uma constante e Y uma v.a. distribuda uniformemente no intervalo
(0, 1). Para este processo, calcule:
Processos Estocsticos 169
(a) A mdia E[X(t)].
(b) A funo de autocorrelao R
X
(t
1
, t
2
).
(c) A funo de autocovarincia K
X
(t
1
, t
2
).
(d) Este processo estacionrio?
Resp:
(a) E[X(t)] =
1
2
cos(t)
(b) R
X
(t
1
, t
2
) =
1
3
cos(t
1
) cos(t
2
)
(c) K
X
(t
1
, t
2
) =
1
12
cos(t
1
) cos(t
2
)
(d) no
10. Em uma linha de produo de resistores de 1000, a resistncia real de cada re-
sistor uma varivel aleatria R com distribuio uniforme entre 950 e 1050.
Assuma que os valores das resistncias dos diferentes resistores so independentes.
A companhia tem uma encomenda de resistores de 1% de tolerncia (resistncias
entre 990 e 1010). Um testador automtico toma um resistor por segundo e
mede sua resistncia exata (este teste demora 1 segundo). O processo estocstico
N(t) denota o nmero de resistores com tolerncia de 1% encontrados em t se-
gundos. A varivel aleatria T
r
segundos o tempo decorrido at encontrarmos r
resistores com tolerncia de 1%.
(a) Calcule p, a probabilidade de um resistor ter tolerncia de 1%.
(b) Qual a fmp de N(t)?
(c) Calcule E[T
1
], o tempo esperado para encontrar o primeiro resistor com
tolerncia de 1%.
(d) Qual a probabilidade de o primeiro resistor com tolerncia de 1% ser en-
contrado em exatamente 5 segundos?
(e) E[T
2
|T
1
= 10], a esperana condicional do tempo necessrio para encontrar
o segundo resistor com tolerncia de 1%, dado que o primeiro foi encontrado
em 10 segundos.
Resp:
(a) 0.2
(b) p
N(t)
(n) =
_
_
t
n
_
p
n
(1 p)
tn
, n = 0, 1, . . . , t
0, caso contrrio
(c) 5
(d) (0, 8)
4
(0, 2) 0, 08192
(e) 15
170 Processos Estocsticos
11. Para uma sequncia de variveis aleatrias Gaussianas iid X
n
de mdia zero e
varincia unitria, encontre a fdp conjunta de X
1
, . . . , X
m
.
Resp: f
X(1),...,X(m)
(x
1
, . . . , x
m
) =
1
(2)
m/2
e
(x
2
1
++x
2
m
)/2
12. Pacotes de dados transmitidos por um modem sobre uma linha telefnica formam
um processo de Poisson de taxa 10 pacotes/segundo. Usando M
k
para denotar o
nmero de pacotes transmitidos na k-sima hora, encontre a fmp conjunta de M
1
e M
2
.
Resp: p
M
1
,M
2
(m
1
, m
2
) =
_
_
_

m
1
+m
2
e
2
m
1
!m
2
!
, m
1
= 0, 1, . . . ; m
2
= 0, 1, . . .
0, caso contrrio
13. Seja X(t) um processo movimento Browniano com varincia Var[X(t)] = t.
Mostre que Y (t) = X(t)/

um processo movimento Browniano com varincia


Var[Y (t)] = t.
14. Sejam dois processos estocsticos X(t) e Y (t) dados por:
X(t) = Acos(t + ) Y (t) = Asen(t + )
onde A e so constantes e uma v.a. com distribuio uniforme no intervalo
0, 2. Calcule R
XY
(), R
Y X
(), e mostre que R
XY
() = R
Y X
().
Resp:
R
XY
(t
1
, t
2
) =
A
2
2
sen((t
2
t
1
))
R
Y X
(t
1
, t
2
) =
A
2
2
sen((t
2
t
1
))
15. Seja X(t) um processo estacionrio no sentido estrito.
(a) Y (t) = X(t +a) tambm um processo estocstico estacionrio?
(b) Z(t) = X(at), a = 0, tambm um processo estocstico estacionrio?
Justique suas respostas.
Resp: (a) sim (b) sim.
16. Considere um processo estocstico X(t) denido por
X(t) = U cos t +V sen t, < t <
onde U e V so variveis aleatrias independentes, e cada uma assume os valores
-2 e 1 com probabilidades 1/3 e 2/3, respectivamente.
(a) Calcule E[X(t)].
(b) Calcule R
X
(t
1
, t
2
).
(c) Este processo estacionrio no sentido amplo?
Processos Estocsticos 171
Resp: (a) 0 (b) 2 cos(t
2
t
1
) (c) sim.
17. Pacientes chegam a um consultrio de acordo com um Processo de Poisson de
taxa = 1/10 pacientes por minuto. O doutor no ir atender um paciente at
que pelo menos trs pacientes estejam na sala de espera.
(a) Encontre o tempo mdio de espera at que o primeiro paciente seja admitido
pelo doutor.
(b) Qual a probabilidade de que ningum seja atendido na primeira hora?
Resp: (a) 30 minutos (b) 25 e
6
18. Considere o processo estocstico X(t) = Y cos(t), t 0, onde uma constante,
e Y uma varivel aleatria uniformemente distribuda no intervalo (0, 1).
(a) Calcule a mdia E[X(t)].
(b) Calcule a funo de autocorrelao R
X
(t
1
, t
2
).
(c) Calcule a funo de autocovarincia K
X
(t
1
, t
2
).
(d) Este processo estacionrio no sentido amplo? Justique sua resposta.
Resp: (a)
1
2
cos(t) (b)
1
3
cos(t
1
) cos(t
2
) (c)
1
12
cos(t
1
) cos(t
2
)
(d) no
19. Um processo estocstico v(t) formado pela soma de um processo estocstico
estacionrio no sentido amplo (t) com um processo determinstico s(t) = S
0
e
t
.
v(t) estacionrio no sentido amplo? Justique sua resposta.
Resp: no.
20. Seja um processo estocstico v(t) = (t) +, onde (t) um processo estocstico
ergdico, e uma varivel aleatria. Verique se v(t) ou no estacionrio no
sentido amplo.
Resp: sim.
21. Suponha que uma secretria receba chamadas que chegam de acordo com um
processo de Poisson a uma taxa de 10 chamadas por hora. Qual a probabilidade
de a secretria atender a todas as chamadas, dado que ela est fora de seu escritrio
nos 15 minutos iniciais e nais de cada hora?
Resp: e
5
.
22. Considere os seguintes processos autorregressivos:
W
n
= 2W
n1
+X
n
, W
0
= 0
Z
n
=
1
2
Z
n1
+X
n
, Z
0
= 0
172 Processos Estocsticos
Encontre W
n
e Z
n
em termos de X
n
, X
n1
, . . . , X
1
, e ento encontre E[W
n
] e
E[Z
n
].
Resp:
W
n
=

n
i=1
2
ni
X
n
E[W
n
] = (2
n
1)E[X]
Z
n
=

n
i=1
1
2
ni
X
n
E[Z
n
] = 2(1 (1/2)
n1
)E[X]
23. Seja Z
1
, Z
2
, . . . , Z
n
um conjunto de variveis aleatrias iid, com P[Z
n
= 1] = p e
P[Z
n
= 1] = q = 1 p para todo n. Seja
X
n
=
n

i=1
Z
i
, n = 1, 2, . . .
e X
0
= 0. A coleo de variveis aleatrias {X
n
, n 0} um processo aleatrio,
conhecido como caminhada aleatria simples em uma dimenso X(n).
(a) Construa uma sequncia amostral tpica de X(n).
(b) Sabendo que para este processo, a fdp de primeira ordem dada por:
p
n
(k) =
_
n
(n +k)/2
_
p
(n+k)/2
q
(nk)/2
calcule a probabilidade de X(n) = 2 depois de 4 passos.
(c) Comprove o resultado do item b) enumerando todas as sequncias possveis
que levam ao valor X(n) = 2 depois de 4 passos.
Resp: P[X(4) = 2] = 4pq
3
24. Seja X
n
, n 0 uma sequncia de variveis aleatrias iid com mdia 0 e varincia
1. Mostre que {X
n
, n 0} um processo estacionrio no sentido amplo.
Captulo 9
Processamento de Sinais Aleatrios
Neste captulo vamos utilizar os modelos do Captulo 8 para representar sinais eltricos
como funes amostra de processos estocsticos estacionrios no sentido amplo. Usamos
esta representao para descrever os efeitos de ltros lineares. Em particular vamos
derivar a funo de autocorrelao do processo estocstico na sada de um ltro em
termos da funo de autocorrelao do processo de entrada e da resposta a impulso do
ltro. Vamos denir tambm a funo espectro densidade de potncia de um processo
estocstico.
9.1 Sistemas lineares e invariantes no tempo
Antes de entrarmos no escopo da matria, vamos denir alguns conceitos essenciais
compreenso do assunto:
Denio 9.1. Linearidade: Um sistema linear se atende ao Teorema da Super-
posio, isto
T[ax
1
(t) +bx
2
(t)] = aT[x
1
(t)] +bT[x
2
(t)] (9.1)
onde x
1
(t) e x
2
(t) so sinais de entrada arbitrrios, e a e b so constantes arbitrrias.
Denio 9.2. Invarincia no Tempo: Se y(t) a resposta entrada x(t), ento
o sistema dito invariante no tempo se para x(t ) temos y(t ).
Denio 9.3. Resposta Impulsiva: A resposta impulsiva h(t) de um sistema
linear e invariante no tempo denida por
h(t) = T[(t)] (9.2)
onde (t) uma funo impulso unitrio aplicada no intstante t = 0.
174 Processamento de Sinais Aleatrios
A resposta do sistema para uma entrada arbitrria x(t) ento a convoluo de x(t)
com h(t):
y(t) = h(t) x(t) =
_
+

h(s)x(t s) ds =
_
+

h(t s)x(s) ds (9.3)


para sinais contnuos no tempo, e
y[n] = h[n] x[n] =

j=
h[j]x[n j] =

j=
h[n j]x[j] (9.4)
para sinais discretos no tempo.
Denio 9.4. Causalidade: Um sistema causal se a resposta no instante t
depende apenas de valores de entrada passados, isto , se
h(t) = 0, t < 0 (9.5)
9.2 Filtragem linear de um processo estocstico
Em muitas aplicaes de processamento de sinais interessante representar os sinais
como funes amostra de um processo estocstico. Nestas aplicaes, impossvel saber
antecipadamente qual sinal ir aparecer. Entretanto, podemos obter informaes sobre
os modelos probabilsticos destes sinais. Nas aplicaes mais frequentes, os processos
estocsticos so estacionrios no sentido amplo, e desta forma as informaes disponveis
consistem das estatsticas de primeira e segunda ordem, ou seja, a fdp ou fmp f
X
(x) e
a funo de autocorrelao R
X
().
Consideremos um ltro linear invariante no tempo com resposta a impulso h(t). Se
a entrada um sinal determinstico v(t), a sada w(t) dada pela integral de convoluo
w(t) =
_

h(u)v(t u) du (9.6)
Esta relao pode tambm ser expressa no domnio da frequncia em termos da
transformada de Fourier.
Denio 9.5. Transformada de Fourier. As funes g(t) e G(f) so chamadas
de um par de transformadas de Fourier se
G(f) =
_

g(t) e
j2ft
dt g(t) =
_

G(f) e
j2ft
df (9.7)
Se um ltro linear tem resposta a impulso h(t), a transformada de Fourier H(f)
chamada de resposta em frequncia do ltro. A convoluo entre a entrada v(t) do
ltro e a sua resposta a impulso h(t) no domnio do tempo torna-se uma multiplicao
o domnio da frequncia, isto , se v(t) a entrada de um ltro linear invariante no
Processamento de Sinais Aleatrios 175
tempo com resposta a impulso h(t), a transformada de Fourier da sada do ltro W(f),
est relacionada transformada da entrada, V (f) e resposta em frequncia do ltro
H(f) por
W(f) = H(f)V (f) (9.8)
Se as possveis entradas do ltro so funes amostras de um processo estocstico
X(t), ento para uma entrada particular x(t; s), a sada ser dada pela convoluo
y(t, s) =
_

h(u)x(t u; s) du (9.9)
Pelo fato de y(t; s) estar associada a um resultado s de um experimento, y(t; s)
uma funo amostra de um processo estocstico Y (t). Portanto, o modelo de ltragem
linear completo consiste dos seguintes passos
Realizao do experimento e observao de um resultado s.
Para o processo estocstico X(t) estacionrio no sentido amplo, usa-se a funo
amostra x(t; s) como entrada para um ltro linear invariante no tempo com res-
posta a impulso h(t).
Observao da sada y(t; s) do ltro.
Denio 9.6. Processo de sada de um ltro linear invariante no tempo.
X(t) a entrada de um ltro linear invariante no tempo com resposta a impulso
h(t), e Y (t) a sada se todas as entradas do ltro so funes amostra de X(t) e
as sadas so funes amostra de Y (t). Y (t) est relacionado com X(t) pela integral
de convoluo
Y (t) =
_

h(u)X(t u) du =
_

h(t u)X(u) du (9.10)


A notao matemtica da Denio 9.6 indica que a v.a. Y (t
0
) =
_

h(t
0

u) X(u) du uma funo de todas as v.a.s X(u), para < u < . Desde que Y (t
0
)
uma v.a., tem valor esperado
E[Y (t
0
)] = E
__

h(u)X(t
0
u) du
_
Para avaliar o valor esperado desta integral, lembremos que esta corresponde ao
limite
Y (t
0
) = lim

n
h(n)X(t
0
n)
Desde que a esperana da soma igual soma das esperanas, temos para valores
pequenos de ,
176 Processamento de Sinais Aleatrios
E[Y (t
0
)] E
_

n
h(n)X(t
0
n)
_
=

n
h(n)E[X(t
0
n)]
Isto sugere que medida que 0, temos
E[Y (t
0
)] = E
__

h(u)X(t
0
u) du
_
=
_

h(u)E[X(t
0
u)]du (9.11)
Embora o argumento acima no seja uma prova, contm a idia bsica que uma
integral o limite de uma soma a qual podemos trocar de posio com a esperana. O
seguinte Teorema usa a Equao (9.11) para relacionar o valor mdio
Y
e a funo de
autocorrelao R
Y
() com h(t) e os parmetros correspondentes de X(t).
Teorema 9.1. Se a entrada de um ltro linear invariante no tempo com resposta a
impulso h(t) um processo estacionrio no sentido amplo X(t), a sada um processo
estacionrio no sentido amplo Y (t) com valor mdio e funo de autocorrelao dados
por

Y
=
X
_

h(t) dt =
X
H(0) (9.12)
R
Y
() =
_

h(u)
_

h(v)R
X
( +u v) dvdu (9.13)
Demonstrao. Primeiramente, observemos que a mdia de Y (t)

Y
= E
__

h()X(t ) d
_
=
_

h(u)E[X(t u)]du
Desde que E[X(t)] =
X
para todo t (pois X(t) estacionrio no sentido amplo),

Y
=
_

h(u)
X
du =
X
H(0). Para encontrar R
Y
(t, ) = E[Y (t)Y (t + )], usamos
a Denio 9.6 para escrever
R
Y
(t, ) = E
__

h(u)X(t u) du
_

h(v)X(t + v) dv
_
=
_

h(u)
_

h(v)E[X(t u)X(t + v)]dvdu


Como X(t) estacionrio no sentido amplo, E[X(tu)X(t+ v)] = R
X
( v+u)
de modo que
R
Y
(t, ) = R
Y
() =
_

h(u)
_

h(v)R
X
( v +u) dvdu
Processamento de Sinais Aleatrios 177
Quando a entrada e a sada de um ltro so determinsticas, a relao no domnio da
frequncia W(f) = H(f)V (f) avaliada em f = 0 leva a W(0) = H(0)V (0). Para sinais
determinsticos, V (0) e W(0) so conhecidas como as componentes DC (frequncia zero)
de v(t) e w(t).
Por analogia, podemos interpretar a Equao (9.12) no Teorema 9.1 chamando
X
e
Y
de componentes DC dos processos X(t) e Y (t).
A interpretao da segunda parte do Teorema 9.1 menos direta. Alm disso,
usando o Teorema 9.1 para calcular R
Y
() a partir de R
X
() e h(u) extremamente
difcil. Neste caso, mais fcil trabalhar no domnio da frequncia.
Exemplo 9.1. X(t), um processo estocstico estacionrio no sentido amplo com valor
esperado
X
= 10 volts, a entrada de um ltro linear invariante no tempo. A resposta
a impulso do ltro
h(t) =
_
e
t/0,2
0 t 0, 1
0 caso contrrio
Qual o valor esperado do processo Y (t) de sada do ltro?
Soluo. Aplicando o Teorema 9.1 temos

Y
=
X
_

h(t) dt = 10
_
0,1
0
e
t/0,2
dt = 2 e
t/0,2

0,1
0
= 2(e
0,5
1) = 1, 30 volts
9.3 Espectro densidade de potncia
Assim como para sinais determinsticos, instrutivo considerar a ltragem linear de
processos estocsticos no domnio da frequncia.
Denio 9.7. Espectro densidade de potncia. Para um processo estocstico
X(t) estacionrio no sentido amplo, a funo de autocorrelao e o espectro densidade
de potncia S
X
(f) so o par de transformadas de Fourier
S
X
(f) =
_

R
X
()e
j2f
d R
X
() =
_

S
X
(f)e
j2f
df
Pelo fato de S
X
(f) e R
X
() serem um par de transformadas de Fourier, se tivermos a
expresso de uma, podemos sempre derivar a expresso da outra. O espectro densidade
de potncia tem algumas propriedades importantes.
178 Processamento de Sinais Aleatrios
Teorema 9.2. Para um processo estocstico X(t) estacionrio no sentido amplo, o
espectro densidade de potncia S
X
(f) tem as seguintes propriedades:
a) E[X
2
(t)] = R
X
(0) =
_

S
X
(f) df
b) S
X
(f) = S
X
(f)
Demonstrao. A primeira propriedade demonstrada considerando = 0 para R
X
()
na Denio 9.7.
Para provar a segunda propriedade, observemos que R
X
() = R
X
() implica
S
X
(f) =
_

R
X
()e
j2f
d
Fazendo

= temos
S
X
(f) =
_

R
X
(

)e
j2f(

)
(d

) =
_

R
X
(

)e
j2(f)

= S
X
(f)
Quando interpretamos E[X
2
(t)] como a potncia mdia de X(t), a primeira parte do
Teorema 9.2 sugere que S
X
(f) uma medida da potncia por unidade de frequncia de
X(t). Quando passamos X(t) atravs de um ltro linear h(t), encontramos o espectro
densidade de potncia de Y (t).
Teorema 9.3. Quando um processo X(t) estacionrio no sentido amplo a entrada
de um ltro linear invariante no tempo com resposta em frequncia H(f), a densidade
espectral de potncia da sada Y (t)
S
Y
(f) = |H(f)|
2
S
X
(f) (9.14)
Demonstrao. Do Teorema 9.1, podemos escrever
S
Y
(f) =
_

__

h(u)h(v)R
X
( +v u) dudv
_
e
j2f
d
Fazendo

= +v u temos
S
Y
(f) =
_

h(u)e
j2fu
du
. .
H(f)
_

h(v)e
j2fv
dv
. .
H

(f)
_

R
X
(

)e
j2f

. .
S
X
(f)
= |H(f)|
2
S
X
(f)
Processamento de Sinais Aleatrios 179
Estamos prontos agora para fazer novas interpretaes sobre o espectro densidade
de potncia. Como mostrado na Figura 9.1, suponha que H(f) um ltro passa faixa
ideal com largura de banda B centrada em f
0
, isto
H(f) =
_
1 |f f
0
| B/2
0 caso contrrio
H(f)
1
B
f
0
f
0
f
Figura 9.1: Filtro passa faixa ideal H(f) com frequncia central f
0
e largura de banda
B Hz.
Neste caso, se passamos um processo estocstico X(t) atravs do ltro H(f) teremos
na sada uma forma de onda Y (t) que est na banda de passagem do ltro H(f). Como
mostrado acima, o espectro densidade de potncia da sada do ltro
S
Y
(f) = |H(f)|
2
S
X
(f)
Alm disso, a potncia mdia de Y (t) satisfaz
E[Y
2
(t)] =
_

S
Y
(f) df =
_
f
0
+B/2
f
0
B/2
S
X
(f) df +
_
f
0
+B/2
f
0
B/2
S
X
(f) df
Desde que S
X
(f) = S
X
(f), quando B pequeno, temos
1
E[Y
2
(t)] 2BS
X
(f
0
) (9.15)
Podemos ver que a potncia mdia da sada do ltro aproximadamente o espectro
densidade de potncia da entrada na frequncia central do ltro vezes a largura de faixa
do ltro. Desta forma podemos concluir que S
X
(f
0
) caracteriza a potncia por unidade
de frequncia de X(t) nas frequncias prximas de f
0
.
Alm disso, E[Y
2
(t)] 0 para qualquer frequncia f
0
e largura de banda B no
nula. No limite para B arbitrariamente pequeno, a aproximao da Equao (9.15)
torna-se uma igualdade. Isto implica que BS
X
(f
0
) 0 para todo B no nulo. Segue
ento que S
X
(f) 0 para todo f. Embora este argumento no seja uma prova, fornece
uma intuio para o seguinte teorema:
Teorema 9.4. Para um processo estocstico X(t) estacionrio no sentido amplo, o
espectro densidade de potncia S
X
(f) 0 para todo f.
1
SX(f) aproximadamente constante quando B pequeno.
180 Processamento de Sinais Aleatrios
Exemplo 9.2. Um processo estacionrio X(t) no sentido amplo com funo de auto-
correlao R
X
() = e
b||
aplicado a um ltro RC com resposta a impulso
h(t) =
_
e
t/(RC)
t 0
0 caso contrrio
Assumindo que b > 0 e b = 1/(RC), encontre S
Y
(f) e R
Y
() da sada Y (t) do
ltro. Qual a potncia mdia do processo estocstico na sada do ltro?
Soluo. Por convenincia, faamos a = 1/(RC). Desta forma, a funo de transfe-
rncia do ltro
H(f) =
_

0
e
at
e
j2ft
dt =
1
a +j2f
Portanto
|H(f)|
2
= H(f)H

(f) =
1
a +j2f
1
a j2f
=
1
a
2
+ (2f)
2
O espectro densidade de potncia do sinal de entrada
S
X
(f) =
_

e
b||
e
j2f
d
=
_
0

e
b
e
j2f
d +
_

0
e
b
e
j2f
d
=
1
b j2f
+
1
b +j2f
=
2b
(2f)
2
+b
2
Usando o Teorema 9.3, escrevemos
S
Y
(f) =
2b
[(2f)
2
+a
2
][(2f)
2
+b
2
]
=
2b/(b
2
a
2
)
(2f)
2
+a
2

2b/(b
2
a
2
)
(2f)
2
+b
2
onde a ltima igualdade foi obtida atravs de fraes parciais.
Reconhecendo que para qualquer constante c > 0, e
c||
e 2c/((2f)
2
+c
2
) so pares
de transformadas de Fourier, obtemos a expresso para a funo de autocorrelao de
Y (t)
R
Y
() =
b/a
b
2
a
2
e
a||

1
b
2
a
2
e
b||
A potncia mdia obtida pelo Teorema 9.2
E[Y
2
(t)] = R
Y
(0) =
b/a 1
b
2
a
2
=
1
a(b +a)
Processamento de Sinais Aleatrios 181
9.4 Correlaes cruzadas
Vimos que qundo passamos um processo estocstico X(t) atravs de um ltro linear
H(f), a sada Y (t) um novo processo estocstico. Para duas v.a.s X e Y , a fdp ou
fmp conjunta um modelo de probabilidade completo. Para dois processos estocsticos
X(t) e Y (t), um modelo de probabilidade completo consiste de uma fdp ou fmp conjunta
das v.a.s
X(t
1
), X(t
2
), . . . , X(t
n
), Y (t

1
), Y (t

2
), . . . , Y (t

k
)
para todo n, k, t
1
, t
2
, . . . , t
n
e t

1
, t

2
, . . . , t

k
. Tal funo de probabilidade conjunta contm
informao suciente para responder qualquer questo de engenharia sobre os processos
estocsticos combinados X(t) e Y (t). Entretanto, encontrar e trabalhar com tal funo
em geral extremamente custoso e difcil. A exceo principal o caso de processos
independentes.
Denio 9.8. Processos independentes. Os processos estocsticos X(t) e Y (t)
so independentes se para qualquer coleo de amostras de tempo, t
1
, t
2
, . . . , t
n
e
t

1
, t

2
, . . . , t

m
f
X(t
1
),...,X(tn),Y (t

1
),...,Y (t

m
)
(x
1
, . . . , x
n
, y
1
, . . . , y
m
)
= f
X(t
1
),...,X(tn)
(x
1
, . . . , x
n
)f
Y (t

1
),...,Y (t

m
)
(y
1
, . . . , y
m
)
9.4.1 Funo de correlao cruzada
Para obter ferramentas teis para analisar um par de processos dependentes, lembremos
que a covarincia e a correlao de um par de v.a.s fornecem informaes valiosas sobre
a relao entre as v.a.s. Portanto, para os processos X(t) e Y (t), trabalhamos com a
correlao e a covarincia das v.a.s X(t) e Y (t +). Desde que as v.a.s dependem das
suas variveis temporais t e , a correlao das duas variveis uma funo do tempo.
Denio 9.9. Funo de correlao cruzada. A correlao cruzada dos pro-
cessos X(t) e Y (t) dada por
R
XY
(t, ) = E[X(t)Y (t +)]
Denida a correlao cruzada, vamos agora apresentar dois conceitos importantes
no estudo dos processos estocsticos:
182 Processamento de Sinais Aleatrios
Denio 9.10. Processos descorrelacionados. Dois processos X(t) e Y (t),
estacionrios no sentido amplo, so ditos descorrelacionados se sua funo de corre-
lao cruzada igual ao produto de suas mdias, isto
R
XY
() = X(t)Y (t +) = X Y
Isto implica que as v.a.s x(t) e y(t +) so descorrelacionadas para todo t e .
Denio 9.11. Processos incoerentes ou ortogonais. Dois processos X(t) e
Y (t), estacionrios no sentido amplo, so ditos incoerentes ou ortogonais se
R
XY
() = 0
Observe que os processo ortogonais so processos descorrelacionados com X = 0
e/ou Y = 0.
Assim como para a autocorrelao, existem muitas aplicaes prticas nas quais a
correlao cruzada depende somente da diferena entre dois instantes de tempo .
Denio 9.12. Processos conjuntamente estacionrios no sentido amplo.
Os processos estocsticos X(t) e Y (t) so conjuntamente estacionrios no sentido
amplo se cada um deles estacionrio no sentido amplo, e a correlao cruzada
satisfaz
R
XY
(t, ) = R
XY
()
Propriedades da funo de correlao cruzada
Vimos anteriormente que a funo de autocorrelao par, ou seja, R
X
() = R
X
().
A correlao cruzada de processos estocsticos conjuntamente estacionrios tem uma
simetria ligeiramente diferente:
Teorema 9.5. Se X(t) e Y (t) so conjuntamente estacionrios no sentido amplo
ento
R
XY
() = R
Y X
()
Demonstrao. Da Denio 9.9, R
XY
() = E[X(t)Y (t+)]. Fazendo u = t+, temos
Processamento de Sinais Aleatrios 183
R
XY
() = E[X(u )Y (u)] = E[Y (u)X(u )] = R
Y X
(u, )
Desde que X(t) e Y (t) so conjuntamente estacionrios no sentido amplo, podemos
concluir que R
Y X
(u, ) = R
Y X
()
Teorema 9.6. Se X(t) e Y (t) so conjuntamente estacionrios no sentido amplo
ento
|R
XY
()| {R
X
(0)R
Y
(0)}
1/2
Demonstrao. Usando a Desigualdade de Cauchy-Schwarz (Equao (3.34)), segue que
{E[X(t)Y (t +)]}
2
E[X
2
(t)]E[Y
2
(t +)]
Reescrevendo esta equao em termos da funo de autocorrelao, temos:
[R
XY
()]
2
R
X
(0)R
Y
(0) |R
XY
()|
_
R
X
(0)R
Y
(0)
Teorema 9.7. Se X(t) e Y (t) so conjuntamente estacionrios no sentido amplo
ento
|R
XY
()|
1
2
[R
X
(0) +R
Y
(0)]
Demonstrao.
E
_
[X(t) Y (t +)]
2
_
0
Expandindo o quadrado, temos
E
_
X
2
(t) 2X(t)Y (t +) +Y
2
(t +)

0
E
_
X
2
(t)

2E [X(t)Y (t +)] +E
_
Y
2
(t +)

0
Reescrevendo esta equao em termos das funes de autocorrelao e correlao cru-
zada, temos
R
X
(0) 2R
XY
() +R
Y
(0) 0 R
XY
()
1
2
[R
X
(0) +R
Y
(0)]
184 Processamento de Sinais Aleatrios
Teorema 9.8. Se X e Y so v.a.s independentes, ento
R
XY
() = R
Y X
() = X Y
Demonstrao.
R
XY
() = E[X(t)Y (t +)]
Como X e Y so independentes, podemos escrever
E[X(t)Y (t +)] = E[X(t)]E[Y (t +)] = X Y
9.4.2 Densidade espectral cruzada
Quando X(t) e Y (t) so conjuntamente estacinrios no sentido amplo, podemos estudar
a correlao cruzada no domnio da frequncia.
Denio 9.13. Densidade espectral cruzada. Para processos X(t) e Y (t) con-
juntamente estacinrios no sentido amplo, a transformada de Fourier da correlao
cruzada leva densidade espectral cruzada
S
XY
(f) =
_

R
XY
()e
j2f
d
Como a densidade espectral cruzada a transformada de Fourier da funo de
correlao cruzada, podemos mostrar o seguinte teorema:
Teorema 9.9. Para os processos X(t) e Y (t) conjuntamente estacionrios no sentido
amplo, a densidade espectral cruzada apresenta a seguinte simetria
S
XY
(f) = S
Y X
(f)
Encontramos correlaes cruzadas em experimentos que envolvem observaes rui-
dosas de um processo estocstico X(t) estacionrio no sentido amplo.
Processamento de Sinais Aleatrios 185
Exemplo 9.3. Suponha que estejamos interessados em X(t) mas s podemos observar
Y (t) = X(t) +N(t)
onde N(t) um processo estacionrio no sentido amplo com mdia zero, que interfere
com nossa observao de X(t). Assumimos que X(t) e N(t) so conjuntamente estaci-
onrios no sentido amplo. Para caracterizar Y (t), encontre a mdia E[Y (t)], a funo
de autocorrelao R
Y
(), e o espectro densidade de potncia S
Y
(f).
Soluo. Desde que o valor esperado de uma soma igual soma dos valores esperados,
E[Y (t)] = E[X(t)] +E[N(t)] = E[X(t)]
desde que E[N(t)] = 0 (dado do problema).
Para a funo de autocorrelao, temos
R
Y
(t, ) = E[Y (t)Y (t +)]
= E[(X(t) +N(t))(X(t +) +N(t +))]
= R
X
() +R
XN
(t, ) +R
NX
(t, ) +R
N
()
Quando X(t) e N(t) so conjuntamente estacionrios no sentido amplo R
XN
(t, ) =
R
XN
() e R
NX
(t, ) = R
NX
(). Ento podemos reescrever a equao acima como
R
Y
(t, ) = R
X
() +R
XN
() +R
NX
() +R
N
()
O lado direito desta equao indica que R
Y
(t, ) depende somente de . Isto implica
que Y (t) estacionrio no sentido amplo com funo de autocorrelao R
Y
(t, ) =
R
Y
(). Tomando a transformada de Fourier de ambos os lados, obtemos a densidade
espectral de potncia de Y (t)
S
Y
(f) = S
X
(f) +S
XN
(f) +S
NX
(f) +S
N
(f)
Exemplo 9.4. Continuando o Exemplo 9.3, suponha que N(t) seja um processo de
mdia zero, independente de X(t). Encontre a funo de autocorrelao e a densidade
espectral de potncia da observao Y (t).
Soluo. Neste caso,
R
XN
(t, ) = E[X(t)N(t +)] = E[X(t)]E[N(t +)] = 0
Similarmente, R
NX
(t, ) = 0. Isto implica
R
Y
() = R
X
() +R
N
()
S
Y
(f) = S
X
(f) +S
N
(f)
186 Processamento de Sinais Aleatrios
9.4.3 Filtragem de processos estocsticos
A funo de autocorrelao e a densidade espectral de potncia so particularmente teis
na caracterizao da entrada e sada de um ltro linear invariante no tempo. Quando
X(t) e Y (t) so os processos de entrada e sada de um ltro linear invariante no tempo
h(t), podemos usar a Denio 9.6 para calcular a correlao cruzada R
XY
(t, ).
Teorema 9.10. Quando um processo X(t) estacionrio no sentido amplo a entrada
de um ltro linear invariante no tempo h(t), a correlao cruzada entre entrada e
sada dada por
R
XY
(t, ) = R
XY
() =
_

h(u)R
X
( u) du
Demonstrao. Da Denio 9.6, Y (t +) =
_

h(u)X(t + u) du. Isto implica que


a correlao cruzada entre a entrada e a sada do ltro
R
XY
(t, ) = E
_
X(t)
_

h(u)X(t + u) du
_
=
_

h(u)E[X(t)X(t + u)]du
=
_

h(u)R
X
( u) du
Quando a entrada X(t) de um ltro linear invariante no tempo um processo
estacionrio no sentido amplo, o Teorema 9.1 diz que a sada Y (t) tambm um processo
estacionrio no sentido amplo, e o Teorema 9.10 diz que a correlao cruzada R
XY
(t, )
depende somente de . Estes dois resultados implicam no seguinte teorema.
Teorema 9.11. Quando um processo X(t) estacionrio no sentido amplo a en-
trada de um ltro linear invariante no tempo, a entrada X(t) e a sada Y (t) so
conjuntamente estacionrias no sentido amplo.
No Teorema 9.10 vimos que a correlao cruzada entre a entrada e a sada dada
pela convoluo entre a funo de autocorrelao R
X
() da entrada e a resposta a
impulso h(t) do ltro. Ento podemos pensar em R
XY
() como a sada do ltro h(t)
quando R
X
() a entrada. No exemplo a seguir veremos que calcular a correlao
cruzada antravs de convolues tende a ser um processo complicado.
Exemplo 9.5. Um processo X(t) estacionrio no sentido amplo com funo de auto-
correlao R
X
() = e
b||
a entrada de um ltro RC com resposta impulsiva
Processamento de Sinais Aleatrios 187
h(t) =
_
e
t/(RC)
t 0
0 caso contrrio
Assumindo que b > 0, encontre a correlao cruzada R
XY
() entre a entrada e a
sada.
Soluo. Seja a = 1/(RC). Do Teorema 9.10, a correlao cruzada
R
XY
() =
_

h(u)R
X
( u) du =
_

0
e
au
e
b|u|
du
Para 0, esta integral pode ser escrita como
R
XY
() =
_

0
e
(ab)ub
du +
_

e
(a+b)u+b
du =
e
b
a b

2be
a
a
2
b
2
Quando < 0 e u 0, ento | u| = u e
R
XY
() =
_

0
e
au
e
b(u)
du =
e
b
a +b
Uma expresso completa para a correlao cruzada entre a entrada e a sada
R
XY
() =
_

_
e
b
a +b
< 0
e
b
a b

2be
a
a
2
b
2
0
O Teorema 9.10 nos encoraja a reexaminar o Teorema 9.1 desde que a integral dupla
para R
Y
() pode ser expressa em termos da correlao cruzada R
XY
()
Teorema 9.12. Quando um processo X(t) estacionrio no sentido amplo a entrada
de um ltro linear h(t) invariante no tempo, a funo de autocorrelao da sada Y (t)
dada por
R
Y
() =
_

h(w)R
XY
( w) dw
Demonstrao.
R
Y
() =
_

h(u)
_

h(v)R
X
( +u v) dv
. .
R
XY
(+u)
du =
_

h(u)R
XY
( +u) du
A substituio w = u na integral acima completa a prova.
188 Processamento de Sinais Aleatrios
O Teorema 9.12 diz que ao passarmos o sinal determinstico R
XY
() atravs de um
ltro linear invariante no tempo h(t) obtemos a funo de autocorrelao R
Y
().
Observemos que um ltro com resposta a impulso h(t) pode tambm ser repre-
sentado como um ltro de resposta em frequncia H

(f). No domnio da frequncia, os


Teoremas 9.10 e 9.12 tm as seguintes consequncias
Teorema 9.13. Seja X(t) uma entrada estacionria no sentido amplo para um ltro
linear invariante no tempo H(f). A entrada X(t) e a sada Y (t) satisfazem
S
XY
(f) = H(f)S
X
(f) S
Y
(f) = H

(f)S
XY
(f)
As relaes entre R
X
(), R
XY
() e R
Y
(), bem como entre S
X
(f), S
XY
(f) e S
Y
(f)
so mostradas na Figura 9.2.
............................................................................................................................................... ............................................................................................................................................... ...............................................................................................................................................
............................................................................................................................................... ............................................................................................................................................... ...............................................................................................................................................
R
X
()
S
X
(f)
h()
H(f)
R
XY
()
S
XY
(f)
h()
H

(f)
R
Y
()
S
Y
(f)
-
-
-
-
-
-
Figura 9.2: A correlao cruzada entre a entrada e a sada de um ltro linear invariante
no tempo a convoluo da resposta a impulso do ltro com a funo de autocorrelao
da entrada. A densidade espectral cruzada entre a entrada e a sada o produto do
espectro densidade de potncia da entrada com a funo de transferncia do ltro. A
densidade espectral de potncia da sada o produto da densidade espectral cruzada
da entrada e da sada e o complexo conjugado da funo de transferncia do ltro.
9.5 Processos gaussianos
Um processo gaussiano tem a propriedade de que toda coleo de valores de amos-
tras descrita pela fdp Gaussiana multidimensional. Isto , uma coleo de amostras
X(t
1
), X(t
2
), . . . , X(t
k
), tem uma fdp conjunta descrita por um vetor
X
= [
X
(t
1
),

X
(t
2
), . . . ,
X
(t
k
)]
t
e uma matriz C cujo i, j-simo elemento
C
i,j
= C
X
(t
i
, t
j
t
i
) = R
X
(t
i
, t
j
t
i
)
X
(t
i
)
X
(t
j
)
a covarincia entre X(t
i
) e X(t
j
). Usando o vetor x = [x
1
, . . . , x
k
]
t
, o vetor de valores
mdios
X
, a matriz de covarincia C e seu determinante |C|, podemos denir a fdp
Gaussiana multidimensional.
Processamento de Sinais Aleatrios 189
Denio 9.14. Processo Gaussiano: X(t) um processo estocstico Gaussiano
se a fdp conjunta de X(t
1
), . . . , X(t
k
) tem densidade Gaussiana multidimensional
f
X(t
1
)X(t
k
)
(x
1
, . . . , x
k
) =
1
(2)
k/2
|C|
1/2
e

1
2
(x
X
)
t
C
1
(x
X
)
Embora esta expresso possa parecer bastante complicada, pode ser reduzida para
expresses familiares em vrios casos. Por exemplo, quando k = 1, a matriz C
simplesmente o escalar C
X
(t
1
, 0) = Var(X(t
1
)) =
2
1
., o vetor
X
o escalar E[X(t
1
)] =

1
e a fdp conjunta pode ser simplicada para a densidade Gaussiana ordinria
f
X(t
1
)
(x
1
) =
1
_
2
2
1
e

(x
1

1
)
2
2
2
1
Similarmente, para k = 2, X(t
1
) e X(t
2
) apresentam distribuio Gaussiana bidi-
mensional
f
X(t
1
)X(t
2
)
(x
1
, x
2
) =
exp
_

x
1

2(x
1

1
)(x
2

2
)

2
+

x
2

2
2(1
2
)
_
2
1

2
_
1
2
onde X(t
1
) e X(t
2
) tm coeciente de correlao = C
X
(t
1
, t
2
t
1
)/(
1

2
) e
E[X(t
1
)] =
1
E[X(t
2
)] =
2
Var[X(t
1
)] =
2
1
Var[X(t
2
)] =
2
2
Um ltimo caso importante para a fdp Gaussiana conjunta ocorre quando X(t
1
), . . . ,
X(t
k
) so mutuamente independentes. Neste caso, o elemento (i, j) da matriz de cova-
rincia C dado por
C
ij
= C
X
(t
i
, t
j
t
i
) =
_
Var[X(t
i
)] i = j
0 caso contrrio
Isto , a matriz C uma matriz diagonal. Neste caso, C
1
tambm diagonal, com
o i-simo elemento da diagonal dado por C
1
ii
= 1/ Var[X(t
i
)]. Usando
i
e
2
i
para
denotar a mdia e a varincia de X(t
i
), observamos que o vetor de valores mdios

X
= [
1
, . . . ,
k
]
t
e que o expoente da distribuio Gaussiana conjunta

1
2
(x
X
)
t
C
1
(x
X
) =
1
2
_
(x
1

1
)
2

2
1
+ +
(x
k

k
)
2

2
k
_
Neste caso, a fdp conjunta torna-se
f
X(t
1
), ,X(t
k
)
(x
1
, . . . , x
k
) =
e
(x
1

1
)
2
/(2
2
1
)
_
2
2
1

e
(x
k

k
)
2
/(2
2
k
)
_
2
2
k
= f
X(t
1
)
(x
1
) f
X(t
k
)
(x
k
)
190 Processamento de Sinais Aleatrios
Um fato importante a ser observado da distribuio Gaussiana multidimensional
geral que a fdp completamente especicada pelas mdias
X(t
1
)
, . . . ,
X(t
k
)
e as
covarincias C
X
(t
i
, t
j
t
i
). Ou seja, um processo estocstico Gaussiano completamente
especicado pelas estatsticas de primeira e segunda ordens (
X(t)
e C
X
(t, )).
Nosso interesse principal est nos processos Gaussianos estacionrios no sentido
amplo. Neste caso, E[X(t
i
)] =
X
para cada t
i
e C
X
(t
i
, t
j
t
i
) = R
X
(t
j
t
i
)
2
X
.
Isto , quando o processo Gaussiano estacionrio no sentido amplo, sua distribuio
completamente especicada pela mdia
X
e a funo de autocorrelao R
X
().
Teorema 9.14. Se X(t) um processo Gaussiano estacionrio no sentido amplo,
ento X(t) um processo Gaussiano estacionrio no sentido estrito.
Demonstrao. Sejam e C o vetor mdia e a matriz de covarincia do vetor aleatrio
[X(t
1
), . . . , X(t
k
)]
t
. Sejam

e C

as mesmas quantidades para o vetor aleatrio deslo-


cado no tempo [X(t
1
+ T), . . . , X(t
k
+ T)]
t
. Desde que X(t) estacionrio no sentido
amplo,
E[X(t
i
)] = E[X(t
i
+T)] =
X
O elemento (i, j) de C
C
ij
= C
X
(t
i
, t
j
) = C
X
(t
j
t
i
) = C
X
(t
j
+T (t
i
+T)) = C
X
(t
i
+T, t
j
+T) = C

ij
Ento, =

e C = C

, o que implica em
f
X(t
1
), ,X(t
k
)
(x
1
, . . . , x
k
) = f
X(t
1
+T), ,X(t
k
+T)
(x
1
, . . . , x
k
)
Portanto X(t) um processo estacionrio no sentido estrito.
A Denio 9.14 bastante difcil de usar na prtica. Uma denio equivalente de
um processo Gaussiano refere-se a uma v.a. que um funcional linear de um processo
estocstico X(t). Especicamente, se integramos X(t) ponderada por uma funo g(t)
sobre um intervalo (0, T), obtemos a v.a.
Y =
_
T
0
g(t)X(t) dt
Teorema 9.15. X(t) um processo estocstico Gaussiano se Y =
_
T
0
g(t)X(t) dt
uma v.a. Gaussiana para todo g(t) tal que E[Y
2
] < .
Este teorema nos permite mostrar facilmente que a ltragem linear de um processo
Gaussiano gera um outro processo Gaussiano.
Processamento de Sinais Aleatrios 191
Teorema 9.16. Passando um processo X(t) estacionrio Gaussiano atravs de um
ltro linear h(t), gera-se na sada um processo estocstico Gaussiano Y (t) com mdia
e funo de autocorrelao dados pelo Teorema 9.1.
Demonstrao. A sada Y (t) dada pela integral de convoluo
Y (t) =
_

h(t )X() d
Para mostrar que Y (t) um processo Gaussiano, mostramos que um funcional linear
de Y (t) sempre Gaussiano pois um funcional linear de X(t), isto ,
_
T
0
Y (t)g(t) dt =
_
T
0
_

h(t )X() d g(t) dt =


_

X()
__
T
0
h(t )g(t) dt
_
d
No lado direito temos um funcional linear de X(t) o qual uma v.a. Gaussiana.
Desta forma mostramos que um funcional linear de Y (t) uma v.a. Gaussiana, o que
implica que Y (t) um processo estocstico Gaussiano.
9.6 Processo rudo branco gaussiano
Em engenharia eltrica comum o estudo de rudo: rudo trmico em resistores, rudo
em sistemas de comunicaes, etc. O rudo uma forma de onda imprevisvel que
normalmente modelado por um processo estocstico Gaussiano estacionrio W(t). O
rudo no tem componente DC, de modo que
E[W(t
1
)] =
W
= 0
Alm disso, para enfatizar a natureza imprevisvel do processo de rudo, assumimos
que para qualquer coleo de instantes de tempo distintos t
1
, . . . , t
k
, W(t
1
), . . . , W(t
k
)
um conjunto de v.a.s independentes. Neste caso, o valor do rudo no instante t
1
no diz nada sobre o valor do mesmo no instante t
j
, j = i. Uma consequncia desta
independncia que para = 0,
R
W
() = E[W(t)W(t +)] = E[W(t)]E[W(t +)] = 0
Para completar nosso modelo de W(t), temos que encontrar R
W
(0). Para isto,
vamos considerar a funo densidade espectral de potncia S
W
(f) da Denio 9.7
S
W
(f) =
_

R
W
()e
j2f
d
Com R
W
() = 0 para = 0, S
W
(f) uma constante para todo f. Ainda, a
constante igual a zero a menos que R
W
() = (). Portanto, N
0
a potncia por
unidade de largura de banda do processo estocstico Gaussiano branco. Embora o
processo rudo branco Gaussiano seja um modelo matemtico bastante til, ele no se
conforma com nenhum sinal real. Note que a potncia mdia do rudo
192 Processamento de Sinais Aleatrios
E[W
2
(t)] = R
W
(0) =
_

S
W
(f) df =
_

N
0
2
df =
Isto , o rudo branco tem potncia innita, o que sicamente impossvel. O
modelo til quando se imagina que um modelo de rudo na entrada de um sistema
fsico. Todo sinal de rudo Gaussiano observado na prtica pode ser visto como um sinal
de rudo branco Gaussiano ltrado. Passando um processo rudo branco atravs de um
ltro h(t) geramos um processo de rudo
Y (t) =
_
t
0
h(t )W() d
Ao contrrio do processo branco W(t), o processo de rudo Y (t) tem potncia mdia
nita.
Exemplo 9.6. Um processo Gaussiano branco com N
0
= 10
15
W/Hz inserido em
um ltro linear invariante no tempo com resposta a impulso
h(t) =
_
210
6
e
210
6
t
t 0
0 caso contrrio
Encontre as seguintes propriedades do processo de sada Y (t).
(a) A funo densidade espectral de potncia S
Y
(f).
(b) A funo de autocorrelao R
Y
().
(c) A potncia mdia E[Y
2
(t)].
Soluo. Resolvemos este problema usando o Teorema 9.3. A funo densidade espec-
tral de potncia da entrada S
X
(f) = 10
15
/2 W/Hz para todo f.
A magnitude ao quadrado da resposta em frequncia do ltro dada por
|H(f)|
2
=
(210
6
)
2
(2f)
2
+ (210
6
)
2
Portanto, a funo densidade espectral de potncia da sada dada por
S
Y
(f) = |H(f)|
2
S
X
(f) =
10
15
2
(210
6
)
2
(2f)
2
+ (210
6
)
2
=
10
9
2
2(210
6
)
(2f)
2
+ (210
6
)
2
A transformada inversa de Fourier de
2(210
6
)
(2f)
2
+ (210
6
)
2
dada por e
210
6
||
. Isto
implica que
R
Y
() =
10
9
2
e
210
6
||
A potncia mdia no processo de sada , portanto, R
Y
(0) = /2 10
9
W.
Processamento de Sinais Aleatrios 193
9.7 Exerccios
1. Mostre que se o espectro densidade de potncia de um processo estocstico
limitado em banda a B Hz, e se as amostras do sinal so descorrelacionadas em
= n/(2B), para todos os valores integrais de n, ento o processo precisa ter um
espectro densidade de potncia com distribuio uniforme sobre a banda (0, B).
Em outras palavras, o processo precisa ser um rudo branco limitado em banda.
2. Suponha que em um sistema de comunicao existem dois sinais sendo transmi-
tidos: x(t) e y(t). Na transmisso, devido ao rudo de canal, n(t), chegam ao
receptor os sinais x(t) + n(t) e y(t) + n(t). Explique como podemos decidir qual
sinal foi recebido, se o receptor conhece as formas de onda de x(t) e y(t).
3. Um processo estocstico Y (t) relacionado ao processo estocstico X(t) por
Y (t) = X(t) cos(
0
t +)
onde uma varivel aleatria independente uniformemente distribuda sobre o
intervalo (0, 2). Mostre que
R
Y
() =
1
2
R
X
() cos(
0
)
S
Y
() =
1
4
[S
X
( +
c
) +S
X
(
c
)]
Esta a extenso do teorema da modulao para processos estocsticos.
Dica: se dois processos estocsticos x(t) e y(t) so independentes, ento
x(t)g(t)x(t +)g(t +) = x(t)x(t +) g(t)g(t +) = R
X
()R
g
()
4. Dois processos estocsticos so dados por
x(t) = Acos(
1
t +) e y(t) = Bcos(
2
t +)
onde A, B,
1
e
2
so constantes. As fases iniciais e esto relacionadas
pela equao = 2 e a varivel aleatria uniformemente distribuda sobre o
intervalo (0, 2). Mostre que a funo de correlao cruzada e o espectro densidade
de potncia cruzada dos dois processos so zero.
5. Sejam os processos estocsticos
x(t) = Acos(
0
t +) e y(t) = Bcos(n
0
t +n)
onde A, B e
0
so constantes e uma varivel aleatria uniformemente distri-
buda no intervalo (0, 2). Mostre que os dois processos so incoerentes.
194 Processamento de Sinais Aleatrios
6. Seja h(t) um ltro passa baixas com resposta a impulso
h(t) =
_
e
t
t 0
0 caso contrrio
A entrada do ltro X(t), um processo estacionrio no sentido amplo com valor
esperado
X
= 2 e funo de autocorrelao R
X
() = (). Calcule a mdia e a
funo de autocorrelao do processo Y (t) na sada deste ltro.
Resp: E[Y (t)] = 2 R
Y
() =
1
2
e
||
7. Seja um processo X(t) estacionrio no sentido amplo e de mdia zero com funo
de autocorrelao dada por R
X
() = (). Se passarmos este sinal por um ltro
linear invariante no tempo com resposta a impulso
h(t) =
_
e
2t
t 0
0 caso contrrio
qual ser a densidade espectral de potncia da sada Y (t)?
Resp: S
Y
(f) =
1
4 + 4
2
f
2
8. O processo X(t) estacionrio no sentido amplo a entrada de um ltro tapped
delay line
H(f) = a
1
e
j2ft
1
+a
2
e
j2ft
2
Encontre a densidade espectral cruzada S
XY
(f) e a correlao cruzada R
XY
().
Resp:
S
XY
(f) = a
1
e
j2ft
1
S
X
(f) +a
2
e
j2ft
2
S
X
(f)
R
XY
() = a
1
R
X
( t
1
) +a
2
R
X
( t
2
)
9. X(t) um processo estocstico Gaussiano de mdia zero com funo de autocor-
relao R
X
() = 2
||
. Qual a fdp conjunta de X(t) e X(t + 1)?
Resp: f
X(t),X(t+1)
(x
0
, x
1
) =
1

3
2
e

2
3
(x
2
0
x
0
x
1
+x
2
1
)
10. Um processo rudo branco Gaussiano N(t) com densidade espectral de potncia de
W/Hz passado atravs de um integrador gerando a sada Y (t) =
_
t
0
N(u) du.
Calcule a funo de autocorrelao R
Y
(t, ).
Resp: R
Y
(t, ) = min{t, t +}
11. Verique quais das funes abaixo podem ser consideradas espectro densidade de
potncia de um processo estocstico real. Em caso positivo, calcule a potncia do
processo.
Processamento de Sinais Aleatrios 195
(a)
1

2
+ 16
(b) j[(
0
) +( +
0
)] (c)
1

4
+ 9
2
+ 18
(d)

2
+ 16
(e)
j
2

2
+ 16
(f)

3

4
+ 9
2
+ 18
Resp:
(a) Sim. P = 1/8.
(b) No.
(c) Sim. P =

3
18

2
0, 0282.
(d) No.
(e) No.
(f) No.
12. A funo de autocorrelao de um sinal telegrco dada por
R
X
() = e
2||
Calcule o espectro densidade de potncia deste processo.
Resp: S
X
(f) =
4
4
2
+ (2f)
2
13. Um processo estocstico X(t), estacionrio no sentido amplo, com funo de au-
tocorrelao
R
X
() = e
a||
onde a uma constante positiva real, aplicado entrada de um sistema linear
invariante no tempo com resposta a impulso
h(t) = e
bt
u(t)
onde b uma constante real positiva. Encontre a funo de autocorrelao da
sada Y (t) do sistema.
Resp: R
Y
() =
1
(a
2
b
2
)b
_
ae
b||
b e
a||
_
14. Seja um processo rudo branco cujas componentes de frequncia so limitadas
faixa W f W. Determine:
(a) O espectro densidade de potncia.
(b) A funo de autocorrelao.
(c) A potncia mdia do processo.
Resp:
196 Processamento de Sinais Aleatrios
(a) S
X
(f) =
_
_
_
N
0
2
, |f| W
0, caso contrrio
(b) R
X
() = N
0
W sinc(2W)
(c) P = N
0
W
15. Dois processos estocsticos X(t) e Y (t) so dados por
X(t) = Acos(t + ) Y (t) = Asen(t + )
onde A e so constantes e uma v.a. com distribuio uniforme sobre o
intervalo (0, 2).
(a) Encontre a correlao cruzada entre X(t) e Y (t).
(b) Mostre que R
XY
() = R
Y X
()
Resp:
(a) R
XY
(t, t +) =
A
2
2
sen()
R
Y X
(t, t +) =
A
2
2
sen()
(b)
16. Mostre que o espectro densidade de potncia de um sinal real real e par.
17. Seja Y (n) = X(n) + W(n), onde X(n) = A (para todo n) e A uma v.a. com
mdia zero e varincia
2
A
, e W(n) um rudo branco discreto de potncia mdia

2
. Assuma tambm que X(n) e Y (n) so independentes.
(a) Mostre que Y (n) estacionrio no sentido amplo.
(b) Encontre o espectro densidade de potncia de Y (n).
Resp:
(a) E[Y (n)] = 0
R
Y
(n, n +k) =
2
A
+
2
(k)
(b) S
Y
() = 2
2
A
() +
2
,
18. Um processo estocstico Y (t) denido por
Y (t) = AX(t) cos(
c
t + )
onde A e
c
so constantes, uma v.a. com distribuio uniforme no intervalo
(, ), e X(t) um processo estocstico de mdia zero, funo de autocorrelao
R
X
(), e espectro densidade de potncia S
X
(). Ainda, X(t) e so indepen-
dentes. Mostre que Y (t) estacionrio no sentido amplo e encontre o espectro
densidade de potncia de Y (t).
Resp:
S
Y
() =
A
2
4
[S
X
(
c
) +S
X
( +
c
)]
Processamento de Sinais Aleatrios 197
19. Na entrada de um ltro, tem-se um processo estocstico com espectro densidade
de potncia S

().
(a) Determine a resposta em frequncia (amplitude) de um ltro para que a sada
seja um rudo branco, ou seja, S

() = S
0
.
(b) Idem para um processo de entrada com S

() = S
0
exp
_
2(
0
)
2

.
(c) Idem para um processo de entrada com S

() =
S
0

2
+
2
.
............................................................................................................................................... - ............................................................................................................................................... -
S

()
H(j)
S

() = S
0
Resp: (a)

S
0
S

()
(b) e
(
0
)
2
(c)
1

2
+
2
20. Na entrada do circuito mostrado na Figura abaixo tem-se um rudo branco com
S
0
= 120V
2
/Hz. Dados R
1
= R
2
= 10
4
e L = 10
2
H, calcule o espectro
densidade de potncia, a funo de autocorrelao e a potncia do processo de
sada.
R1
R2
L
U1 U2
Dica: a funo de transferncia deste ltro dada por
H() =
U
2
()
U
1
()
=
R
2
R
1
+R
2
+jL
=

1 +jT
, =
R
2
R
1
+R
2
, T =
L
R
1
+R
2
.
Resp: S
Y
() =
S
0

2
1 + (T)
2
R
Y
() =

2
S
0
2T
e

||
T
E
_
Y
2
(t)

=

2
S
0
T
21. Seja Y (t) = X(t d), onde d um atraso constante e X(t) um processo esta-
cionrio no sentido amplo. Calcule R
Y X
(), S
Y X
(f), R
Y
() e S
Y
(f), em funo
de R
X
() e S
X
(f).
Resp:
R
Y X
() = R
X
( +d) S
Y X
(f) = S
X
(f) cos(2fd) jS
X
(f) sen(2fd)
R
Y
() = R
X
() S
Y
(f) = S
X
(f)
22. Seja X(t) um processo estocstico diferencivel, estacionrio no sentido amplo.
Seja tambm
198 Processamento de Sinais Aleatrios
Y (t) =
d
dt
X(t)
Encontre uma expresso para S
Y
(f) e R
Y
() em funo de S
X
(f) e R
X
().
Dica: Para este sistema: H(f) = j2f.
Resp: S
Y
(f) = 4
2
f
2
S
X
(f) R
Y
() =
d
2
d
2
R
X
()
23. Dois processos estocsticos X(t) e Y (t) so dados por
X(t) = Acos(t +) Y (t) = Asen(t +)
onde A e so constantes, e uma varivel aleatria com distribuio uniforme
no intervalo (0, 2).
(a) Encontre a funo de correlao cruzada entre X(t) e Y (t).
(b) Mostre que R
XY
() = R
Y X
() .
Resp:R
XY
() =
A
2
2
sen()
24. Em relao ao espectro densidade de potncia S
X
():
(a) Mostre que S
X
() real.
(b) Mostre que S
X
() par.
Dica: use a identidade de Euler: e
j
= cos() +j sen() e os conceitos de funes
pares e mpares.
Captulo 10
Cadeias de Markov
Em geral, uma varivel aleatria dentro de um conjunto, denindo um processo estocs-
tico, no independente e de fato pode ser estatisticamente dependente de vrias formas
complexas. Neste captulo ser introduzida a classe dos processos aleatrios de Markov
que tem uma forma simples de dependncia e bastante utilizada em modelamento de
problemas encontrados na prtica.
10.1 Processos de Markov
Denio 10.1. Um processo aleatrio X(t) um processo de Markov se o futuro,
dado o presente, independente do passado, isto , para instantes arbitrrios t
1
<
t
2
< < t
n
< t
n+1
,
P[X(t
n+1
) = x
n+1
|X(t
n
) = x
n
, X(t
n1
) = x
n1
, . . . , X(t
1
) = x
1
] =
P[X(t
n+1
) = x
n+1
|X(t
n
) = x
n
] (10.1)
se X(t) assume valores discretos, e
P[a < X(t
n+1
) b|X(t
n
) = x
n
, X(t
n1
) = x
n1
, . . . , X(t
1
) = x
1
]
= P[a < X(t
n+1
) b|X(t
n
) = x
n
] (10.2)
se X(t) assume valores contnuos.
Se as amostras de X(t) so conjuntamente contnuas, ento a equao (10.2) equi-
valente a
f
X(t
n+1
)
(x
n+1
|X(t
n
) = x
n
, . . . , X(t
1
) = x
1
) = f
X(t
n+1
)
(x
n+1
|X(t
n
) = x
n
) (10.3)
Chamaremos as equaes (10.1), (10.2) e (10.3) como a propriedade de Markov.
Nas expresses acima t
n
o presente, t
n+1
o futuro, e t
1
, . . . , t
n1
, o passado.
200 Cadeias de Markov
Desta maneira, para os processos de Markov, as fmps e fdps que so condicionadas
a vrios instantes de tempo, sempre se reduziro a fmps e fdps condicionadas apenas
ao mais recente instante de tempo. Por esta razo nos referimos ao valor de X(t) no
instante t como o estado do processo no instante t.
Exemplo 10.1. Verique se o processo de soma
S
n
= X
1
+X
2
+ +X
n
= S
n1
+X
n
onde os X
i
s so uma sequncia de variveis aleatrias independentes e identicamente
distribudas e onde S
0
= 0, um processo de Markov.
Soluo. Sn um processo de Markov, pois
P[S
n+1
= s
n+1
|S
n
= s
n
, S
n1
= s
n1
, . . . , S
1
= s
1
] = P[X
n+1
= S
n+1
S
n
]
= P[S
n+1
= s
n+1
|S
n
= s
n
]
Exemplo 10.2. Considere mdia mvel de uma sequncia de Bernoulli
Y
n
=
1
2
(X
n
+X
n1
)
onde os X
i
so sequncias independentes de Bernoulli, com p = 1/2. Verique se Y
n

ou no um processo de Markov.
Soluo. A fmp de Y
n

P[Y
n
= 0] =P[X
n
= 0, X
n1
= 0] =
1
4
P[Y
n
= 1/2] =P[X
n
= 0, X
n1
= 1] +P[X
n
= 1, X
n1
= 0] =
1
2
P[Y
n
= 1] =P[X
n
= 1, X
n1
= 1] =
1
4
Consideremos agora as seguintes probabilidades condicionais para dois valores con-
secutivos de Y
n
:
P [Y
n
= 1|Y
n1
= 1/2] =
P [Y
n
= 1, Y
n1
= 1/2]
P [Y
n1
= 1/2]
=
P [X
n
= 1, X
n1
= 1, X
n2
= 0]
1/2
=
(1/2)
3
1/2
=
1
4
Suponhamos agora que temos um conhecimento adicional sobre o passado:
Cadeias de Markov 201
P
_
Y
n
= 1|Y
n1
=
1
2
, Y
n2
= 0
_
=
P [Y
n
= 1, Y
n1
= 1/2, Y
n2
= 0]
P [Y
n1
= 1/2, Y
n2
= 0]
=
P[X
n
= 1, X
n1
= 1, X
n2
= 0, X
n3
= 0]
P[X
n1
= 1, X
n2
= 0, X
n3
= 0]
=
1/16
1/8
=
1
2
Desta forma,
P
_
Y
n
= 1|Y
n1
=
1
2
, Y
n2
= 0
_
= P
_
Y
n
= 1|Y
n1
=
1
2
_
e este no um processo de Markov.
Denio 10.2. Um processo de Markov que assume somente valores inteiros
chamado de Cadeia de Markov.
No restante deste captulo iremos nos ater s Cadeias de Markov.
Se X(t) uma cadeia de Markov, ento a fmp conjunta para trs instantes de tempo
arbitrrios
P[X(t
3
) = x
3
, X(t
2
) = x
2
, X(t
1
) = x
1
] =
= P[X(t
3
) = x
3
|X(t
2
) = x
2
, X(t
1
) = x
1
]P[X(t
2
) = x
2
, X(t
1
) = x
1
]
= P[X(t
3
) = x
3
|X(t
2
) = x
2
]P[X(t
2
) = x
2
, X(t
1
) = x
1
]
= P[X(t
3
) = x
3
|X(t
2
) = x
2
]P[X(t
2
) = x
2
|X(t
1
) = x
1
]P[X(t
1
) = x
1
]
(10.4)
onde usamos a denio de probabilidade condicional e a propriedade de Markov. Em
geral, a fmp conjunta para n + 1 instantes de tempo arbitrrios
P[X(t
n+1
) = x
n+1
, X(t
n
) = x
n
, . . . , X(t
1
) = x
1
]
= P[X(t
n+1
) = x
n+1
|X(t
n
) = x
n
]P[X(t
n
) = x
n
|X(t
n1
) = x
n1
] P[X(t
1
) = x
1
]
(10.5)
Desta forma a fmp conjunta de X(t) em instantes de tempo arbitrrios dada pelo
produto da fmp do instante de tempo inicial e as probabilidades para as transies de
estado subsequentes. Evidentemente, as probabilidades de transio de estado determi-
nam o comportamento estatstico de uma cadeia de Markov.
202 Cadeias de Markov
10.2 Cadeias de Markov de Tempo discreto
Seja X
n
uma cadeia de Markov de tempo discreto, que comea em n = 0 com a seguinte
fmp
p
j
(0)

= P[X
0
= j], j = 0, 1, 2, . . . (10.6)
Da equao (10.3) a fmp conjunta para os primeiros n+1 valores do processo dada
por
P[X
n
= i
n
, X
n1
= i
n1
, . . . , X
0
= i
0
] =
P[X
n
= i
n
|X
n1
= i
n1
]P[X
n1
= i
n1
|X
n2
= i
n2
]
P[X
1
= i
1
|X
0
= i
0
]P[X
0
= i
0
] (10.7)
Desta forma a fmp conjunta para uma sequncia particular simplesmente o produto
da probabilidade para o estado inicial com as probabilidades para as transies de um
passo subsequentes.
Denio 10.3. Probabilidades de transio homogneas: Uma cadeia de Mar-
kov X
n
tem probabilidades de transio homogneas se as probabilidades de transio
para um passo so xas e no variam com o tempo, isto
P[X
n+1
= j|X
n
= i] = p
ij
, n (10.8)
A fmp conjunta para X
n
, X
n1
, . . . , X
0
ento dada por
P[X
n
= i
n
, X
n1
= i
n1
, . . . , X
0
= i
0
] = p
i
n1
,in
. . . p
i
0
,i
1
p
i
0
(0) (10.9)
Desta forma X
n
completamente especicado pela fmp inicial p
i
(0) e pela matriz
de probabilidades de transio de um passo P
P =
_

_
p
00
p
01
p
02

p
10
p
11
p
12

.
.
.
.
.
.
.
.
.
p
i1,0
p
i1,1
p
i1,2

p
i,0
p
i,1
p
i,2

.
.
.
.
.
.
.
.
.
_

_
(10.10)
A matriz P chamada de matriz de probabilidade de transio. Note que a
soma de cada linha de P deve ser igual a 1
1 =

j
P[X
n+1
= j|X
n
= i] =

j
p
ij
(10.11)
Cadeias de Markov 203
Exemplo 10.3. Um modelo de Markov para transmisso de voz por pacotes assume
que se o n-simo pacote contm silncio, a probabilidade de silncio no prximo pacote
(1 ) e a probabilidade do pacote conter voz .
Similarmente, se o n-simo pacote contiver atividades de voz, a probabilidade do
prximo pacote conter voz (1 ), e a probabilidade de silncio . Esboce uma
cadeia de Markov para este problema.
Soluo. Supondo X
n
a funo que indica a atividade voz em um determinado pacote
no instante n, ento X
n
uma cadeia de Markov de 2 estados e matriz de probabilidade
de transio como mostrado abaixo.
P =
_
1
1
_
10.2.1 Probabilidade de transio para n passos
Para avaliar a fmp conjunta em instantes de tempo arbitrrios (veja equao 10.5), pre-
cisamos conhecer as probabilidades de transio para um nmero arbitrrio de passos.
Seja P(n) = {p
ij
(n)} a matriz de probabilidades de transio para n passos, onde
p
ij
(n) = P[X
n+k
= j|X
k
= i], n, i, j 0 (10.12)
Note que P[X
n+k
= j|X
k
= i] = P[X
n
= j|X
0
= i] n 0, k 0, desde que as
probabilidades de transio no dependem do tempo.
Consideremos primeiramente as probabilidades de transio para dois passos. A pro-
babilidade de ir do estado i em t = 0, passando pelo estado k em t = 1, e terminando
no estado j em t = 2
P[X
2
= j, X
1
= k|X
0
= i] =
P[X
2
= j, X
1
= k, X
0
= i]
P[X
0
= i]
=
P[X
2
= j|X
1
= k]P[X
1
= k|X
0
= i]P[X
0
= i]
P[X
0
= i]
= P[X
2
= j|X
1
= k]P[X
1
= k|X
0
= i]
= p
ik
(1)p
kj
(1)
204 Cadeias de Markov
Note que p
ik
(1) e p
kj
(1) so componentes de P, a matriz de transio de um passo.
Obtemos p
ij
(2), a probabilidade de ir do estado i em t = 0 para o estado j em t = 2,
somando sobre todos os possveis estados intermedirios k
p
ij
(2) =

k
p
ik
(1)p
kj
(1) i, j (10.13)
O conjunto de equaes fornecido pela equao (10.13) arma que a matriz P(2)
obtida pela multiplicao das matrizes de transio de um passo
P(2) = P(1)P(1) = P
2
(10.14a)
Atravs dos mesmos argumentos utilizados acima, verica-se que P(n) encontrada
multiplicando-se P(n 1) por P
P(n) = P(n 1)P (10.14b)
As equaes (10.14a) e (10.14b) juntas implicam que
P(n) = P
n
(10.15)
isto , a n-sima matriz de probabilidades de transio a n-sima potncia da matriz
de probabilidades de transio de um passo.
10.2.2 Probabilidades dos estados
Consideremos agora as probabilidades dos estados no instante n. Seja p(n) = p
j
(n)
o vetor (linha) de probabilidades de estados no instante n. A probabilidade p
j
(n)
relaciona-se a p(n 1) atravs da expresso
p
j
(n) =

i
P[X
n
= j|X
n1
= i]P[X
n1
= i]
=

i
p
ij
p
i
(n 1)
(10.16)
A equao (10.16) arma que p(n) obtida pela multiplicao do vetor linha p(n1)
pela matriz P
p(n) = p(n 1)P (10.17)
Similarmente, p
j
(n) est relacionada a p(0) por
p
j
(n) =

i
P[X
n
= j|X
0
= i]P[X
0
= i]
=

i
p
ij
(n)p
i
(0)
(10.18)
e em notao matricial
p(n) = p(0)P(n) = p(0)P
n
n = 1, 2, . . . (10.19)
Cadeias de Markov 205
Ento a fmp de um estado no instante n obtida multiplicando-se a fmp do estado
inicial por P
n
.
Exemplo 10.4. Seja = 1/10 e = 1/5 no Exemplo 10.3. Encontre P(n) para
n = 2, 4, 8, 16
Soluo.
P
2
=
_
0.9 0.1
0.2 0.8
_
2
=
_
0.83 0.17
0.34 0.66
_
P
4
=
_
0.9 0.1
0.2 0.8
_
4
=
_
0.7467 0.2533
0.5066 0.4934
_
P
8
=
_
0.9 0.1
0.2 0.8
_
8
=
_
0.6859 0.3141
0.6282 0.3718
_
P
16
=
_
0.9 0.1
0.2 0.8
_
16
=
_
0.6678 0.3322
0.6644 0.3356
_
Existe uma clara tendncia aqui: medida que n ,
P
n

_
2/3 1/3
2/3 1/3
_
De fato, podemos mostrar com um pouco de lgebra linear que
P
n
=
1
+
_


_
+
(1 )
n
+
_


_
que claramente aproxima
1
+
_


_
=
_
2/3 1/3
2/3 1/3
_
Exemplo 10.5. No exemplo 10.4 sejam as probabilidades iniciais para os estados dadas
por
P[X
0
= 0] = p
0
(0) e P[X
0
= 1] = 1 p
0
(0)
Encontre as probabilidades dos estados medida que n .
Soluo. O vetor de probabilidades de estados no instante n
p(n) = [p
0
(0), 1 p
0
(0)]P
n
medida que n , temos que
p(n) = [p
0
(0), 1 p
0
(0)]
_
2/3 1/3
2/3 1/3
_
=
_
2
3
,
1
3
_
Podemos ver que as probabilidades dos estados no dependem das probabilidades
do estado inicial, medida que n .
206 Cadeias de Markov
10.2.3 Probabilidades em regime
O exemplo 10.5 tpico de cadeias de Markov que entram em regime estacionrio depois
que o processo est em vigor durante um longo tempo. medida que n , a matriz
de transio de n passos aproxima-se de uma matriz para a qual todas as linhas so
iguais mesma fmp, isto
p
ij
(n)
j
, i (10.20)
medida que n , a equao (10.18) torna-se
p
j
(n)

j
p
i
(0) =
j
(10.21)
Denio 10.4. Sistema em equilbrio ou regime permanente. Uma cadeia
de Markov est em equilbrio ou regime permanente quando, medida que n ,
a probabilidade do estado j aproxima-se de uma constante independente do tempo e
das probabilidades do estado inicial:
p
j
(n)
j
, j (10.22)
Podemos encontrar a fmp

= {
j
} (onde
1
2
um vetor linha) na equao (10.22)
(quando existir) notando que medida que n , p
j
(n)
j
e p
i
(n 1)
i
, de
modo que a equao (10.16) aproxima

j
=

i
p
ij

i
(10.23a)
que em notao matricial ca
= P (10.23b)
Em geral, a equao (10.23b) tem (n 1) equaes linearmente independentes. A
equao adicional necessria dada por

i
= 1 (10.23c)
Nos referimos a como a fmp de regime permanente da cadeia de Markov. Se
iniciamos a cadeia de Markov com fmp de estado inicial p(0) = , ento pelas equaes
(10.19) e (10.23b) temos que o vetor de probabilidades de estados dado por
p(n) = P
n
= , n (10.24)
O processo resultante estacionrio, desde que a probabilidade da sequncia de
estados i
0
, i
1
, . . . , i
n
iniciando no instante k , pela equao (10.7)
Cadeias de Markov 207
P[X
n+k
= i
n
, . . . , X
k
= i
0
] =
= P[X
n+k
= i
n
|X
n+k1
= i
n1
] P[X
1+k
= i
1
|X
k
= i
0
]P[X
k
= i
0
]
= p
i
n1
,in
p
i
0
,i
1

i
0
(10.25)
a qual independente do instante inicial k. Ento as probabilidades so independentes
da escolha da origem dos tempos, e o processo estacionrio.
Observao:
Note que, como o processo est em regime, as Equaes (10.23) e (10.24) so equiva-
lentes. Em outras palavras, em regime permanente, as probabilidades dos estados so
sempre as mesmas, independentemente do nmero de transies efetuadas.
Exemplo 10.6. Encontre a fmp estacionria de estados para o processo do exemplo
10.3
Soluo. A equao (10.23a) fornece

0
= (1 )
0
+
1

1
=
0
+ (1 )
1
o que implica que
0
=
1
= (1
0
) desde que
0
+
1
= 1. Ento, para = 1/10
e = 1/5, temos

0
=

+
=
2
3

1
=

+
=
1
3
10.3 Cadeias de Markov em tempo contnuo
Na seo 10.2 vimos que a matriz de probabilidades de transio determina o compor-
tamento de uma cadeia de Markov de tempo discreto. Nesta seo iremos ver que o
mesmo acontece com cadeias de Markov de tempo contnuo.
A fmp conjunta para (k+1) instantes de tempo arbitrrios de uma cadeia de Markov
dada pela equao (10.5)
P[X(t
n+1
) = x
n+1
, X(t
n
) = x
n
, . . . , X(t
1
) = x
1
]
= P[X(t
n+1
) = x
n+1
|X(t
n
) = x
n
] P[X(t
2
) = x
2
|X(t
1
) = x
1
]P[X(t
1
) = x
1
]
(10.26)
Este resultado vale independente do processo ser de tempo discreto ou de tempo
contnuo. No caso contnuo, a equao (10.26) requer que saibamos as probabilidades
de transio no intervalo entre um instante de tempo arbitrrio s e outro instante de
tempo arbitrrio s +t:
P[X(s +t) = j|X(s) = i], t 0
208 Cadeias de Markov
Assumimos aqui que as probabilidades de transio dependem somente da diferena
entre os dois instantes de tempo:
P[X(s +t) = j|X(s) = i] = P[X(t) = j|X(0) = i] = p
ij
(t), t 0, s (10.27)
Dizemos que X(t) tem probabilidades de transio homogneas.
Teorema 10.1. Seja P(t) = {p
ij
(t)} a matriz de probabilidades de transio em um
intervalo de comprimento t. Desde que p
ii
(0) = 1 e p
ij
(0) = 0 para i = j, temos
P(0) = I (10.28)
onde I a matriz identidade.
Exemplo 10.7. Para o processo de Poisson, as probabilidades de transio satisfazem
p
ij
(t) = P[j i eventos em t segundos]
= p
0,ji
(t)
=
(t)
ji
(j i)!
e
t
, j i
Portanto
P =
_

_
e
t
te
t
(t)
2
e
t
/2! (t)
3
e
t
/3! . . .
0 e
t
te
t
(t)
2
e
t
/2! . . .
0 0 e
t
te
t
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
_

_
medida que t 0, e
t
1 t. Ento para um intervalo de tempo pequeno ,
P
_

_
1 0 . . .
0 1 . . .
0 0 1 . . .
.
.
.
.
.
.
.
.
.
.
.
.
_

_
onde todos os termos de ordem
2
ou superior foram negligenciados. Ento a probabili-
dade de mais de uma transio em um intervalo de tempo bastante curto desprezvel.
Exemplo 10.8. Para um processo telegrco aleatrio, X(t) muda com cada ocorrncia
de um evento em um processo de Poisson. Vimos na seo 8.7 que as probabilidades de
transio para este processo so
Cadeias de Markov 209
P[X(t) = a|X(0) = a] =
1
2
_
1 +e
2t
_
P[X(t) = a|X(0) = b] =
1
2
_
1 e
2t
_
, se a = b
Ento a matriz de probabilidade de transio
P(t) =
_
1/2{1 +e
2t
} 1/2{1 e
2t
}
1/2{1 e
2t
} 1/2{1 +e
2t
}
_
10.3.1 Tempos de ocupao de estados
Desde que o sinal telegrco aleatrio muda de polaridade com cada ocorrncia de um
evento em um processo de Poisson, segue que o tempo em que o sistema permanece em
cada estado uma varivel aleatria exponencial. Desta forma esta uma propriedade
do tempo de ocupao de estados para todas as cadeias de Markov de tempo
contnuo, isto : X(t) permanece em um dado valor (estado) para um intervalo de
tempo aleatrio exponencialmente distribudo.
Para ver como isto acontece, seja T
i
o tempo gasto no estado i. A probabilidade de
gastar mais de t segundos neste estado ento
P[T
i
> t]
Suponha agora que o processo j tenha estado no estado i por s segundos; ento a
probabilidade de gastar mais t segundos neste estado
P[T
i
> t +s|T
i
> s] = P[T
i
> t +s|X(s

) = i, 0 s

s],
desde que {T
i
> s} implica que o sistema tem estado no estado i durante o intervalo
de tempo (0, s). A propriedade de Markov implica que se X(s) = i, ento o passado
irrelevante e podemos ver o sistema como sendo reiniciado no estado i no instante s:
P[T
i
> t +s|T
i
> s] = P[T
i
> t] (10.29)
Somente a varivel aleatria exponencial satisfaz esta propriedade de ser sem mem-
ria. Ento o tempo gasto no estado i uma varivel aleatria exponencial com alguma
mdia 1/v
i
:
P[T
i
> t] = e
v
i
t
(10.30)
O tempo mdio de ocupao de estado 1/v
i
ir geralmente ser diferente para
cada estado.
O resultado acima nos d uma outra maneira de olhar para cadeias de Markov
de tempo contnuo. A cada vez que um estado i alcanado, seleciona-se um tempo
de ocupao de estado T
i
exponencialmente distribudo. Quando o tempo se esgota, o
prximo estado j selecionado de acordo com uma cadeia de Markov de tempo discreto,
com probabilidades de transio q
ij
. Ento o novo tempo de ocupao de estado
selecionado de acordo com T
j
, e assim por diante. Chamamos q
ij
de uma cadeia de
Markov embutida.
210 Cadeias de Markov
Exemplo 10.9. O sinal telegrco aleatrio do exemplo 10.8 gasta um tempo exponen-
cialmente distribudo com mdia 1/ em cada estado. Quando uma transio ocorre, a
transio sempre do estado presente para um nico outro estado, ento a cadeia de
Markov embutida
q
00
= 0 q
01
= 1
q
10
= 1 q
11
= 0
10.3.2 Taxas de transio e probabilidades de estados dependentes de
tempo
Considere as probabilidades de transio em um intervalo de tempo bastante curto de
durao segundos. A probabilidade de o processo permanecer no estado i durante o
intervalo
P[T
i
> ] = e
v
i

= 1
v
i

1!
+
v
2
i

2
2!

= 1 v
i
+o()
onde o() denota os termos que se tornam desprezveis em relao a medida que
0
1
. As distribuies exponenciais para os tempos de ocupao de estados implicam
que a probabilidade de duas ou mais transies em um intervalo de durao o().
Ento para pequeno, p
ii
() aproximadamente igual probabilidade de o processo
permanecer no estado i por segundos:
p
ii
() P[T
i
> ] = 1 v
i
+o()
ou equivalentemente,
1 p
ii
() = v
i
o() (10.31)
Chamamos v
i
a taxa na qual o processo X(t) deixa o estado i.
Uma vez que o processo deixa o estado i, ele entra no estado j com probabilidade
q
ij
. Ento
p
ij
() = (1 p
ii
()) q
ij
= v
i
q
ij
o() (10.32)
=
ij
o()
Chamamos
ij
= v
i
q
ij
a taxa na qual o processo X(t) entra no estado j partindo do
estado i. Denimos
ii
= v
i
, e pela equao (10.31),
1
Uma funo g(h) o(h) se lim
h0
g(h)
h
= 0, isto , se g(h) tende a zero mais rpido do que h.
Cadeias de Markov 211
p
ii
() 1 =
ii
o() (10.33)
Se dividirmos ambos os lados das equaes (10.32) e (10.33) por e tomarmos o
limite 0, obtemos
lim
0
p
ij
()

=
ij
, i = j (10.34a)
e
lim
0
p
ii
() 1

=
ii
, (10.34b)
desde que
lim
0
o()

= 0
pois o() de ordem superior a .
Podemos ento desenvolver um conjunto de equaes para encontrar as probabilidades
dos estados no instante t, que sero denotados por
p
j
(t)

= P[X(t) = j].
Para > 0, temos (veja Figura 10.1)
p
j
(t +) = P[X(t +) = j]
=

i
P[X(t +) = j|X(t) = i]P[X(t) = i] (10.35)
=

i
p
ij
()p
i
(t)
................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................. . ...................................................................................................................................................................................................................................................................................................................................................................
-
6
...............
...............
t t +
X(t) X(t +)
...........................................................................................................................................................................................................................................................................................................................
...........................................................................................................................................................................................................................................................................................................................
t
t
t
1
q
i

i
p
ij
()
p
i

j
()
j
Figura 10.1: Transies para o estado j.
Se subtrairmos p
j
(t) de ambos os lados, obtemos
212 Cadeias de Markov
p
j
(t +) p
j
(t) =

i
p
ij
()p
i
(t) p
j
(t)
=

i=j
p
ij
()p
i
(t) +p
jj
()p
j
(t) p
j
(t)
=

i=j
p
ij
()p
i
(t) + (p
jj
() 1)p
j
(t) (10.36)
Se dividirmos ambos os membros por , aplicarmos (10.34a) e (10.34b), e zermos
0, obtemos
p

j
(t) =

ij
p
i
(t) (10.37)
A Equao (10.37) uma das formas das Equaes de Chapman-Kolmogorov
para cadeias de Markov de tempo contnuo. Para encontrar p
j
(t) precisamos resolver
este sistema de equaes diferenciais com condies iniciais especicadas pela fmp de
estado inicial {p
j
(0), j = 0, 1, . . . }.
Importante:
Note que se resolvemos a Equao (10.37) com a suposio de que o sistema estava no
estado i no instante inicial, isto , com condio inicial p
i
(0) = 1 e p
j
(0) = 0 para todo
j = i, ento a soluo de fato p
ij
(t), a componente ij de P(t). Ento a Equao (10.37)
pode tambm ser utilizada para encontrar a matriz de probabilidades de transio. Veja
o exemplo abaixo:
Exemplo 10.10. Um sistema de las alterna entre dois estados. No estado 0, o sistema
est livre e esperando a chegada de um cliente. Este tempo desocupado uma v.a.
exponencial com mdia 1/. No estado 1, o sistema est ocupado servindo um usurio.
O tempo no estado ocupado uma v.a. exponencial com mdia 1/. Encontre as
probabilidades dos estados p
0
(t) e p
1
(t) em termos das probabilidades dos estados iniciais
p
0
(0) e p
1
(0).
Soluo. O sistema passa do estado 0 para o estado 1 a uma taxa , e do estado 1
para o estado 0 a uma taxa :

00
=
01
=

10
=
11
=
A Equao (10.37) fornece ento
p

0
(t) = p
0
(t) +p
1
(t)
p

1
(t) = p
0
(t) p
1
(t)
Desde que p
0
(t) +p
1
(t) = 1, a primeira equao torna-se
Cadeias de Markov 213
p

0
(t) = p
0
(t) +(1 p
0
(t))
que uma equao diferencial de primeira ordem:
p

0
(t) + ( +)p
0
(t) = p
0
(0) = p
0
A soluo geral desta equao
p
0
(t) =

+
+Ce
(+)t
Obtemos C fazendo t = 0 e resolvendo em termos de p
0
(0). Assim, encontramos
p
0
(t) =

+
+
_
p
0
(0)

+
_
e
(+)t
Similarmente, temos que
p
1
(t) =

+
+
_
p
1
(0)

+
_
e
(+)t
Note que medida que t
p
0
(t)

+
e p
1
(t)

+
Ento, medida que t , as probabilidades dos estados se aproximam de valores
constantes que so independentes das probabilidades iniciais dos estados.
Exemplo 10.11. Encontre as probabilidades dos estados para o processo de Poisson.
Soluo. O processo de Poisson move-se somente do estado i para o estado i +1 a uma
taxa . Ento

ii
=
i,i+1
=
A Equao (10.37) fornece ento
p

0
(t) = p
0
(t), j = 0
p

j
(t) = p
j
(t) +p
j1
(t), j 1
A condio inicial para o processo de Poisson p
0
(0) = 1, de modo que a soluo para
a primeira equao
p
0
(t) = e
t
Para a segunda equao, temos
p

1
(t) = p
1
(t) +e
t
, p
1
(0) = 0
que tambm uma equao diferencial de primeira ordem, cuja soluo
214 Cadeias de Markov
p
1
(t) =
t
1!
e
t
Adicionalmente pode-se mostrar atravs de induo que a soluo para o estado j
dada por
p
j
(t) =
(t)
j
j!
e
t
Note que para qualquer j, p
j
(t) 0 medida que t . Ento para o processo de
Poisson, a probabilidade de qualquer estado nito tende a zero medida que t .
Isto consistente com o fato de que o processo cresce de forma constante com o tempo.
10.4 Probabilidades de Estados em Regime e Equaes de
Balano Globais
medida que t , as probabilidades dos estados do sistema de las do Exemplo 10.10
convergem para uma fmp que no depende das condies iniciais. Este comportamento
tpico de sistemas que alcanam uma condio de equilbrio ou regime permanente.
Para tais sistemas, p
j
(t) p
j
e p

j
(t) 0, de modo que a Equao (10.37) torna-se
0 =

ij
p
i
, j, (10.38a)
ou equivalentemente, lembrando que
jj
= v
j
,
v
j
p
j
=

i=j

ij
p
i
, j (10.38b)
A Equao (10.38b) pode ser reescrita como
p
j
_
_

i=j

ji
_
_
=

i=j

ij
p
i
(10.38c)
desde que
v
j
=

i=j

ji
O sistema de equaes lineares dado pelas Equaes (10.38b) ou (10.38c) chamado
de Equaes de Balano Global. Estas equaes armam que, em equilbrio, a pro-
babilidade do uxo para fora do estado j, dada por v
j
p
j
, igual probabilidade do uxo
para dentro do estado j, como mostrado na Figura 10.2. Resolvendo este conjunto de
equaes lineares podemos obter a fmp dos estados do sistema em regime permanente
(quando existir).
Referimo-nos a p = {p
i
} como a fmp estacionria dos estados da cadeia de
Markov. Desde que p satisfaz a Equao (10.37), se iniciamos a cadeia de Markov com
uma fmp inicial dada por p, ento as probabilidades dos estados sero
Cadeias de Markov 215
Figura 10.2: Balano global de uxo de probabilidade.
p
i
(t) = p
i
, t
O processo resultante estacionrio, desde que a probabilidade da sequncia de
estados i
0
, i
1
, . . . , i
n
nos instantes t < t
1
+t < < t
n
+t , pela Equao (10.26),
P[X(t) = i
0
, X(t
1
+t) = i
1
, , X(t
n
+t) = i
n
] =
P[X(t
n
+t) = i
n
|X(t
n1
+t) = i
n1
] P[X(t
1
+t) = i
1
|X(t) = i
0
]P[X(t) = i
0
]
As probabilidades de transio dependem somente da diferena entre os tempos
associados. Ento a probabilidade conjunta acima depende da escolha da origem apenas
atravs de P[X(t) = i
0
]. Mas P[X(t) = i
0
] = p
i
0
para todo t. Portanto conclumos que
a probabilidade conjunta acima independente da escolha da origem dos tempos e que
o processo estacionrio.
Exemplo 10.12. Encontre a fmp de estado estacionrio para o sistema de las de dois
estados do Exemplo 10.10.
Soluo. A Equao (10.38b) para este sistema fornece
p
0
= p
1
e p
1
= p
0
Notando que p
0
+p
1
= 1, obtemos
p
0
=

+
e p
1
=

+
Exemplo 10.13. Sistema de las de servidor nico M/M/1. Considere um
sistema de las no qual os clientes so servidos um de cada vez pela ordem de chegada.
O tempo entre chegadas de clientes exponencialmente distribudo com taxa , e o tempo
requerido para atender um cliente exponencialmente distribudo com taxa . Encontre
a fmp para o nmero de clientes no sistema quando este est em regime permanente.
216 Cadeias de Markov
Soluo. As taxas de transio de estados so as seguintes. Os clientes chegam a uma
taxa , ento

i,i+1
= i = 0, 1, 2, . . .
Quando o sistema no est vazio, os clientes saem a uma taxa . Ento

i,i1
= i = 1, 2, 3, . . .
O diagrama de taxa de transio mostrado na Figura 10.3.
Figura 10.3: Diagrama de transio de estados para o sistema M/M/1.
As Equaes de balano global so
p
0
= p
1
, j = 0 (10.39a)
( +)p
j
= p
j1
+p
j+1
, j = 1, 2, . . . (10.39b)
Podemos reescrever a Equao (10.39b) como segue:
p
j
p
j+1
= p
j1
p
j
, j = 1, 2, . . .
o que implica que
p
j1
p
j
= constante, j = 1, 2, . . . (10.40)
A Equao (10.40) com j = 1, juntamente com a Equao (10.39a), implica que
constante = p
0
p
1
= 0
Ento a Equao (10.40) torna-se
p
j1
= p
j
ou equivalentemente,
p
j
= p
j1
, j = 1, 2, . . .
e por induo
p
j
=
j
p
0
onde = /. Obtemos p
0
notando que a soma das probabilidades precisa ser igual a
um:
1 =

j=0
p
j
= (1 + +
2
+ )p
0
=
1
1
p
0
Cadeias de Markov 217
onde a srie converge se e somente se < 1. Ento
p
j
= (1 )
j
, j = 1, 2, . . . (10.41)
A condio para a existncia de uma soluo de regime permanente tem uma expli-
cao simples. A condio < 1 equivalente a
<
isto , a taxa na qual os clientes chegam precisa ser menor que a taxa na qual o sistema
possa atend-los. Caso contrrio, a la cresce sem limite medida que o tempo passa.
Exemplo 10.14. Um processo de nascimento e morte uma cadeia de Markov
para a qual ocorrem transies apenas entre estados adjacentes, como mostrado na Fi-
gura 10.4. O sistema de las discutido no exemplo anterior um exemplo de um processo
de nascimento e morte. Repita o exerccio anterior para um processo de nascimento e
morte geral.
Figura 10.4: Diagrama de taxa de transio para um processo de nascimento e morte
geral.
Soluo. As Equaes de balano global para um processo de nascimento e morte geral
so

0
p
0
=
1
p
1
, j = 0 (10.42a)

j
p
j

j+1
p
j+1
=
j1
p
j1

j
p
j
, j = 1, 2, . . . (10.42b)
Como no exemplo anterior, segue que
p
j
= r
j
p
j1
, j = 1, 2, . . .
e
p
j
= r
j
r
j1
r
1
p
0
, j = 1, 2, . . .
onde r
j
= (
j1
)/
j
. Se denirmos
R
j
= r
j
r
j1
r
1
e R
0
= 1,
ento encontramos p
0
atravs de
218 Cadeias de Markov
1 =
_
_

j=0
R
j
_
_
p
0
.
Se a srie da Equao acima converge, ento a fmp estacionria dada por
p
j
=
R
j

i=0
R
i
(10.43)
Se a srie no converge, ento uma fmp estacionria no existe, e p
j
= 0 para todo
j.
10.5 Classes de estados, propriedades de recorrncia e pro-
babilidades limite
Nesta seo iremos olhar mais de perto a relao entre o comportamento de uma ca-
deia de Markov e sua matriz de probabilidade de transies de estados. Primeiramente
iremos ver que os estados de uma cadeia de Markov de tempo discreto podem ser di-
vididos em uma ou mais classes separadas e que estas podem ser de diferentes tipos.
Iremos ento mostrar que o comportamento de longo prazo de uma cadeia de Markov
est relacionada aos tipos de suas classes de estados. Finalmente, usaremos estes resul-
tados para relacionar o comportamento de longo prazo de cadeias de Markov de tempo
contnuo com o de sua cadeia de Markov embutida.
10.5.1 Classes de estados
Denio 10.5. Acessibilidade. Dizemos que o estado j acessvel a partir do
estado i se para algum n 0, p
ij
(n) > 0, isto , se existe uma sequncia de transies
de i para j com probabilidade no nula.
Denio 10.6. Comunicabilidade. Os estados i e j se comunicam se i acessvel
a partir de j e j acessvel a partir de i. Representamos este fato com a seguinte
notao: i j.
Note que um estado se comunica consigo mesmo desde que p
ii
(0) = 1.
Se o estado i se comunica com o estado j, e o estado j se comunica com o estado k,
isto , se i j e j k, ento o estado i se comunica com o estado j. Para vericar
isto, note que i j implica que exite um caminho de probabilidade no nula de i para
j, e j k implica que existe um caminho subsequente de probabilidade no nula de j
Cadeias de Markov 219
para k. Os caminhos combinados formam um caminho de probabilidade no nula de i
para k. Existe um caminho de probabilidade no nula na direo reversa pelas mesmas
razes.
Denio 10.7. Classes de estados: dizemos que dois estados pertencem a uma
mesma classe se estes se comunicam entre si.
Note que duas classes de estados diferentes precisam ser disjuntas desde que se
tiverem um estado em comum, isto implicaria que os estados de ambas as classes se
comunicariam entre si. Ento os estados de uma cadeia de Markov consistem de uma
ou mais classes de comunicao disjuntas.
Denio 10.8. Cadeia Irredutvel: Uma cadeia de Markov que consiste de uma
nica classe dita irredutvel.
Exemplo 10.15. A gura abaixo mostra o diagrama de transio de estados para uma
cadeia de Markov com trs classes: {0}, {1, 2} e {3}
Exemplo 10.16. Abaixo tem-se o diagrama de transio de estados para uma cadeia
de Markov peridica com apenas uma classe {0, 1, 2, 3}. Ento esta cadeia irredutvel.
Exemplo 10.17. Neste exemplo, temos o diagrama de transio de estados para um
processo de contagem binomial. Pode-se ver que as classes so: {0}, {1}, {2}, . . .
220 Cadeias de Markov
Exemplo 10.18. A gura abaixo mostra o diagrama de transio de estados para o
processo de caminhada aleatria. Se p > 0, ento o processo tem apenas uma classe
{0, 1, 2, }, de modo que irredutvel.
10.5.2 Propriedades de recorrncia
Denio 10.9. Estado recorrente: O estado i chamado recorrente se o pro-
cesso retorna a ele com probabilidade um, isto ,
f
i
= P[alguma vez retornar ao estado i] = 1
Denio 10.10. Estado transiente: O estado i chamado transiente se
f
i
< 1
Se iniciamos uma cadeia de Markov em um estado recorrente i, ento o estado
ocorre novamente um nmero innito de vezes. Se iniciamos uma cadeia de Markov em
um estado transiente, o estado no ocorre novamente depois de algum nmero nito
de retornos. Cada nova ocorrncia do estado pode ser vista como uma falha em uma
tentativa de Bernoulli. A probabilidade de falha f
i
. Ento o nmero de retornos ao
estado i terminando com um sucesso (no retorno) uma varivel aleatria geomtrica
com mdia (1 f
i
)
1
. Se f
i
< 1, ento a probabilidade de um nmero innito de
Cadeias de Markov 221
sucessos zero. Portanto um estado transiente ocorre novamente um nmero nito de
vezes.
Seja X
n
uma cadeia de Markov com estado inicial i, X
0
= i. Seja I
i
(x) uma funo
indicadora para o estado i, isto , I
i
(x) = 1 se X = i, e I
i
(x) = 0 caso contrrio. O
nmero esperado de retornos para o estado i ento
E
_

n=1
I
i
(X
n
)|X
0
= i
_
=

n=1
E[I
i
(X
n
)|X
0
= i] =

n=1
p
ii
(n) (10.44)
desde que
E[I
i
(X
n
)|X
0
= i] = P[X
n
= i|X
0
= i] = p
ii
(n)
Um estado recorrente se e somente se ele ocorre novamente um nmero innito de
vezes, ento da Equao (10.44), o estado i recorrente se e somente se

n=1
p
ii
(n) = (10.45)
Similarmente, o estado i transiente se e somente se

n=1
p
ii
(n) < (10.46)
Exemplo 10.19. Dado o diagrama de transio de estados do Exemplo 10.15 verique
que o estado 0 transiente, e o estado 1 recorrente.
Soluo. O estado 0 transiente desde que p
00
(n) = (1/2)
n
, de modo que

n=1
p
00
(n) =
1
2
+
_
1
2
_
2
+
_
1
2
_
3
+ = 1 <
Por outro lado, se o processo se iniciar no estado 1, teramos o processo de dois
estado discutidos no Exemplo 10.4. Para este processo mostramos que
p
11
(n) =
+(1 )
n
+
=
1/2 + 1/4(7/10)
n
3/4
de modo que

n=1
p
11
(n) =

n=1
_
2
3
+
(7/10)
n
3
_
=
Portanto o estado 1 recorrente.
Exemplo 10.20. Mostre que para um processo binomial de contagem todos os estados
so transientes.
222 Cadeias de Markov
Soluo. Para este processo, p
ii
(n) = (1 p)
n
, de modo que para p > 0,

n=1
p
ii
(n) =

n=1
(1 p)
n
=
1 p
p
<
Exemplo 10.21. Para o processo de caminhada aleatria, verique se o estado 0
transiente ou recorrente.
Soluo. O estado 0 ocorre novamente a cada 2n passos se e somente se os estados
n + 1 e n 1 ocorrem durante os 2n passos. Isto ocorre com probabilidade
p
00
(2n) =
_
2n
n
_
p
n
(1 p)
n
A frmula de Stirling para n! pode ser utilizada para mostrar que
_
2n
n
_
p
n
(1 p)
n

(4p(1 p))
n

n
onde a
n
b
n
quando lim
n
a
n
b
n
= 1.
Ento a Equao (10.44) para o estado 0

n=1
p
00
(2n)

n=1
(4p(1 p))
n

n
Se p = 1/2, ento 4p(1 p) = 1 e a srie diverge. Segue ento que o estado 0
recorrente. Se p = 1/2, ento 4p(1 p) < 1, e a srie acima converge. Isto implica
que o estado 0 transiente. Ento quando p = 1/2, o processo de caminhada aleatria
mantm um balano precrio em torno do estado 0. Logo que p = 1/2, uma perturbao
positiva ou negativa introduzida e o processo cresce ao redor de .
Se o estado i recorrente ento todos os estados de sua classe iro eventualmente ser
visitados medida que o processo retorna repetidamente a i. De fato, todos os outros
estados em sua classe so visitados um nmero innito de vezes. Ento recorrncia
uma propriedade de classe, isto , se o estado i recorrente e i j, ento o estado j
tambm recorrente. Similarmente, a transitoriedade tambm uma propriedade de
classe.
Se uma cadeia de Markov irredutvel, isto , se consiste de uma nica classe de
comunicao, ento todos os seus estados so ou transientes ou recorrentes. Se o nmero
de estados na cadeia nito, impossvel para todos os estados serem transientes.
Ento, os estados de uma cadeia de Markok irredutvel com nmero de estados nito
so todos recorrentes.
A informao sobre quando o estado i pode ocorrer novamente est contido em
p
ii
(n), a probabilidade de transio de n passos do estado i para ele mesmo.
Cadeias de Markov 223
Denio 10.11. Perodo de um estado. Dizemos que o estado i tem perodo d
se ele puder ocorrer nos instantes que so mltiplos de d, isto , p
ii
(n) = 0 quando
n no mltiplo de d, onde d o maior inteiro com esta propriedade.
Pode-se mostrar que todos os estados de uma classe tm o mesmo perodo.
Denio 10.12. Cadeia de Markov aperidica. Uma cadeia de Markov irre-
dutvel dita aperidica se os estados em sua classe nica tm perodo unitrio.
Exemplo 10.22. Verique qual o perodo da cadeia de Markov do Exemplo 10.15.
Soluo. Para esta cadeia, p
ii
(n) > 0 para todos os estados, n = 1, 2, . . . Portanto
todas as trs classes na cadeia tm perodo unitrio.
Exemplo 10.23. Para a cadeia de Markov do Exemplo 10.16, verique o valor de seu
perodo.
Soluo. Para esta cadeia, os estados 0 e 1 podem ocorrer novamente nos instantes
2, 4, 6, . . . e os estados 2 e 3 nos instantes 4, 6, 8, . . . Portanto esta cadeia tem perodo
2.
Exemplo 10.24. Verique o perodo do processo de caminhada aleatria do Exemplo
10.18.
Soluo. Para este processo, um estado ocorre novamente quando o nmero de sucessos
(+1s) igual ao nmero de falhas (-1s). Isto acontece somente depois de um nmero
par de eventos, e portanto este processo tem perodo 2.
10.5.3 Probabilidades limite
Se todos os estados em uma cadeia de Markov so transientes, ento as probabilidades
de todos os estados tendem a zero medida que n . Se uma cadeia de Markov
tem algumas classes transientes e outras classes recorrentes, como a cadeia do Exemplo
10.15, ento eventualmente o processo ir entrar e permanecer em uma das classes
recorrentes. Assim, podemos nos concentrar nas classes recorrentes para o estudo das
probabilidades limite de uma cadeia. Por esta razo iremos assumir nesta seo que
estamos lidando com uma cadeia de Markov irredutvel.
Suponha que iniciemos uma cadeia de Markov em um estado recorrente i no instante
n = 0. Sejam T
i
(1), T
i
(1) + T
i
(2), . . . os instantes aonde o processo retorna ao estado
i, onde T
i
(k) o tempo decorrido entre o (k 1)-simo e o k-simo retornos (veja
224 Cadeias de Markov
Figura 10.5: Instantes de recorrncia para o estado i.
Figura 10.5). Os T
i
formam uma sequncia iid desde que cada instante de retorno
independente dos instantes de retorno anteriores.
A proporo de tempo gasto no estado i depois de k retornos a i
proporo de tempo no estado i =
k
T
i
(1) +T
i
(2) + +T
i
(k)
(10.47)
Desde que o estado recorrente, o processo retorna ao estado i um nmero innito
de vezes. Ento a Lei dos Grandes Nmeros implica que, com probabilidade um, o
recproco da expresso acima aproxima-se do tempo mdio de recorrncia E[T
i
] de
modo que a proporo de longo prazo do tempo gasto no estado i aproxima
proporo de tempo no estado i
1
E[T
i
]
=
i
(10.48)
onde
i
a proporo de longo prazo de tempo gasto no estado i,
Se E[T
i
] < , ento dizemos que o estado i recorrente positivo. A Equao
(10.48) implica ento que

i
> 0, se o estado i recorrente positivo
Se E[T
i
] = , ento dizemos que o estado i recorrente nulo. A Equao (10.48)
implica ento que

i
= 0, se o estado i recorrente nulo
Pode-se mostrar que recorrncia positiva e nula so propriedades de classe.
Estados recorrentes, aperidicos e recorrentes nulos so chamados de ergdicos.
Uma cadeia de Markov ergdica denida como uma cadeia irredutvel, aperidica e
recorrente positiva.
Exemplo 10.25. Para o processo do Exemplo 10.16, calcule E[T
0
]e
0
.
Soluo. Este processo retorna ao estado 0 em dois passos com probabilidade 1/2 e
em quatro passos com probabilidade 1/2. Portanto o tempo de recorrncia mdia para
o estado 0
Cadeias de Markov 225
E[T
0
] =
1
2
(2) +
1
2
(4) = 3
Portanto o estado 0 recorrente positivo e a proporo de longo prazo de tempo em
que o sistema permanece no estado 0

0
=
1
3
Exemplo 10.26. No Exemplo 10.21 foi mostrado que o processo de caminhada ale-
atria recorrente se p = 1/2. Entretanto, pode-se mostrar que o tempo mdio de
recorrncia innito quando p = 1/2 ([Fel68],p.314). Ento todos os estados da cadeia
so recorrentes nulos.
Os
j
s na Equao (10.48) satisfazem a equao que dene a fmp de estado estaci-
onrio

j
=

i
P
ij
, j (10.49a)

i
= 1 (10.49b)
Para ver isto, note que desde que
i
a proporo de tempo gasto no estado i, ento

i
P
ij
a proporo de tempo na qual o estado j segue o estado i. Se somarmos sobre
todos os estados i, obteremos a proporo de longo prazo do tempo no estado j,
j
.
Exemplo 10.27. Encontre a fmp de estado estacionrio para a cadeia de Markov do
Exemplo 10.16.
Soluo. Temos das Equaes (10.49a) e (10.49b) que

0
=
1
2

1
+
3
,
1
=
0
,
2
=
1
2

1
,
3
=
2
Estas equaes implicam que
1
=
0
e
2
=
3
=
0
/2. Usando o fato de que a
soma das probabilidadesdeve ser um, obtemos

1
=
0
=
1
3
e
2
=
3
=
1
3
Note que
0
= 1/3 foi obtida do tempo de recorrncia mdio, calculado no Exemplo
10.26.
Na Seo 10.2 vimos que para cadeias de Markov que exigem um comportamento
estacionrio, a matriz de transio de n passos aproxima-se de uma matriz xa de linhas
iguais medida que n (veja Equao 10.20). Vimos tambm que as linhas desta
matriz limite consistiam de uma fmp que satisfaz (10.49a) e (10.49b). Iremos agora
denir sob quais condies isto ocorre.
226 Cadeias de Markov
Teorema 10.2. Para uma cadeia de Markov irredutvel, aperidica e recorrente po-
sitiva,
lim
n
p
ij
(n) =
j
, j
onde
j
a nica soluo no negativa das Equaes (10.49a) e (10.49b).
Uma prova deste teorema pode ser encontrada em [Ros83]. O Teorema 10.5.3 arma
que para cadeias de Markov irredutveis, aperidicas e recorrente positivas, as proba-
bilidades dos estados aproximam-se de valores de estado de regime permanente que
so independentes da condio inicial. Estas probabilidades de regime permanente cor-
respondem s probabilidades estacionrias obtidas nas Equaes (10.49a) e (10.49b) e
portanto correspondem proporo de longo prazo do tempo gasto no estado dado. Esta
a razo pela qual cadeias de Markov irredutveis, aperidicas e recorrente positivas
so chamadas de ergdicas.
Para processos peridicos, temos o seguinte resultado:
Teorema 10.3. Para uma cadeia de Markov irredutvel, peridica e recorrente posi-
tiva com perodo d,
lim
n
p
jj
(nd) = d
j
j
onde
j
a nica soluo no negativa das Equaes (10.49a) e (10.49b).
Como antes,
j
a proporo de tempo gasto no estado j. Entretanto, o fato de
o estado j ocorrer apenas em mltiplos de d passos implica que a probabilidade de
ocorrncia do estado j d vezes maior nos instantes permitidos e zero para os demais.
Exemplo 10.28. Calcule as probabilidades de longo prazo para os estados 0 e 2 para a
cadeia de Markov do Exemplo 10.16
Soluo. Nos Exemplos 10.25 e 10.27 vimos que proporo de longo prazo de tempo
gasto no estado 0
0
= 1/3. Se comeamos no estado 0, ento s podem ocorrem
estados pares nos instantes de tempo pares. Ento nestes instantes de tempo pares a
probabilidade do estado 0 2/3 e a probabilidade do estado 2 1/3. Em instantes de
tempo mpares, as probabilidades dos estados 0 e 2 so zero.
10.5.4 Probabilidades limite para as cadeias de Markov de tempo
contnuo
Vimos na Seo 10.3 que uma cadeia de Markov de tempo contnuo X(t) pode ser vista
como sendo constituda de uma sequncia de estados determinada por alguma cadeia de
Markov discreta X
n
com probabilidades de transio q
ij
e uma sequncia de tempos de
Cadeias de Markov 227
ocupao de estados correspondente exponencialmente distribuda. Nesta seo, iremos
mostrar que se a cadeia discreta associada irredutvel e recorrente positiva com fmp
estacionria
j
, ento a proporo de tempo de longo prazo gasta por X(t) no estado i

p
i
=

i
/v
i

j
/v
j
onde 1/v
i
o tempo mdio de ocupao no estado i. Alm disso, mostramos que os p
i
so as solues nicas das equaes de balano global (10.38b) e (10.38c).
Suponha que a cadeia de Markov embutida X
n
irredutvel e recorrente positiva,
de modo que a Equao (10.48) seja vlida. Seja N
i
(n) o nmero de vezes que o estado
i ocorre nas primeiras n transies, e seja T
i
(j) o tempo de ocupao da j-sima vez
que o estado i ocorre. A proporo de tempo gasto no estado i depois das primeiras n
transies
tempo gasto no estado i
tempo gasto em todos os estados
=
N
i
(n)

j=1
T
i
(j)

i
N
i
(n)

j=1
T
i
(j)
=
N
i
(n)
n
1
N
i
(n)
N
i
(n)

j=1
T
i
(j)

i
N
i
(n)
n
1
N
i
(n)
N
i
(n)

j=1
T
i
(j)
(10.50)
medida que n , pelas Equaes (10.48), (10.49a) e (10.49b), com probabili-
dade um,
N
i
(n)
n

i
(10.51)
a fmp estacionria da cadeia de Markov embutida. Adicionalmente, temos que N
i
(n)
medida que n , de modo que pela lei forte dos nmeros grandes, com proba-
bilidade um,
1
N
i
(n)
N
i
(n)

j=1
T
i
(j) E[T
i
] =
1
v
i
(10.52)
onde usamos o fato de que o tempo de ocupao de estado no estado i tem mdia
1/v
i
. As Equaes (10.51) e (10.52) quando aplicadas a (10.50) implicam que, com
probabilidade um, a proporo de longo prazo do tempo gasto no estado i aproxima
p
i
=

i
/v
i

j
/v
j
= c
i
/v
i
(10.53)
228 Cadeias de Markov
onde
j
a fmp soluo nica para

j
=

i
q
ij
, j (10.54)
e c uma constante de normalizao.
Obtemos a equao de balano global (10.38b), substituindo
i
= v
i
p
i
/c da Equao
(10.53) e q
ij
=
ij
/v
i
na Equao (10.54):
v
j
p
j
=

i=j
p
i

ij
, j
Ento os p
i
s so a soluo nicas das equaes de balano global.
Exemplo 10.29. Encontre as probabilidades de longo prazo para os estados da cadeia
de Markov do Exemplo 10.10.
Soluo. Para este sistema
[ q
ij
] =
_
0 1
1 0
_
A equao = [ q
ij
] implica que

0
=
1
=
1
2
Adicionalmente, v
0
= e v
1
= . Ento
p
0
=
1/2(1/)
1/2(1/ + 1/)
=

+
e p
1
=

+
10.6 Exerccios
1. Seja T
n
o tempo de chegada do n-simo cliente a uma estao de servio. Seja Z
n
o intervalo de tempo entre as chegadas do cliente n e do cliente n 1, isto
Z
n
= T
n
T
n1
, n 1
e T
0
= 0. Seja {X(t), t 0} o processo de contagem associado com {T
n
, n 0}.
Mostre que se X(t) tem incrementos estacionrios, ento Z
n
, n = 1, 2, . . . so
v.a.s identicamente distribudas.
2. Desenhe os diagramas de transio de estados e classique os estados das Cadeias
de Markov para as seguintes matrizes de transio.
P =
_
_
0 0.5 0.5
0.5 0 0.5
0.5 0.5 0
_
_
P =
_

_
0 0 0.5 0.5
1 0 0 0
0 1 0 0
0 1 0 0
_

_
P =
_

_
0.3 0.4 0 0 0.3
0 1 0 0 0
0 0 0 0.6 0.4
0 0 0 0 1
0 0 1 0 0
_

_
Cadeias de Markov 229
3. Considere uma cadeia de Markov com espao de estados {0, 1} e matriz de pro-
babilidades de transio
P =
_
1 0
1/2 1/2
_
Mostre que o estado o recorrente e que o estado 1 transiente.
4. Considere uma cadeia de Markov de dois estados com matriz de probabilidade de
transio
P =
_
1 a a
b 1 b
_
, 0 < a < 1, 0 < b < 1
(a) Encontre P
n
.
(b) Encontre P
n
para n .
Resp:
(a) P
n
=
1
a +b
__
b a
b a
_
+(1 a b)
n
_
a a
b b
__
(b) lim
n
P
n
=
1
a +b
_
b a
b a
_
5. Um modelo de Markov para transmisso de voz por pacotes assume que se o n-
simo pacote contm silncio, a probabilidade de silncio no prximo pacote
(1 ) e a probabilidade do pacote conter voz .
Similarmente, se o n-simo pacote contiver atividades de voz, a probabilidade do
prximo pacote conter voz (1 ), e a probabilidade de silncio .
(a) Esboce uma cadeia de Markov para este problema.
(b) Para = 1/10 e = 1/5, determine a matriz de transio de estados de um
passo.
(c) Dadas as probabilidades iniciais dos estados p
0
= p
1
= 0, 5, determine as
probabilidades dos estados depois de 2 passos.
Resp:
(a)
(b) P =
_
0, 9 0, 1
0, 2 0, 8
_
(c) p(2) = [ 0, 585 0, 415 ]
6. Considere uma cadeia de Markov com dois estados e matriz de probabilidade de
transio de estados dada por
P =
_

_
3
4
1
4
1
2
1
2
_

_
230 Cadeias de Markov
(a) Encontre a distribuio estacionria de estados p para esta cadeia.
(b) Encontre lim
n
P
n
.
Resp:
(a) p =
_
2
3
1
3
_
(b) P
n
=
_
2/3 1/3
2/3 1/3
_
7. Um exemplo de uma cadeia de Markov de dois estados um sistema consistindo
de sequncias de estgios em cascata de canais de comunicao binrios, como
mostrado na gura abaixo.
.................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
........................................................................................................................................................................................................................................................................................................................................... ...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ...........................................................................................................................................................................................................................................................................................................................................

X
n1
= 1 X
n
= 1 1 b
X
n1
= 0 X
n
= 0 1 a
a
b
- - -
- - -
*
j
*
j
*
j
Aqui, X
n
denota o dgito que deixa o n-simo estgio do canal, e X
0
denota o
dgito que entra no primeiro estgio. A matriz de probabilidades de transio
deste sistema de comunicao geralmente chamado de matriz de canal, e dada
por
P =
_
1 a a
b 1 b
_
, 0 < a, b < 1
Assuma que a = 0, 1 e b = 0, 2, e que a distribuio inicial P[X
0
= 0] = P[X
0
=
1] = 0, 5.
(a) Encontre a distribuio de X
n
.
(b) Encontre a distribuio de X
n
quando n .
Dica:
P
n
=
1
a +b
__
b a
b a
_
+ (1 a b)
n
_
a a
b b
__
Cadeias de Markov 231
Resp:
(a)
_
2
3

(0, 7)
n
6
1
3

(0, 7)
n
6
_
(b)
_
2
3
1
3
_
8. Considere uma cadeia de Markov com dois estados e matriz de transio dada por
P =
_
0 1
1 0
_
(a) Encontre a distribuio de estado estacionrio .
(b) Mostre que lim
n
P
n
no existe.
Dica: Calcule P
2
, P
3
, P
4
, . . . e faa a prova por induo.
Resp: (a) [1/2 1/2]
9. Um eltron pode estar em uma de trs possveis rbitas. A transio da rbita i
para a rbita j (i, j = 1, 2, 3) ocorre em uma unidade de tempo com probabilidade
C
i
e
|ij|
, > 0
Esboce uma cadeia de Markov para este problema e calcule as constantes C
i
.
Resp: C
1
=
1
1 +e

+e
2
C
2
=
1
1 + 2e

C
3
=
1
1 +e

+e
2
10. Dada a cadeia de Markov abaixo, calcule as probabilidades dos estados em regime
permanente (se existirem).
Resp: =
_
5
9
2
9
2
9
_
11. Uma cadeia de Markov com probabilidades de transio p
ij
possui um estado
particular k para o qual p
ik
= q para todos os estados i. Mostre que p
k
(n) = q, n.
232 Cadeias de Markov
12. Uma urna contm inicialmente 5 bolas brancas e 5 bolas pretas. O seguinte
experimento repetido indenidamente: uma bola retirada da urna; se a mesma
branca ela recolocada na urna, caso contrrio deixada de fora. Seja X
n
o
nmero de bolas pretas que permanecem na urna depois de n testes.
(a) X
n
um processo de Markov? Se sim, esboce uma cadeia para este processo.
(b) As probabilidades de transio dependem de n?
(c) Calcule P(n), n , e encontre uma explicao para o resultado obtido.
Resp:
(a) Sim. Para k = 1, 2, . . . , 5 : P[k 1|k] = k/(5 +k) = 1 P[k|k], P[0|0] = 1.
(b) No.
13. Seja X(n) um processo de caminhada aleatria unidimensional.
(a) Mostre que X(n) um processo de Markov.
(b) Encontre a matriz de transio de um passo para este processo.
Resp: P =
_

_
p, j = i + 1
q, j = i 1
0, caso contrrio
Apndice A
Tabelas Matemticas
A.1 Identidades trigonomtricas
sen
2
() + cos
2
() = 1
sen( +) = sen cos + cos sen
sen( ) = sen cos cos sen
cos( +) = cos cos sen sen
cos( ) = cos cos + sen sen
sen 2 = 2 sen cos
cos 2 = cos
2
sen
2
= 2 cos
2
1 = 1 2 sen
2

sen sen =
1
2
[cos( ) cos( +)]
cos cos =
1
2
[cos( ) + cos( +)]
sen cos =
1
2
[sen( +) + sen( )]
cos sen =
1
2
[sen( +) sen( )]
sen
2
=
1
2
(1 cos 2)
cos
2
=
1
2
(1 + cos 2)
e
j
= cos +j sen
cos =
e
j
+e
j
2
sen =
e
j
e
j
2j
sen = cos( /2)
234 Tabelas Matemticas
A.2 Coecientes Binomiais
_
n
k
_
=
n!
k!(n k)!
=
_
n
n k
_
_
n
k
_
= 0 para n < k
_
n
n
_
=
_
n
1
_
=
_
n
0
_
= 1
_
n
k
_
=
_
n
p
_
k = p ou k +p = n (binomiais complementares)
_
n
k
_
+
_
n
k + 1
_
=
_
n + 1
k + 1
_
(relao de Stiel)
A.3 Derivadas
Nas expresses a seguir, u, v e w so funes de x; a, b e c so constantes.
d
dx
(c) = 0
d
dx
(cx) = c
d
dx
(cx
n
) = ncx
n1
d
dx
(u v w ) =
du
dx

dv
dx

dw
dx

d
dx
(cu) = c
du
dx
d
dx
(uv) = u
dv
dx
+v
du
dx
d
dx
(uvw) =
du
dx
vw +u
dv
dx
w +uv
dw
dx
d
dx
_
u
v
_
=
v(du/dx) u(dv/dx)
v
2
d
dx
(u
n
) = nu
n1
du
dx
dy
dx
=
dy
du
du
dx
d
dx
sen(u) = cos(u)
du
dx
d
dx
cos(u) = sen(u)
du
dx
Tabelas Matemticas 235
d
dx
log
a
(u) =
log
a
(e)
u
du
dx
, a > 0 e a = 1
d
dx
ln(u) =
d
dx
log
e
(u) =
1
u
du
dx
d
dx
a
u
= a
u
ln(a)
du
dx
, a > 0
d
dx
e
u
= e
u
du
dx
d
dx
u
v
=
d
dx
e
v ln(u)
= e
v ln(u)
d
dx
(v ln(u)) = vu
v1
du
dx
+u
v
ln(u)
dv
dx
d
dx
arctg(u) =
1
1 +u
2
du
dx
A.4 Integrais indenidas
_
udv = uv
_
vdu, onde u e v so funes de x.
_
x
n
dx =
x
n+1
n + 1
, exceto para n = 1
_
x
1
dx = ln x
_
e
ax
dx =
e
ax
a
_
ln xdx = xln x x
_
1
a
2
+x
2
dx =
1
a
tan
1
x
a
_
(ln x)
n
x
dx =
1
n + 1
(ln x)
n+1
_
x
n
ln(ax) dx =
x
n+1
n + 1
ln(ax)
x
n+1
(n + 1)
2
_
xe
ax
dx =
e
ax
(ax 1)
a
2
_
x
2
e
ax
dx =
e
ax
(a
2
x
2
2ax + 2)
a
3
_
sen(ax) dx =
1
a
cos(ax)
_
cos(ax) dx =
1
a
sen(ax)
_
sen
2
(ax) dx =
x
2

sen(2ax)
4a
236 Tabelas Matemticas
_
xsen(ax)dx =
1
a
2
(sen(ax) axcos(ax))
_
x
2
sen(ax)dx =
2axsen(ax) + 2cos(ax) a
2
x
2
sen(ax)
a
3
_
cos
2
(ax)dx =
x
2
+
sen(2ax)
4a
_
xcos(ax)dx =
1
a
2
(cos(ax) +axsen(ax))
_
x
2
cos(ax)dx =
1
a
3
_
2axcos(ax) 2 sen(ax) +a
2
x
2
sen(ax)
_
A.5 Integrais denidas
_

0
t
n1
e
(a+1)t
dt =
(n)
(a + 1)
n
n > 0, a > 1
(n) = (n 1)! se n um inteiro positivo

_
1
2
_
=

_
n +
1
2
_
=
1 3 5 (2n 1)
2
n

n = 1, 2, 3, . . .
_

0
e

2
x
2
dx =

2
_

0
xe

2
x
2
=
1
2
2
_

0
x
2
e

2
x
2
=

4
3
_

0
x
n
e

2
x
2
=
_
n + 1
2
_
/
_
2
n+1
_
_

0
a
a
2
+x
2
dx =

2
, a > 0
_

0
sen
2
(ax)
x
2
dx = |a|

2
, a > 0
_

0
cos(mx)
x
2
+a
2
dx =

2a
e
ma
_

e
(ax
2
+bx+c)
dx =
_

a
e
b
2
4ac
4a
Apndice B
Tabelas de transformadas de
Fourier
B.1 Denio
G(f) = F{g(t)} =
_

g(t)e
j2ft
dt
g(t) = F
1
{G(f)} =
_

G(f)e
j2ft
df
B.2 Propriedades
Linearidade: F{ag
1
(t) +bg
2
(t)} = aG
1
(f) +bG
2
(f)
Escalonamento no tempo: F{g(at)} = G(f/a)/|a|
Dualidade: se F{g(t)} = G(f) ento F{G(t)} = g(f)
Deslocamento no tempo: F{g(t t
0
)} = G(f)e
j2ft
0
Deslocamento em frequncia: F{g(t)e
j2f
0
t
} = G(f f
0
)
Diferenciao: F{g

(t)} = j2fG(f)
Integrao: F
__
t

g(s)ds
_
= G(f)/(j2f) + (G(0)/2)(f)
Multiplicao no tempo: F{g
1
(t)g
2
(t)} = G
1
(f) G
2
(f)
Convoluo no tempo: F{g
1
(t) g
2
(t)} = G
1
(f)G
2
(f)
238 Tabelas de transformadas de Fourier
B.3 Pares de transformadas
g(t) G(f)
_
1, T/2 t T/2
0, caso contrrio
T
sen(fT)
fT
2W
sen(2Wt)
2Wt
_
1, W f W
0, caso contrrio
_
1
|t|
T
, |t| < T
0, caso contrrio
T
sen
2
(fT)
(fT)
2
e
at
u(t), a > 0
1
a +j2f
e
a|t|
, a > 0
2a
a
2
+ (2f)
2
e
t
2
e
f
2
(t) 1
1 (f)
(t t
0
) e
j2ft
0
e
j2f
0
t
(f f
0
)
cos(2f
0
t)
1
2
[(f f
0
) +(f +f
0
)]
sen(2f
0
t)
1
2j
[(f f
0
) +(f +f
0
)]
u(t)
1
2
(f) +
1
j2f
Apndice C
Sries de Taylor
C.1 Srie de Taylor para funes de uma varivel
f(x) = f(a) +f

(a)(x a) +
f

(a)(x a)
2
2!
+ +
f
(n1)
(a)(x a)
(n1)
(n 1)!
+R
n
onde R
n
, o resto aps n termos, dado por qualquer das formas seguintes:
Forma de Lagrange R
n
=
f
(n)
()(x a)
n
n!
Forma de Cauchy R
n
=
f
(n)
()(x )
n1
(x a)
(n 1)!
O valor , que pode ser diferente nas duas formas, ca entre a e x. O resultado
determina se f(x) tem derivadas contnuas de ordem n pelo menos.
Se lim
n
R
n
= 0, a srie innita, chamada de Srie de Taylor para f(x) em
x = a. Se x = 0, a srie frequentemente chamada de Srie de Maclaurin. Estas sries
geralmente convergem para todos os valores de x em algum intervalo de converg
a
ncia
e divergem para todos os x fora deste intervalo.
C.2 Expanses mais utilizadas
e
x
= 1 +x +
x
2
2!
+
x
3
3!
+ , < x <
a
x
= e
x ln(a)
= 1 +xln(a) +
(xln(a))
2
2!
+
(xln(a))
3
3!
+ , < x <
ln(x) =
_
x 1
x
_
+
1
2
_
x 1
x
_
2
+
1
3
_
x 1
x
_
3
+ , x
1
2
sen(x) = x
x
3
3!
+
x
5
5!

x
7
7!
+ , < x <
cos(x) = 1
x
2
2!
+
x
4
4!

x
6
6!
+ , < x <
senh(x) = x +
x
3
3!
+
x
5
5!
+
x
7
7!
+ , < x <
240 Sries de Taylor
cosh(x) = 1 +
x
2
2!
+
x
4
4!
+
x
6
6!
+ , < x <
e
sen(x)
= 1 +x +
x
2
2

x
4
8!

x
5
15!
+ , < x <
e
cos(x)
= e
_
1
x
2
2
+
x
4
6

31x
6
720
+
_
, < x <
Apndice D
Variveis aleatrias discretas
D.1 Bernoulli
S
X
= {0, 1}
p
0
= q = 1 p p
1
= p 0 p 1
E[X] = p Var[X] = p(1 p)
G
X
(z) = (q +pz)
Observaes: a varivel aleatria de Bernoulli o valor da funo indicadora I
A
para
algum evento A; X = 1 se A ocorre, e 0 caso contrrio.
D.2 Binomial
S
X
= {0, 1, . . . , n}
p
k
=
_
n
k
_
p
k
(1 p)
nk
k = 0, 1, . . . , n
E[X] = np Var[X] = np(1 p)
G
X
(z) = (q +pz)
n
Observaes: X o nmero de sucessos em n testes de Bernoulli, e portanto a soma de
n variveis aleatrias iid com distribuio de Bernoulli.
D.3 Geomtrica
Primeira verso
S
X
= {0, 1, 2, . . . }
p
k
= p(1 p)
k
k = 0, 1, . . .
E[X] =
1 p
p
Var[X] =
1 p
p
2
G
X
(z) =
p
1qz
Observaes: X o nmero de falhas antes do primeiro sucesso em uma sequncia de
242 Variveis aleatrias discretas
testes de Bernoulli independentes. A varivel aleatria geomtrica a nica varivel
aleatria discreta sem memria.
Segunda verso
S

X
= {1, 2, . . . }
p
k
= p(1 p)
k1
k = 1, 2, . . .
E[X

] =
1
p
Var[X

] =
1 p
p
2
G

X
(z) =
pz
1qz
Observaes: X

= X + 1 o nmero de tentativas antes do primeiro sucesso em uma


sequncia de testes de Bernoulli independentes.
D.4 Binomial negativa
S
X
= {r, r + 1, . . . } onde r um inteiro positivo
p
k
=
_
k 1
r 1
_
p
r
(1 p)
kr
k = r, r + 1, . . . , n
E[X] =
r
p
Var[X] =
r(1 p)
p
2
G
X
(z) =
_
pz
1qz
_
r
Observaes: X o nmero de tentativas at o r-simo sucesso em uma sequncia de
testes de Bernoulli independentes.
D.5 Poisson
S
X
= {0, 1, 2, . . . }
p
k
=

k
k!
e

, k = 0, 1, . . . > 0
E[X] = Var[X] =
G
X
(z) = e
(z1)
Observaes: X o nmero de eventos que ocorrem em uma unidade de tempo quando
o tempo entre os eventos segue uma distribuio exponencial de mdia 1/.
Apndice E
Variveis aleatrias contnuas
E.1 Uniforme
S
X
= [a, b]
f
X
(x) =
1
b a
a x b
E[X] =
a +b
2
Var[X] =
(b a)
2
12

X
(j) =
e
jb
e
ja
j(b a)
E.2 Exponencial
S
X
= [0, )
f
X
(x) = e
x
> 0
E[X] =
1

Var[X] =
1

X
(j) =

j
Observaes: A varivel aleatria exponencial a nica varivel aleatria contnua sem
memria. Em geral usada para modelar o tempo entre eventos consecutivos em um
processo de Poisson.
E.3 Gaussiana (Normal)
S
X
= (, )
f
X
(x) =
1

2
e

(x)
2
2
2
> 0
E[X] = Var[X] =
2

X
(j) = e
j
2

2
/2
244 Variveis aleatrias contnuas
Observaes: Sob uma grande gama de condies, X pode ser utilizada para aproximar
a soma de um grande nmero de variveis aleatrias independentes.
E.4 Gama
S
X
= (0, )
f
X
(x) =
(x)
1
e
x
()
> 0, > 0
E[X] =

Var[X] =

X
(j) =
1
(1 j/)

E.5 m-Erlang
S
X
= (0, )
f
X
(x) =
e
x
(x)
m1
(m1)!
> 0, m inteiro positivo.
E[X] =
m

Var[X] =
m

X
(j) =
_

j
_
m
Observaes: Uma varivel aleatria m-Erlang obtida pela adio de m variveis
aleatrias iid com distribuio exponencial de parmetro . Pode ser obtida a partir da
distribuio gama, fazendo = m, onde m um inteiro positivo.
E.6 Chi-Quadrado (
2
)
S
X
= (0, )
f
X
(x) =
x
(k2)/2
e
x/2
2
k/2
(k/2)
onde k um inteiro positivo.
E[X] = k Var[X] = 2k

X
(j) =
_
1
1 j2
_
k/2
Observaes: A soma do quadrado de k variveis aleatrias gaussianas de mdia zero
e varincia unitria corresponde a uma varivel aleatria com distribuio
2
com k
graus de liberdade.
E.7 Rayleigh
S
X
= [0, )
Variveis aleatrias contnuas 245
f
X
(x) =
x

2
e
x
2
/(2
2
)
> 0.
E[X] =
_

2
Var[X] =
_
2

2
_

2
E.8 Cauchy
S
X
= (, )
f
X
(x) =

(x
2
+
2
)
> 0
A mdia e a varincia no existem.

X
(j) = e
||
E.9 Laplace
S
X
= (, )
f
X
(x) =

2
e
|x|
> 0.
E[X] = 0 Var[X] =
2

X
(j) =

2

2
+
2
Apndice F
Valores da distribuio normal
Nas tabelas a seguir so listados os valores da funo distribuio cumulativa (x) de
uma varivel aleatria com distribuio normal N(0, 1).
Valores da distribuio normal 247
x (x) x (x) x (x) x (x)
-4.00 0.000031671 -3.50 0.000232629 -3.00 0.001349898 -2.50 0.006209665
-3.99 0.000033036 -3.49 0.000241510 -2.99 0.001394887 -2.49 0.006387154
-3.98 0.000034457 -3.48 0.000250706 -2.98 0.001441241 -2.48 0.006569119
-3.97 0.000035936 -3.47 0.000260229 -2.97 0.001488998 -2.47 0.006755652
-3.96 0.000037474 -3.46 0.000270087 -2.96 0.001538195 -2.46 0.006946850
-3.95 0.000039075 -3.45 0.000280293 -2.95 0.001588869 -2.45 0.007142810
-3.94 0.000040740 -3.44 0.000290857 -2.94 0.001641061 -2.44 0.007343630
-3.93 0.000042472 -3.43 0.000301790 -2.93 0.001694810 -2.43 0.007549411
-3.92 0.000044274 -3.42 0.000313105 -2.92 0.001750156 -2.42 0.007760253
-3.91 0.000046148 -3.41 0.000324814 -2.91 0.001807143 -2.41 0.007976260
-3.90 0.000048096 -3.40 0.000336929 -2.90 0.001865813 -2.40 0.008197535
-3.89 0.000050122 -3.39 0.000349463 -2.89 0.001926209 -2.39 0.008424186
-3.88 0.000052228 -3.38 0.000362429 -2.88 0.001988375 -2.38 0.008656319
-3.87 0.000054417 -3.37 0.000375840 -2.87 0.002052358 -2.37 0.008894042
-3.86 0.000056693 -3.36 0.000389712 -2.86 0.002118205 -2.36 0.009137467
-3.85 0.000059058 -3.35 0.000404057 -2.85 0.002185961 -2.35 0.009386705
-3.84 0.000061517 -3.34 0.000418891 -2.84 0.002255676 -2.34 0.009641869
-3.83 0.000064071 -3.33 0.000434229 -2.83 0.002327400 -2.33 0.009903075
-3.82 0.000066725 -3.32 0.000450087 -2.82 0.002401182 -2.32 0.010170438
-3.81 0.000069483 -3.31 0.000466479 -2.81 0.002477074 -2.31 0.010444077
-3.80 0.000072348 -3.30 0.000483424 -2.80 0.002555130 -2.30 0.010724110
-3.79 0.000075323 -3.29 0.000500936 -2.79 0.002635402 -2.29 0.011010658
-3.78 0.000078414 -3.28 0.000519035 -2.78 0.002717944 -2.28 0.011303844
-3.77 0.000081623 -3.27 0.000537737 -2.77 0.002802814 -2.27 0.011603791
-3.76 0.000084956 -3.26 0.000557061 -2.76 0.002890068 -2.26 0.011910625
-3.75 0.000088417 -3.25 0.000577025 -2.75 0.002979763 -2.25 0.012224472
-3.74 0.000092010 -3.24 0.000597648 -2.74 0.003071959 -2.24 0.012545461
-3.73 0.000095739 -3.23 0.000618951 -2.73 0.003166716 -2.23 0.012873721
-3.72 0.000099611 -3.22 0.000640952 -2.72 0.003264095 -2.22 0.013209383
-3.71 0.000103629 -3.21 0.000663674 -2.71 0.003364160 -2.21 0.013552581
-3.70 0.000107799 -3.20 0.000687137 -2.70 0.003466973 -2.20 0.013903447
-3.69 0.000112127 -3.19 0.000711363 -2.69 0.003572600 -2.19 0.014262118
-3.68 0.000116616 -3.18 0.000736375 -2.68 0.003681108 -2.18 0.014628730
-3.67 0.000121275 -3.17 0.000762194 -2.67 0.003792562 -2.17 0.015003422
-3.66 0.000126107 -3.16 0.000788845 -2.66 0.003907032 -2.16 0.015386334
-3.65 0.000131120 -3.15 0.000816352 -2.65 0.004024588 -2.15 0.015777607
-3.64 0.000136319 -3.14 0.000844739 -2.64 0.004145301 -2.14 0.016177383
-3.63 0.000141710 -3.13 0.000874031 -2.63 0.004269243 -2.13 0.016585806
-3.62 0.000147301 -3.12 0.000904255 -2.62 0.004396488 -2.12 0.017003022
-3.61 0.000153098 -3.11 0.000935436 -2.61 0.004527111 -2.11 0.017429177
-3.60 0.000159108 -3.10 0.000967603 -2.60 0.004661188 -2.10 0.017864420
-3.59 0.000165338 -3.09 0.001000782 -2.59 0.004798796 -2.09 0.018308899
-3.58 0.000171797 -3.08 0.001035002 -2.58 0.004940015 -2.08 0.018762766
-3.57 0.000178490 -3.07 0.001070293 -2.57 0.005084925 -2.07 0.019226172
-3.56 0.000185427 -3.06 0.001106684 -2.56 0.005233608 -2.06 0.019699270
-3.55 0.000192615 -3.05 0.001144206 -2.55 0.005386145 -2.05 0.020182215
-3.54 0.000200063 -3.04 0.001182890 -2.54 0.005542623 -2.04 0.020675162
-3.53 0.000207779 -3.03 0.001222768 -2.53 0.005703126 -2.03 0.021178269
-3.52 0.000215773 -3.02 0.001263873 -2.52 0.005867741 -2.02 0.021691693
-3.51 0.000224053 -3.01 0.001306238 -2.51 0.006036558 -2.01 0.022215594
248 Valores da distribuio normal
x (x) x (x) x (x) x (x)
-2.00 0.022750131 -1.50 0.066807201 -1.00 0.158655253 -0.50 0.308537538
-1.99 0.023295467 -1.49 0.068112117 -0.99 0.161087059 -0.49 0.312066949
-1.98 0.023851764 -1.48 0.069436623 -0.98 0.163543059 -0.48 0.315613696
-1.97 0.024419185 -1.47 0.070780876 -0.97 0.166023246 -0.47 0.319177508
-1.96 0.024997895 -1.46 0.072145036 -0.96 0.168527607 -0.46 0.322758110
-1.95 0.025588059 -1.45 0.073529259 -0.95 0.171056126 -0.45 0.326355220
-1.94 0.026189844 -1.44 0.074933699 -0.94 0.173608780 -0.44 0.329968553
-1.93 0.026803418 -1.43 0.076358509 -0.93 0.176185542 -0.43 0.333597820
-1.92 0.027428949 -1.42 0.077803840 -0.92 0.178786379 -0.42 0.337242726
-1.91 0.028066606 -1.41 0.079269841 -0.91 0.181411254 -0.41 0.340902973
-1.90 0.028716559 -1.40 0.080756659 -0.90 0.184060125 -0.40 0.344578258
-1.89 0.029378980 -1.39 0.082264438 -0.89 0.186732943 -0.39 0.348268273
-1.88 0.030054038 -1.38 0.083793322 -0.88 0.189429654 -0.38 0.351972707
-1.87 0.030741908 -1.37 0.085343450 -0.87 0.192150202 -0.37 0.355691245
-1.86 0.031442762 -1.36 0.086914961 -0.86 0.194894521 -0.36 0.359423566
-1.85 0.032156774 -1.35 0.088507991 -0.85 0.197662543 -0.35 0.363169348
-1.84 0.032884118 -1.34 0.090122672 -0.84 0.200454193 -0.34 0.366928263
-1.83 0.033624969 -1.33 0.091759135 -0.83 0.203269391 -0.33 0.370699981
-1.82 0.034379502 -1.32 0.093417508 -0.82 0.206108053 -0.32 0.374484165
-1.81 0.035147893 -1.31 0.095097917 -0.81 0.208970087 -0.31 0.378280478
-1.80 0.035930319 -1.30 0.096800484 -0.80 0.211855398 -0.30 0.382088577
-1.79 0.036726955 -1.29 0.098525329 -0.79 0.214763884 -0.29 0.385908118
-1.78 0.037537980 -1.28 0.100272567 -0.78 0.217695437 -0.28 0.389738752
-1.77 0.038363570 -1.27 0.102042315 -0.77 0.220649946 -0.27 0.393580126
-1.76 0.039203903 -1.26 0.103834681 -0.76 0.223627292 -0.26 0.397431886
-1.75 0.040059156 -1.25 0.105649773 -0.75 0.226627352 -0.25 0.401293674
-1.74 0.040929508 -1.24 0.107487697 -0.74 0.229649997 -0.24 0.405165128
-1.73 0.041815137 -1.23 0.109348552 -0.73 0.232695092 -0.23 0.409045884
-1.72 0.042716220 -1.22 0.111232437 -0.72 0.235762497 -0.22 0.412935577
-1.71 0.043632936 -1.21 0.113139446 -0.71 0.238852068 -0.21 0.416833836
-1.70 0.044565462 -1.20 0.115069670 -0.70 0.241963652 -0.20 0.420740290
-1.69 0.045513977 -1.19 0.117023196 -0.69 0.245097093 -0.19 0.424654565
-1.68 0.046478657 -1.18 0.119000107 -0.68 0.248252230 -0.18 0.428576284
-1.67 0.047459681 -1.17 0.121000484 -0.67 0.251428895 -0.17 0.432505068
-1.66 0.048457226 -1.16 0.123024403 -0.66 0.254626914 -0.16 0.436440537
-1.65 0.049471468 -1.15 0.125071935 -0.65 0.257846110 -0.15 0.440382307
-1.64 0.050502583 -1.14 0.127143150 -0.64 0.261086299 -0.14 0.444329995
-1.63 0.051550748 -1.13 0.129238112 -0.63 0.264347292 -0.13 0.448283213
-1.62 0.052616138 -1.12 0.131356881 -0.62 0.267628893 -0.12 0.452241573
-1.61 0.053698928 -1.11 0.133499513 -0.61 0.270930903 -0.11 0.456204687
-1.60 0.054799291 -1.10 0.135666060 -0.60 0.274253117 -0.10 0.460172162
-1.59 0.055917402 -1.09 0.137856572 -0.59 0.277595324 -0.09 0.464143607
-1.58 0.057053433 -1.08 0.140071090 -0.58 0.280957308 -0.08 0.468118627
-1.57 0.058207555 -1.07 0.142309654 -0.57 0.284338849 -0.07 0.472096829
-1.56 0.059379940 -1.06 0.144572299 -0.56 0.287739718 -0.06 0.476077817
-1.55 0.060570758 -1.05 0.146859056 -0.55 0.291159686 -0.05 0.480061194
-1.54 0.061780176 -1.04 0.149169950 -0.54 0.294598516 -0.04 0.484046563
-1.53 0.063008364 -1.03 0.151505002 -0.53 0.298055965 -0.03 0.488033526
-1.52 0.064255487 -1.02 0.153864230 -0.52 0.301531787 -0.02 0.492021686
-1.51 0.065521712 -1.01 0.156247645 -0.51 0.305025730 -0.01 0.496010643
Referncias Bibliogrcas
[AZW89] Daniel Tabak Alexander Zayezdny and Dov Wulich, Engineering applicati-
ons of stochastic processes - theory, problems and solutions, Research Studies
Press, Taunton, Somerset, England, 1989.
[Fel68] W. Feller, An introduction to probability theory and its implications, vol. I,
John Wiley and Sons, New York, 1968.
[Hay01] Simon Haykin, Communication systems, John Wiley and Sons, 2001.
[Hsu96] Hwei P. Hsu, Probability, random variables and stochastic processes, McGraw-
Hill, 1996.
[Jr.87] Wilber B. Davenport Jr., Probability and random processes. an introduction
for applied scientists and engineers., McGraw-Hill, 1987.
[Lat89] Bhagwandas Pannalal Lathi, Modern digital and analog communication sys-
tems, Sounders College Publishing, 1989.
[LG94] Alberto Leon-Garcia, Probability and random processes for electrical engine-
ering - second edition, Addison-Wesley, 1994.
[Lip93] Seymour Lipschutz, Probabilidade, Makron Books, So Paulo, 1993.
[Pap84] Athanasios Papoulis, Probability, random variables and stochastic processes,
McGraw-Hill, 1984.
[Pro95] John G. Proakis, Digital communications, McGraw-Hill, 1995.
[Ros83] Sheldon. M. Ross, Stochastic processes, John Wiley and Sons, New York,
1983.
[Spi78] Murray R. Spiegel, Probabilidade e estatstica, McGraw-Hill, 1978.
[SW94] Henry Stark and John W. Woods, Probability, random processes and estima-
tion theory for engineers - second edition, Prentice Hall, New Jersey, 1994.
[Swo94] Earl W. Swokowsky, Clculo com geometria analtica, Makron Books, So
Paulo, 1994.
[YG98] Roy D. Yates and David J. Goodman, Probability and stochastic processes -
a friendly introduction for electrical and computer engineers, John Wiley and
Sons, New York, 1998.

You might also like