Diferenças entre edições de "Variável aleatória"

Da Thinkfn
(Momentos)
Linha 51: Linha 51:
 
Duas variáveis aleatórias ''X'' e ''Y'' são "iguais em distribuição" se  
 
Duas variáveis aleatórias ''X'' e ''Y'' são "iguais em distribuição" se  
  
:<tex>\operatorname{P}(X \le x) = \operatorname{P}(Y \le x)\quad\hbox{para todo}\quad x.</tex>
+
:<tex>\operatorname{P}(X \le x) = \operatorname{P}(Y \le x)</tex> '''''para todo''''' <tex>x.</tex>
  
 
Para serem iguais em distribuição, variáveis aleatórias não têm de ser definidas no mesmo espaço de probabilidade. A noção de equivalência de distribuição é associada à seguinte noção de distância entre distribuições de probabilidade:  
 
Para serem iguais em distribuição, variáveis aleatórias não têm de ser definidas no mesmo espaço de probabilidade. A noção de equivalência de distribuição é associada à seguinte noção de distância entre distribuições de probabilidade:  
Linha 82: Linha 82:
 
Finalmente, duas variáveis aleatórias ''X'' e ''Y'' são ''iguais'' se elas são iguais como funções no seu espaço probabilidade, que é,
 
Finalmente, duas variáveis aleatórias ''X'' e ''Y'' são ''iguais'' se elas são iguais como funções no seu espaço probabilidade, que é,
  
:<tex>X(\omega)=Y(\omega)\qquad\hbox{for all}\quad\omega</tex>
+
:<tex>X(\omega)=Y(\omega)</tex> '''''para todo''''' <tex>\omega</tex>
  
 
==== Contra-exemplos====
 
==== Contra-exemplos====

Revisão das 13h56min de 13 de dezembro de 2007

Uma variável aleatória (random variable) pode ser considerada como o resultado numérico de operar um mecanismo não determinístico, ou de fazer uma experiência não determinística, para gerar resultados aleatórios.

Matematicamente, uma variável aleatória é definida como uma função mensurável de um espaço probabilidade para um espaço mensurável (sigma-álgebra). Este espaço mensurável é o espaço de possíveis valores da variável, e é normalmente tomado como a sigma-álgebra de Borel baseada na topologia usual dos números reais. Isto é aqui assumido, excepto nos casos devidamente assinalados.

Exemplos

  • Considere-se a experiência "lançar um dado". A variável aleatória X, que traduz o resultado desta experiência, pode tomar os valores 1, 2, 3, 4, 5 ou 6. O conjunto Ω = {1, 2, 3, 4, 5, 6} é o espaço amostra (também designado acontecimento certo) e os subconjuntos de Ω chamam-se eventos ou acontecimentos. Neste caso, a probabilidade de cada evento elementar {1}, {2}, {3}, {4}, {5}, {6} é igual a 1/6. A probabilidade de num lançamento de um dado sair um número par é a probabilidade do evento {2,4,6}, que é P(X(ω)∈{2,4,6})=3/6=1/2.
  • Na experiência "escolher uma pessoa ao acaso e medir a sua altura" a variável aleatória X tomaria valores entre 0 e 3 metros (embora alguns valores tivessem probabilidade 0), isto é Ω = [0,3]. A probabilidade de se escolher uma pessoa com pelo menos 2 metros seria traduzida por P(X(\omega)\ge 2) ou P(X(\omega)\in[2,3]).

Funções distribuição

Se uma variável aleatória X: \Omega \to \mathbb{R} definida no espaço probabilidade (\Omega , P) é dada, podemos colocar questões como: qual é a probabilidade de que o valor de X é maior do que 2? Isto é o mesmo que a probabilidade do evento \{ s \in\Omega : X(s) > 2 \} que normalmente se escreve como P(X > 2) por abreviação.

Registando todas estas probabilidades de amplitudes totais da variável aleatória real X gera-se a distribuição de probabilidade de X. A distribuição de probabilidade "esquece" o espaço probabilidade particular usado para definir X e regista apenas as probabilidades de vários valores de X. Tal distribuição de probabilidade pode ser sempre capturada pela sua função distribuição acumulada

F_X(x) = \operatorname{P}(X < x)

e por vezes também usando a função densidade da probabilidade. Em termos da teoria da medida, usa-se a variável aleatória X para "transpor" a medida P de Ω para uma medida dF em R. O espaço probabilidade subjacente Ω é um instrumento técnico usado para garantir a existência de variáveis aleatórias e, por vezes, para as construir. Na prática, usa-se geralmente o espaço Ω e apenas se coloca uma medida em R que consigna a medida 1 para o todo da linha real, isto é, trabalha-se com distribuições de probabilidade em vez de variáveis aleatórias.

Funções de variáveis aleatórias

Se temos uma variável aleatória X em Ω e uma função mensurável f:R->R, então Y=f(X) será também uma variável aleatória em Ω, uma vez que a composição de funções mensuráveis é mensurável. O mesmo processo que nos permitia ir de um espaço probabilidade (Ω,P) para (R,dFX) pode ser usado para obter a distribuição probabilidade de Y. A função distribuição acumulada de Y é

F_Y(y) = \operatorname{P}(f(X) < y).

Exemplo

Seja X uma variável aleatória real e seja Y = X2. Então,

F_Y(y) = \operatorname{P}(X^2 < y).

Se y < 0, então P(X2y) = 0, logo

F_Y(y) = 0 se y < 0.

Se y ≥ 0, então

\operatorname{P}(X^2 < y) = \operatorname{P}(|X| < \sqrt{y}) = \operatorname{P}(-\sqrt{y} <  X < \sqrt{y}),

logo

F_Y(y) = F_X(\sqrt{y}) - F_X(-\sqrt{y}) se y \ge 0.

Momentos

A distribuição de probabilidade de uma variável aleatória é frequentemente caracterizada por um pequeno número de parâmetros, os quais também têm uma interpretação prática. Por exemplo, é muitas vezes suficiente saber qual é o seu "valor médio". Esta noção é capturada pelo conceito matemático de valor esperado de uma variável aleatória, que se denota por E[X]. Note-se que, em geral, E[f(X)] não é o mesmo que f(E[X]). Uma vez que o valor médio é conhecido, podemos então querer perguntar a que distância é que os valores de X se encontram deste valor médio, uma questão que é respondida pela variância e desvio padrão de uma variável aleatória.

Matematicamente, isto é conhecido como o problema (generalisado) dos momentos: para uma dada classe de variáveis aleatórias X, encontre uma coleção {fi} de funções tais que os valores esperados E[fi(X)] caracterizem completamente a distribuição da variável aleatória X.

Equivalência de variáveis aleatórias

Há vários sentidos em que podemos dizer que duas (ou mais) variáveis aleatórias são equivalentes. Duas variáveis aleatórias podem ser iguais, iguais quase com certeza, iguais em média ou iguais em distribuição.

Em ordem crescente de força, a definição precisa destas noções de equivalência é dada abaixo. Para mostrar que a implicação inversa nem sempre é válida, segue uma lista de contra-exemplos.

Igualdade de distribuição

Duas variáveis aleatórias X e Y são "iguais em distribuição" se

\operatorname{P}(X \le x) = \operatorname{P}(Y \le x) para todo x.

Para serem iguais em distribuição, variáveis aleatórias não têm de ser definidas no mesmo espaço de probabilidade. A noção de equivalência de distribuição é associada à seguinte noção de distância entre distribuições de probabilidade:

d(X,Y)=\sup_x|\operatorname{P}(X \le x) - \operatorname{P}(Y \le x)|,

que é a base do Teste Kolmogorov-Smirnov.

Igualdade de média

Duas variáveis aleatórias X e Y são iguais na média de ordem p se o momento de ordem p de |XY| é zero, ou seja,

\operatorname{E}(|X-Y|^p) = 0.

Igualdade na média de ordem p implica a igualdade nas médias de ordem q para todos os q tais que q<p. Tal como no caso anterior, existe uma distância relacionada entre as variáveis aleatórias, nomeadamente

d_p(X, Y) = \operatorname{E}(|X-Y|^p).

Igualdade quase certa

Duas variáveis aleatórias X e Y são quase seguramente iguais se, e apenas se, a probabilidade de que elas são diferentes é zero:

\operatorname{P}(X \neq Y) = 0.

Para todos os objectivos práticos da teoria da probabilidade, esta noção de equivalência é tão forte como a verdadeira igualdade. Está associada à seguinre distância:

d_\infty(X,Y)=\sup_\omega|X(\omega)-Y(\omega)|,

onde 'sup' representa neste caso o supremum essencial no sentido conhecido da teoria da medida.

Igualdade

Finalmente, duas variáveis aleatórias X e Y são iguais se elas são iguais como funções no seu espaço probabilidade, que é,

X(\omega)=Y(\omega) para todo \omega

Contra-exemplos

Igualdade de distribuição mas não igualdade de média

Considerando-se \Omega\, o espaço dos lançamentos de dois dados honestos e as variáveis aleatórias:

X = Valor do primeiro dado
Y = Valor do segundo dado

observa-se que X e Y são iguais em distribuição, mas não são iguais em média. Nesse caso, X e Y são independentes. Outro exemplo, um pouco mais complicado, é a variável aleatória

Z = o primeiro dado, se ele for 1 a 4 ou 5 se o primeiro dado for 5 ou 6 e o segundo dado for ímpar ou 6 se o primeiro dado for 5 ou 6 e o segundo dado for par

Essa variável é igual em distribuição a X e Y (porque P(Z = n) = 1/6 qualquer que seja n), mas Z não é independente de X nem de Y.

Convergência

Muita da estatística matemática consiste em provar resultados convergente para certas sequências de variáveis aleatórias; ver por exemplo a lei dos grandes números e o teorema do limite central.

Há varios casos nos quais a sequência (Xn) de variáveis aleatórias pode convergir para uma variável aleatória X.

Exemplos

Os números que se seguem são exemplos de inteiros aleatórios i, 1 ≤ i ≤ 100:

17 12 17 89 64 4 62 6 82 80 61 100 19 7 35 4 23 43 49 69 4 81 64 52 33 59 56 56 46 25 2 44 34 73 58 48 94 18 65 47 73 16 69 26 26 65 35 65 64 2 59 36 52 77 52 14 79 42 71 82 60 28 72 96 77 72 78 58 71 44 99 41 41 80 53 67 7 66 49 86 94 85 47 27 1 6 86 50 32 26 60 79 94 53 72 98 78 46 73 50 49 3 77 57 56 23 20 70 1 58 42 72 16 84 96 44 42 76 19 71 57 17 34 66 68 63 100 37 38 68 52 52 42 86 15 53 76 59 43 94 67 21 74 73 85 16 12 45 57 7 4 22 23 74 15 63 80 65 76 88 39 39 100 96 85 64 16 55 62 50 71 27 48 95 96 30 65 33 71 50 39 1 70 99 55 74 2 74 98 48 99 90 28 66 41 17 80 35 8 30 85 41 68 18 46 86 91 40 20 43 71 95 48 40 79 88 77 49 81 52 15 8 11 51 26 99 8 28 37 47 37 17 30 27 39 33 65 8 31 73 48 96 41 78 9 89 72 16 61 48 73 90 39 34 7 41 1 87 48 83 41 64 61 47 71 2 35 66 74 29 74 7 61 22 46 46 4 59 23 79 33 7 31 41 54 63 91 81 58 66 83 24 37 84 16 55 9 52 92 69 44 27 57 38 70 37 33 23 24 18 74 20 87 73 28 85 34 31 76 25 6 38 15 73 16 79 83 94 21 52 34 19 66 5 97 33 100 63 36 100 4 63 84 8 21 21 92 60 72 22 25 80 23 8 10 10 63 44 14 86 47 17 45 4 18 21 44 27 88 10 92 90 27 54 73 68 13 15 68 31 4 83 46 97 97 32 12 66 66 87 100 75 99 75 73 16 86 90 66 51 59 80 87 40 35 21 76 65 74 73 26 41 17 67 88 54 42 62 98 78 19 29 60 79 19 76 13 95 68 76 86 47 91 23 25 50 57 27 97 30 16 82 5 7 31 72 64 18 32 100 54 18 51 66 38 74 91 75 41 81 21 32 96 78 90 9 82 21 84 80 65 72 52 17 81 50 1 90 14 45 11 76 91 31 20 93 30 30 66 10 20 37 89 3 71 35 96 82 11 14

Ver também

Smallwikipedialogo.png

Esta página usa conteúdo da Wikipedia. O artigo original estava em Variável_aleatória. Tal como o Think Finance neste artigo, o texto da Wikipedia está disponível segundo a GNU Free Documentation License.