Variável aleatória

Da Thinkfn

Uma variável aleatória (random variable) pode ser considerada como o resultado numérico de operar um mecanismo não determinístico, ou de fazer uma experiência não determinística, para gerar resultados aleatórios.

Matematicamente, uma variável aleatória é definida como uma função mensurável de um espaço probabilidade para um espaço mensurável (sigma-álgebra). Este espaço mensurável é o espaço de possíveis valores da variável, e é normalmente tomado como a sigma-álgebra de Borel baseada na topologia usual dos números reais. Isto é aqui assumido, excepto nos casos devidamente assinalados.

Exemplos

  • Considere-se a experiência "lançar um dado". A variável aleatória X, que traduz o resultado desta experiência, pode tomar os valores 1, 2, 3, 4, 5 ou 6. O conjunto Ω = {1, 2, 3, 4, 5, 6} é o espaço amostra (também designado acontecimento certo) e os subconjuntos de Ω chamam-se eventos ou acontecimentos. Neste caso, a probabilidade de cada evento elementar {1}, {2}, {3}, {4}, {5}, {6} é igual a 1/6. A probabilidade de num lançamento de um dado sair um número par é a probabilidade do evento {2,4,6}, que é P(X(ω)∈{2,4,6})=3/6=1/2.
  • Na experiência "escolher uma pessoa ao acaso e medir a sua altura" a variável aleatória X tomaria valores entre 0 e 3 metros (embora alguns valores tivessem probabilidade 0), isto é Ω = [0,3]. A probabilidade de se escolher uma pessoa com pelo menos 2 metros seria traduzida por P(X(\omega)\ge 2) ou P(X(\omega)\in[2,3]).

Funções distribuição

Se uma variável aleatória X: \Omega \to \mathbb{R} definida no espaço probabilidade (\Omega , P) é dada, podemos colocar questões como: qual é a probabilidade de que o valor de X é maior do que 2? Isto é o mesmo que a probabilidade do evento \{ s \in\Omega : X(s) > 2 \} que normalmente se escreve como P(X > 2) por abreviação.

Registando todas estas probabilidades de amplitudes totais da variável aleatória real X gera-se a distribuição de probabilidade de X. A distribuição de probabilidade "esquece" o espaço probabilidade particular usado para definir X e regista apenas as probabilidades de vários valores de X. Tal distribuição de probabilidade pode ser sempre capturada pela sua função distribuição acumulada

F_X(x) = \operatorname{P}(X < x)

e por vezes também usando a função densidade da probabilidade. Em termos da teoria da medida, usa-se a variável aleatória X para "transpor" a medida P de Ω para uma medida dF em R. O espaço probabilidade subjacente Ω é um instrumento técnico usado para garantir a existência de variáveis aleatórias e, por vezes, para as construir. Na prática, usa-se geralmente o espaço Ω e apenas se coloca uma medida em R que consigna a medida 1 para o todo da linha real, isto é, trabalha-se com distribuições de probabilidade em vez de variáveis aleatórias.

Funções de variáveis aleatórias

Se temos uma variável aleatória X em Ω e uma função mensurável f:R->R, então Y=f(X) será também uma variável aleatória em Ω, uma vez que a composição de funções mensuráveis é mensurável. O mesmo processo que nos permitia ir de um espaço probabilidade (Ω,P) para (R,dFX) pode ser usado para obter a distribuição probabilidade de Y. A função distribuição acumulada de Y é

F_Y(y) = \operatorname{P}(f(X) < y).

Exemplo 1

Seja X uma variável aleatória real e seja Y = X2. Então,

F_Y(y) = \operatorname{P}(X^2 < y).

Se y < 0, então P(X2y) = 0, logo

F_Y(y) = 0 se y < 0.

Se y ≥ 0, então

\operatorname{P}(X^2 < y) = \operatorname{P}(|X| < \sqrt{y}) = \operatorname{P}(-\sqrt{y} <  X < \sqrt{y}),

logo

F_Y(y) = F_X(\sqrt{y}) - F_X(-\sqrt{y}) se y \ge 0.

Exemplo 2

Supondo que X é uma variável aleatória com uma distribuição acumulada

 F_{X}(x) = P(X \leq x) = \frac{1}{(1 + e^{-x})^{\theta}}

em que  \theta > 0 é um parâmetro fixo. Consideremos a variável aleatória  Y= \mathrm{log}(1 + e^{-X}). Então,

 F_{Y}(y) = P(Y \leq y) = P(\mathrm{log}(1 + e^{-X}) \leq y) = P(X > -\mathrm{log}(e^{y} - 1)).\

Esta expressão pode ser calculada em termos da distribuição acumulada de X, portanto

 F_{Y}(y) = 1 - F_{X}(-\mathrm{log}(e^{y} - 1)) \,
 F_{Y}(y) = 1 - \frac{1}{(1 + e^{\mathrm{log}(e^{y} - 1)})^{\theta}}
 F_{Y}(y) = 1 - \frac{1}{(1 + e^{y} - 1)^{\theta}}
 F_{Y}(y) = 1 - e^{-y \theta}.\,

Momentos

A distribuição de probabilidade de uma variável aleatória é frequentemente caracterizada por um pequeno número de parâmetros, os quais também têm uma interpretação prática. Por exemplo, é muitas vezes suficiente saber qual é o seu "valor médio". Esta noção é capturada pelo conceito matemático de valor esperado de uma variável aleatória, que se denota por E[X]. Note-se que, em geral, E[f(X)] não é o mesmo que f(E[X]). Uma vez que o valor médio é conhecido, podemos então querer perguntar a que distância é que os valores de X se encontram deste valor médio, uma questão que é respondida pela variância e desvio padrão de uma variável aleatória.

Matematicamente, isto é conhecido como o problema (generalisado) dos momentos: para uma dada classe de variáveis aleatórias X, encontre uma coleção {fi} de funções tais que os valores esperados E[fi(X)] caracterizem completamente a distribuição da variável aleatória X.

Equivalência de variáveis aleatórias

Há vários sentidos em que podemos dizer que duas (ou mais) variáveis aleatórias são equivalentes. Duas variáveis aleatórias podem ser iguais, iguais quase com certeza, iguais em média ou iguais em distribuição.

Em ordem crescente de força, a definição precisa destas noções de equivalência é dada abaixo.

Igualdade de distribuição

Duas variáveis aleatórias X e Y são "iguais em distribuição" se

\operatorname{P}(X \le x) = \operatorname{P}(Y \le x) para todo x.

Para serem iguais em distribuição, variáveis aleatórias não têm de ser definidas no mesmo espaço de probabilidade. A noção de equivalência de distribuição é associada à seguinte noção de distância entre distribuições de probabilidade:

d(X,Y)=\sup_x|\operatorname{P}(X \le x) - \operatorname{P}(Y \le x)|,

que é a base do Teste Kolmogorov-Smirnov.

Igualdade de média

Duas variáveis aleatórias X e Y são iguais na média de ordem p se o momento de ordem p de |XY| é zero, ou seja,

\operatorname{E}(|X-Y|^p) = 0.

Igualdade na média de ordem p implica a igualdade nas médias de ordem q para todos os q tais que q<p. Tal como no caso anterior, existe uma distância relacionada entre as variáveis aleatórias, nomeadamente

d_p(X, Y) = \operatorname{E}(|X-Y|^p).

Igualdade quase certa

Duas variáveis aleatórias X e Y são quase seguramente iguais se, e apenas se, a probabilidade de que sejam diferentes é zero:

\operatorname{P}(X \neq Y) = 0.

Para todos os fins práticos da teoria da probabilidade, esta noção de equivalência é tão forte como a verdadeira igualdade. Está associada à seguinte distância:

d_\infty(X,Y)=\sup_\omega|X(\omega)-Y(\omega)|,

onde 'sup' representa neste caso o supremum essencial no sentido conhecido da teoria da medida.

Igualdade

Finalmente, duas variáveis aleatórias X e Y são iguais se forem iguais como funções no seu espaço probabilidade, que é,

X(\omega)=Y(\omega) para todo \omega

Contra-exemplos

Para mostrar que a implicação inversa nem sempre é válida, segue uma lista de contra-exemplos.

Igualdade de distribuição mas não igualdade de média

Considerando-se \Omega\, o espaço dos lançamentos de dois dados perfeitos (não viciados) e as variáveis aleatórias:

X = valor do primeiro dado
Y = valor do segundo dado,

observa-se que X e Y são iguais em distribuição, mas não são iguais em média. Neste caso, X e Y são independentes.

Outro exemplo, um pouco mais complicado, é a variável aleatória

Z = valor do primeiro dado se ele for de 1 a 4, ou 5 se o primeiro dado for 5 ou 6 e o segundo dado for ímpar, ou 6 se o primeiro dado for 5 ou 6 e o segundo dado for par

Esta variável Z é igual em distribuição a X e Y, porque P(Z = n) = 1/6 qualquer que seja n, mas a variável Z não é independente de X nem de Y.

Convergência

Muita da estatística matemática consiste em provar resultados convergentes para certas sequências de variáveis aleatórias; ver por exemplo a lei dos grandes números e o teorema do limite central.

Há varios casos em que a sequência (Xn) de variáveis aleatórias pode convergir para uma variável aleatória X, explicados na convergência das variáveis aleatórias.

Referências

<references/>

  • ((en)) Kallenberg, O., Random Measures, 4ª edição. Academic Press, New York, London; Akademie-Verlag, Berlin (1986). MR0854102 ISBN 0123949602
  • ((en)) Papoulis, Athanasios 1965 Probability, Random Variables, and Stochastic Processes. McGraw-Hill Kogakusha, Tokyo, 9ª edição, ISBN 0-07-119981-0.

Ver também

Contribuíram para este artigo

Especial:Contributors/Variável aleatória



Smallwikipedialogo.png

Esta página usa conteúdo da Wikipedia. O artigo original estava em Variável_aleatória. Tal como o Think Finance neste artigo, o texto da Wikipedia está disponível segundo a GNU Free Documentation License.