Covariância

Da Thinkfn

Em teoria da probabilidade e na estatística, a covariância entre duas variáveis aleatórias reais X e Y, com valores esperados E(X)=\mu e E(Y)=\nu é definida como:

\operatorname{cov}(X, Y) = \operatorname{E}((X - \mu) (Y - \nu)), \,

onde E é o operador do valor esperado. Isto equivale à seguinte fórmula, a qual é geralmente usada para fazer os cálculos:

\operatorname{cov}(X, Y) = \operatorname{E}(X Y) - \mu \nu\,

Se X e Y são independentes, então a sua covariância é zero. Isto acontece porque sob independência:

E(X \cdot Y)=E(X) \cdot E(Y)=\mu\nu.

O inverso, no entanto, não é verdadeiro: é possível que X e Y não sejam independentes e terem no entanto covariância zero. Variáveis aleatórias cuja covariância é zero são chamadas descorrelacionadas.

Se X e Y são variáveis aleatórias de valor real e c uma constante ("constante", neste contexto significa não aleatória), então os seguintes factos são uma consequência da definição da covariância:

\operatorname{cov}(X, X) = \operatorname{var}(X)\,
\operatorname{cov}(X, Y) = \operatorname{cov}(Y, X)\,
\operatorname{cov}(cX, Y) = c\, \operatorname{cov}(X, Y)\,
\operatorname{cov}\left(\sum_i{X_i}, \sum_j{Y_j}\right) =    \sum_i{\sum_j{\operatorname{cov}\left(X_i, Y_j\right)}}\,

Para variáveis aleatórias em vectores coluna X e Y com respectivos valores esperados μ e ν, e n e m de componentes escalares respectivamente, a covariância é definida como matriz n×m

\operatorname{cov}(X, Y) = \operatorname{E}((X-\mu)(Y-\nu)^\top).\,

Para variáveis aleatórias em vector, cov(X, Y) e cov(Y, X) são a transposta de cada um.

A covariância é por vezes chamada de medida de dependência linear entre as duas variáveis aleatórias. A correlação é um conceito relacionado usado para medir o grau de dependência linear entre duas variáveis.


Smallwikipedialogo.png

Esta página usa conteúdo da Wikipedia. O artigo original estava em Covariância. Tal como o Think Finance neste artigo, o texto da Wikipedia está disponível segundo a GNU Free Documentation License.