suivant: Covariance conditionnelle
monter: Covariance, régression et corrélation
précédent: Covariance
  Table des matières
On nomme coefficient de corrélation et l'on note
la quantité
.
Soient
et
deux variables aléatoires réelles discrètes.
La droite D d'équation
où
et
, est
appelée la droite de régression linéaire de
par rapport à
;
cette droite D minimise la somme des carrés des écarts en ordonnée entre
les représentations graphiques des valeurs et leurs projections sur D selon (0y), pondérés de leur probabilités.
Démonstration
Il nous faut minimiser en fonction de
et
,
Cette quantité est minimale lorsque
est tel que
(i.e. le point moyen appartient à cette droite) et lorsque
est tel que
. Dans ce cas, le minimum est
.
Conséquence
Les points sont alignés si et seulement si
.
La droite D'
d'équation
où
et
, est appelée la droite de régression linéaire de
par rapport à
; cette droite D' minimise la somme des carrés des écarts en abscisse entre les représentations graphiques des valeurs et leurs projections sur D' selon (0x), pondérés de leur probabilités.
Conséquences
- Le point de coordonnées
est commun aux deux droites D et D'.
- Les deux droites sont confondues si et seulement si
.
Lorsque le coefficient de corrélation est proche de 1 en valeur absolue, on parle de bon ajustement et, dans ce cas, les droites D et D' sont presque confondues.
Inversement, lorsque ce coefficient est proche de 0, on parle de mauvais ajustement, et dans ce cas, les variables
et
sont presque non covariées (i.e. elles n'ont rien à voir entre-elles).
Ainsi, ce coefficient rend compte de la validité de la régression linéaire.
Propriété
Si
et si
, alors
.
En effet,
et donc
.
Puis,
et donc
.
suivant: Covariance conditionnelle
monter: Covariance, régression et corrélation
précédent: Covariance
  Table des matières
Vekemans
2002-06-24