next up previous contents
suivant: Loi conditionnelle, indépendance de monter: Lois de probabilités précédent: Exemple   Table des matières

Loi d'un vecteur de variables aléatoires réelles discrètes et loi marginale

Soit un vecteur de variables aléatoires réelles discrètes $X$, % latex2html id marker 3973
$X=(X_1, X_2, \ldots, X_d) : E \longrightarrow \hbox{\it I\hskip -2pt R}$, prenant ses valeurs dans % latex2html id marker 3975
$\hbox{\it I\hskip -2pt R}^d$. Par définition, la probabilité que $X=(X_1, X_2, \ldots, X_d)$ soit égale à $(x_{i_1}, x_{i_2}, \ldots, x_{i_d})$ est la probabilité des éléments de $E$ ayant pour image $(x_{i_1}, x_{i_2}, \ldots, x_{i_d})$ par $X$. Elle est notée : $P(X=(x_{i_1}, x_{i_2}, \ldots, x_{i_d}))$. La loi de probabilité d'une variable aléatoire réelle discrète $X$ est définie par les valeurs de ces probabilités $P(X=(x_{i_1}, x_{i_2}, \ldots, x_{i_d}))$ qui doivent vérifier $\sum_{i_1,i_2,\ldots,i_d}
P(X=(x_{i_1}, x_{i_2}, \ldots, x_{i_d}))=1$. Si on suppose donnée la loi de $X$, on appelle loi marginale de $I$ la loi de $X_I$
(où $I=\{a_1,a_2,\ldots,a_{r}\} \subset K=\{1,2,\ldots,d\}$, $J=\{b_1,b_2,\ldots,b_{s}\} \subset K$ tels que $I\bigcup J=K$, $I\bigcap
J=$Ø, avec $r+s=d$)
dont la probabilité $P(X_I=(x_{i_{a_1}},
x_{i_{a_2}}, \ldots, x_{i_{a_r}}))$ est donnée par la formule

\begin{displaymath}
P(X_I=(x_{i_{a_1}}, x_{i_{a_2}}, \ldots,
x_{i_{a_r}}))=\su...
...2},\ldots,i_{b_{s}}} P(X=(x_{i_1}, x_{i_2},
\ldots, x_{i_d})).\end{displaymath}



Vekemans 2002-06-24