Aller au contenu

Mathématiques au lycée/Probabilité

Un livre de Wikilivres.

Présentation de la théorie des Probabilités

[modifier | modifier le wikicode]

Généralités

[modifier | modifier le wikicode]

Cette science mathématique étudie les lois régissant les phénomènes aléatoires c’est à dire présentant un certains niveau d’incertitude sur le résultat attendu dans l’expérience considérée.

On dit d’un phénomène qu’il est aléatoire si, reproduit un grand nombre de fois, il se déroule chaque fois un peu différemment de telle sorte que le résultat de l’expérience soit non prévisible.

Exemples de phénomènes à caractère aléatoire :

  • Jeter un dé à 6 faces : le résultat étant le nombre de points affichés lorsque le dé est immobilisé
  • Peser un corps plusieurs fois sur une balance mécanique : le résultat étant la mesure affichée variant d’une pesée à l’autre
  • Tirer des obus sur une cible sans changer l’angle de tir et la distance à la cible : le résultat étant la dispersion des impacts sur la cible

Ces trois exemples font ressortir les variations non prévisibles du résultat de chaque expérience.

Ces variations sont liées à la présence de facteurs secondaires qui influent sur le résultat tandis que les conditions principales de l’expérience sont maintenues constantes.

En résumé : Pour une expérience donnée, les conditions principales déterminent pour l’essentiel son déroulement alors que les conditions secondaires, qui varient d’une expérience à l’autre, introduisent des différences imprévisibles qui provoquent des aléas sur le résultat associé à cette même expérience.

Remarque : Dans la nature il n’existe pas d’effet physique libre de toute incertitude et tout phénomène déterministe est accompagné d’écarts aléatoires.

Applications : Dans certaines applications pratiques, on peut négliger les facteurs secondaires et remplacer le phénomène réel par un modèle mathématique en précisant les conditions initiales.

Cette méthode permet d’écrire les équations différentielles qui régissent le phénomène puis de procéder à l’intégration pour faire émerger les lois générales qui permettront de prédire le résultat de l’expérience pour des conditions données.

Cependant certains phénomènes présentent des résultats qui dépendent d’un nombre de facteurs aléatoires si grand qu’il est impossible de tenir compte de tous.

Par exemple si on tire sur une cible avec un domaine de dispersion grand par rapport à celle ci on est amené à se poser la question de savoir quel pourcentage moyen des obus peut atteindre la cible : dans ce cas on ne peut plus négliger le hasard et on doit étudier les lois régissant la dispersion aléatoire des trajectoires.

La théorie des probabilité est née des besoins pratiques et c’est au XVIIe siècle que l’on a vu apparaître l’appareil mathématique correspondant. GALILÉE étudie les erreurs de mesures physique et estime leur probabilité mais la naissance d’une véritable théorie peut être située vers 1650 avec les travaux de :

  • FERMAT             (1601-1665)
  • PASCAL              (1623-1662)
  • HUYGENS           (1629-1695)

sur la théorie des jeux de hasard. Sont développées à cette époque les notions de probabilité et d’espérance mathématique.

Avec les travaux de Jacob BERNOULLI (1654-1705) la théorie des probabilités fait un pas en avant avec la démonstration de la loi fondamentale de la théorie des probabilités appelée « loi des grands nombres ».

Avant BERNOULLI on a remarqué une particularité des phénomènes aléatoires, la stabilité des fréquences pour un grand nombre d’expériences.

BERNOULLI établit une correspondance entre la probabilité d’occurrence et la fréquence d’apparition pour un événement aléatoire répété un grand nombre de fois.

Une autre étape importante dans le développement de la théorie des probabilités est l’introduction et la démonstration de la loi « Normale » par MOIVRE  (1667-1754). Le groupe de théorèmes donnant un fondement à cette loi pour différentes conditions s’appelle « Théorème central limite ».

LAPLACE  (1749-1827) qui a démontré une des formes du « Théorème central limite » (Théorème de MOIVRE-LAPLACE) a développé de nombreuses applications dont l’analyse des erreurs d’observations et de mesures.

GAUSS   (1777-1855) a développé une méthode de traitement des données expérimentales appelée « Méthode des moindres carrés » qui permet de réaliser le lissage des courbes expérimentales en rendant minimale la somme des carrés des écarts entre les points expérimentaux et la courbe de lissage.

Le XVIIIe siècle et le début du XIXe siècle sont des périodes de développement intense jusqu’au début du XXe siècle.

Méthodes d'étude

[modifier | modifier le wikicode]

Qu’elles sont les méthodes permettant d’étudier les phénomènes aléatoires ?

Il n’y a pas de différence de nature entre les facteurs essentiels et aléatoires influant sur le résultat de l’expérience, de ce fait on pourrait donc théoriquement augmenter la précision sur la connaissance du résultat en prenant en compte un nombre plus important de facteurs, des plus importants aux plus insignifiants.

Malheureusement sur le plan pratique on atteint très vite une limite infranchissable dans la complexité de la solution et donc on doit traiter par des méthodes différentes les facteurs essentiels et ceux dont l’influence sur le résultat se manifeste par des variations aléatoires.

C’est la multitude des évènements aléatoires qui permet l’émergence de lois déterminées. Des lois spécifiques dites Statistiques sont observées chaque fois qu’un nombre important de phénomènes aléatoires est observé.

L’application de méthodes adaptées, dites Probabilistes, permet :

  • de simplifier l’étude d’un effet isolé conditionné par un grand nombre de facteurs
  • de faire des prévisions sur le résultat incertain d’une expérience
  • de contrôler le cours d’un processus à caractère aléatoire
  • etc….

Les méthodes dites Probabilistes peuvent s’appliquer dans des domaines aussi différents que :

  • la météorologie
  • le contrôle de processus
  • l’analyse économique
  • etc …

Notions Fondamentales

[modifier | modifier le wikicode]

Notion d'événement et de probabilité de réalisation

[modifier | modifier le wikicode]

Il y a lieu d’introduire certaines notions de base à partir desquelles nous pourrons développer la théorie des probabilités.

Avant tout il faut définir ce qu’est un événement et sa probabilité de réalisation.

Un événement est le résultat d’une expérience qui peut être :

  • l’apparition de Face lorsqu’on jette une pièce de monnaie
  • l’atteinte d’une cible lors d’un tir
  • le tirage d’un AS dans un jeu de cartes
  • etc …

Pour comparer entre elles les possibilités de réalisation de ces évènements il faut associer à chacun d’eux une valeur numérique, d’autant plus grande que leur possibilité de réalisation est élevée et que nous appellerons :      

PROBABILITÉ de l’événement

La probabilité d’un événement est donc la mesure numérique de sa possibilité de réalisation.

Plus un événement se produit et plus il devient probable ce qui permet d’associer la notion de fréquence à celle de probabilité.

Pour comparer des valeurs numériques entre elles, on doit leur affecter une unité commune ce qui amène à définir deux limites :

  1. L’événement CERTAIN tel qu'un lancé de dé à six faces numérotées 1,2,3,4,5,6 qui ne peut pas amené plus de six points.A cet événement on attribut arbitrairement la probabilité 1
  2. L’événement IMPOSSIBLE avec le même lancé de dé qui ne permet pas d’obtenir un 7.A cet événement on attribut arbitrairement la probabilité 0

La gamme des probabilités pour un événement quelconque incertain mais pas impossible s’établira entre ces deux valeurs limites.

Calcul direct des probabilités

[modifier | modifier le wikicode]

Pour toute une catégorie d’expériences les probabilités de leurs résultats peuvent être calculée directement à partir des conditions de l’expérience.

Pour cela il est nécessaire que les résultats soient SYMÉTRIQUES et ÉQUIPROBABLES.

Par exemple la symétrie d’un dé à 6 faces rend équiprobable l’apparition de 1,2,3,4,5 ou 6.

Si on jette le dé un nombre important de fois, pour un dé équilibré chacune des six faces sortira le même nombre de fois.

La probabilité d’un événement certain étant 1 il est naturel d’attribuer la probabilité 1/6 à l’apparition de chacune des faces du dé.

Ce calcul direct n’est possible que pour des expériences artificielles ce qui limite le domaine d’application pratique de cette méthode.

Pour étudier les évènements liés aux expériences à résultats symétriques et équiprobables il est nécessaire d’introduire les notions suivantes :

  1. Système complet d’évènements - Plusieurs évènements liés à une expérience donnée forment un « Système Complet d’Évènements » si un seul événement est réalisé à la fois dans l’expérience considérée.
  2. Évènements incompatibles - Des évènements sont dits incompatibles dans une expérience donnée si aucun d’entre eux ne peut apparaître simultanément avec un autre. Dans l’exemple de la pièce de monnaie Pile et Face ne peuvent apparaître simultanément.
  3. Évènements équiprobables - Ce sont des évènements ayant les mêmes possibilités de réalisation au cours de l’expérience donnée.

Les évènements possédant les trois propriétés 1, 2 ou 3 forment des CAS et une expérience dont les évènements qui y sont liés sont des cas se réduit à un système de CAS.

Dans ces expériences se réduisant à un système de CAS on peut directement calculer la probabilité de réalisation de chaque évènement en estimant le nombre de CAS favorables parmi tous les CAS possibles.

Un cas est dit « FAVORABLE » à un événement si son apparition entraîne la réalisation de cet événement.

Si on jette un dé, 6 cas sont possibles :

  1. Apparition de 1
  2. Apparition de 2
  3. Apparition de 3
  4. Apparition de 4
  5. Apparition de 5
  6. Apparition de 6

Si l’événement A consiste en l’apparition d’un nombre pair de points, les CAS 2,4 ou 6 sont dits « FAVORABLE » alors que les CAS 1,3 ou 5 sont dits « DÉFAVORABLES ».

La probabilité de l’événement A peut être estimée comme la proportion des CAS dits « FAVORABLES » au nombre total de CAS.

Soit m le nombre de cas favorables et n le nombre de cas total alors la probabilité de l’événement A est P(A)=m/n avec dans notre exemple ci-dessus m=3 et n=6.

Le nombre de cas favorables se trouve toujours compris entre 0 et n et P(A) est toujours ⋝0 et ⋜1.

Voici quelques exemples :

Exemple N°1 : Une urne contient 2 boules blanches et 3 boules noires. On tire 2 boules au hasard. Quelle est la probabilité de tirer une boule blanche ?

Réponse : Soit (A) l’événement correspondant au tirage d’une boule blanche. Le nombre de cas possibles est n=2+3=5 et le nombre de cas favorables à (A) est m=2.

Donc la probabilité de (A) est p(A)=m/n=2/5

Exemple N°2 : Une urne contient (a) boules blanches et (b) boules noires. On tire au hasard 2 boules : quelle est la probabilité de tirer 2 boules blanches ?

Réponse : Soit (B) l’événement consistant à tirer 2 boules :

Le nombre de cas possibles est n=C2a+b

Le nombre de cas favorables est m=C2a

La probabilité de (B) est p(B)=m/n=C2a/C2a+b

Exemple N°3 : dans un lot de (N) pièces, (M) pièces sont défectueuses. On prélève dans ce lot un échantillon de (n) pièces au hasard. Quelle est la probabilité d’y trouver (m) pièces défectueuses ?

Réponse :

  • Le nombre total de cas est CnN
  • Le nombre de cas favorables est CmM.Cn-mN-M

p(A)=CmM.Cn-mN-M/CnN

Combinaisons et Arrangements

[modifier | modifier le wikicode]

Un arrangement est une application d’un ensemble dans un autre ensemble. Soit E et F deux ensembles distincts : on définit une application (g) de E dans F lorsqu’à tout élément x de E on fait correspondre un élément y de F.

Fréquence relative ou probabilité

[modifier | modifier le wikicode]

La formule p(A)=m/n avec (m) le nombre de cas favorables et (n) le nombre total de cas est appelée « probabilité mathématique » de l’événement considéré. Cette formule n’est applicable que si l’expérience pouvant réaliser l’événement se réduit à un « système de cas ».

Toutes les expériences ne peuvent se réduire à un système de cas et avoir des issues symétriques comme pour le lancé d’un dé parfaitement équilibré.

Si par exemple le dé est mal équilibré l’apparition de la face défectueuse possède une certaine probabilité différente de celle des autres faces. Dans ce cas, sur un grand nombre d’expérience (lancé de dé) une certaine fréquence relative d’apparition propre à la face défectueuse va apparaître.

Nous allons maintenant préciser la notion de fréquence ainsi que la relation existant avec la notion de probabilité.

Notion de Fréquence : Soit une série de (n) expériences, chacune pouvant réaliser ou ne pas réaliser un certain événement (A).

On appelle fréquence de (A) dans la série de (n) expériences le rapport du nombre d’expériences ayant réalisé (A) au nombre total (n) d’expériences de la série.

La fréquence est appelée « Probabilité Statistique » de (A) et nous la désignons par P*(A).

Soit P*(A)=m/n avec (m) le nombre d’apparition de l’événement (A) et (n) le nombre total d’expériences.

Lorsque le nombre d’expériences est faible la fréquence d’apparition de l’événement possède un caractère aléatoire et peut changer fortement d’un groupe d’expériences à un autre.

La « stabilité de fréquence » a été l’objet d’une loi formulée pour la première fois par J.BERNOUILLI sous la forme d’un théorème qui porte son nom et qui représente une forme simple de la loi des grands nombres.

J.BERNOUILLI a démontré que pour un grand nombre d’expériences homogènes et indépendantes on peut affirmer avec certitude que la fréquence d’un événement différera aussi peu que l’on veut de sa probabilité dans une expérience isolée.

Le lien existant entre fréquence et probabilité est tel que ces deux notions sont pratiquement inséparables.

Remarque :

L’estimation numérique de l’éventualité d’un événement par la probabilité n’a de sens pratique que parce que les évènements les plus probables se produisent en moyenne plus souvent que les évènements les moins probables.

Évidemment cette hypothèse ne peut être vérifiée que pour des évènements dont les probabilités peuvent être calculées directement, donc des évènements qui se réduisent à un système de cas.

Contrairement à une variable continue qui tend vers une limite, en théorie des probabilités la fréquence converge de manière statistique vers sa probabilité numérique. On parle de « convergence en probabilité » car il est toujours possible que la fréquence s’écarte fortement de manière occasionnelle de sa probabilité numérique.

Méthodes indirectes de calcul des probabilités

[modifier | modifier le wikicode]

Pour trouver la probabilité d’un événement ne se réduisant pas à un système de cas, il n’est pas toujours indispensable de déterminer sa fréquence directement à partir d’expériences.

La théorie des probabilités dispose de nombreuses méthodes permettant de trouver indirectement les probabilités d’un événement en fonction des probabilités d’autres évènements qui lui sont liés.

Ces méthodes indirectes qui sont l’objet de la théorie des probabilités permettent des calculs d’autant plus fiables que les données expérimentales utilisées sont de qualité et en nombre suffisant.

Pour utiliser ces méthodes il faut être sûr que le phénomène aléatoire étudié soit réellement un effet de masse pour lequel, du moins sur un certain intervalle de temps, la fréquence est stable.

Notion de variable aléatoire

[modifier | modifier le wikicode]

Une des notions fondamentales de la théorie des probabilités est celle de « variable aléatoire ».

C’est une grandeur qui peut, dans l’expérience réalisée, prendre l’une quelconque des valeurs possibles et cela de manière totalement aléatoire donc inconnue par avance.

Exemple de variables aléatoires :

  • nombre de coups qui atteint la cible parmi trois coups tirés
  • nombre d’appels journaliers reçus par un central téléphonique
  • etc …

Il y a deux types de variables :

  1. les variables « discrètes » prenant des valeurs pouvant être énumérées et connues par avance
  2. les variables « continues » pouvant prendre n’importe quelle valeur non discriminable dans un intervalle borné

La notion d’événement peut être remplacée par celle de variable aléatoire.

Exemple N°1 de cas où l’on passe d’un événement à une variable aléatoire discrète :

Soit une expérience où un événement (A) peut apparaître ou ne pas apparaître. On peut arbitrairement affecter à une variable aléatoire (X) une valeur

  • 1 si l’événement (A) apparaît
  • 0 si l’événement (A) n’apparaît pas

Cette variable aléatoire (X) est discrète car elle ne peut prendre que deux valeurs 0 ou 1. Elle est appelée Variable INDICATRICE de l’événement (A).

Exemple N°2 de cas où l’on passe d’un événement à une variable aléatoire continue :

Dessin représentant les coordonnées d'un point M dans une région de centre O et de rayon r0

Supposons que l’on mesure les coordonnées d’un objet représenté par le point M dans une région de centre O et de rayon r0. Soit l’événement (A) consistant en ce que l’erreur R dans la position du point M ne soit pas > à une certaine valeur r0.

Désignons par X et Y les erreurs aléatoires de mesure des coordonnées du point M. Cela signifie que l’événement (A) équivaut à ce que le point M se trouve à l’intérieur d’un cercle de centre O et de rayon r0.

Donc pour que l’événement (A) existe, les variables aléatoires X et Y doivent satisfaire à l’inégalité suivante : X2 + Y2 < (r0)2

Le signe < (strictement inférieur) indique que le point M ne doit pas se trouver sur le cercle.

La probabilité de l’événement (A) n’est rien d’autre que la probabilité de vérification de l’inégalité X2 + Y2 < (r0)2.

Le lien existant entre événement et variable aléatoire permet chaque fois que cela est possible de passer d’un système d’évènements à un système de variables aléatoires rendant plus aisée la résolution des problèmes relatifs aux phénomènes aléatoires.

Évènements presque impossible et évènements presque certains. Principe de certitude pratique.

[modifier | modifier le wikicode]

Après avoir introduit la notion d’événement IMPOSSIBLE prenant la valeur 0 et la notion d’évènement CERTAINS prenant la valeur 1 il a fallu pour des raisons pratiques introduire les notions d’événement

  • presque Impossible dont la probabilité est voisine de 0 mais pas nulle
  • presque certains dont la probabilité est voisine de 1 mais pas égale à 1

Les évènements presque IMPOSSIBLE et presque CERTAINS jouent un rôle très important dans la théorie des probabilités ; toutes les applications pratiques sont basées sur ces notions.

Remarque : Si dans une expérience la probabilité d’un événement est voisine de zéro on peut négliger cet événement alors que si elle est voisine de un on peut en prédire l’occurrence sans trop se tromper.

C’est ce qu’on appelle le Principe de Certitude Pratique.

Un des problèmes de la théorie des probabilités est la recherche des évènements presque impossibles et presque certains afin de prédire le résultat de l’expérience.

Un certains nombre de théorèmes appelés Théorèmes Limites permettent d’établir l’existence ou non des évènements presque certains ou presque impossibles.

Théorèmes fondamentaux

[modifier | modifier le wikicode]

La méthode directe de calcul des probabilités utilisée pour un événement appartenant à un système complet ou encore la méthode de calcul approché de la probabilité d’après la fréquence relative pour un événement ne se réduisant pas à un système de cas ne jouent pas un rôle majeur en théorie des probabilités.

Dans les applications pratiques il faut souvent déterminer les probabilités d’évènements difficiles voir impossibles à reproduire.

Par exemple : calculer la probabilité de panne et de destruction d’un aéronef

Dans ce type de cas il faut faire les calculs de probabilité au stade du projet afin de faire les bons choix technologique pour éviter l’accident. C’est pourquoi la plupart du temps on utilisera des méthodes indirectes grâce à l’application des théorèmes fondamentaux de la théorie des probabilités soit :

  • Le théorème d’addition des probabilités
  • Le théorème de multiplication des probabilités

Introduisons les notions de SOMME et de PRODUIT d’évènements en analogie avec les opérations arithmétiques + et X dont elles possèdent un certain nombre de propriétés.

Ces opérations symboliques vont permettre, comme dans d’autres domaines tels que les vecteurs, les matrices, etc …, de simplifier l’écriture et donc d’alléger la structure logique des déductions scientifiques.

On appelle SOMME de deux évènements (A) et (B) et on note (A + B) l’événement (C) tel que soit réalisé :

  • OU l’événement (A)
  • OU l’évènement (B)
  • OU les deux évènements (A) ET (B) simultanément

Si (A) et (B) sont des évènements incompatibles ils ne peuvent se produire simultanément et (A+B) = C ne représente que les deux premiers cas soit :

  • OU l’événement (A)
  • OU l’évènement (B)

Exemple : Si (A) est le tirage d’un cœur et (B) est le tirage d’un carreau alors (C) ne peut être que le tirage d’une couleur (Rouge) ou (Noire).

En résumé on appelle SOMME de deux évènements (A) et (B) l’événement (C) correspondant à la réalisation de l’un des évènements (A) ou (B).

La SOMME de plusieurs évènements est l’événement correspondant à la réalisation au moins d’un des évènements en question.

Exemple : Soit les évènements suivants :

  • (A0) => aucun coup au but
  • (A1) => un coup au but
  • (A2) => deux coups au but
  • (A3) => trois coups au but
  • (A4) => quatre coups au but

Soit (C) = (A0)+(A1)+(A2) signifie que deux coups au plus atteignent la cible

On appelle PRODUIT de deux évènements (A) et (B) et on note (A*B) l’événement (C) consistant en la réalisation simultanée des évènements (A) et (B).

Exemple : Si dans un jeu de cartes l’événement (A) est le tirage d’un AS et (B) est le tirage d’un carreau alors l’événement (C) = (A*B) ne peut être que le tirage d’un AS de carreau.

On appelle PRODUIT de plusieurs évènements l’événement correspondant à la réalisation simultanée de ces mêmes évènements.

Pour faciliter le calcul des probabilités sur des évènements complexes on les représente sous la forme de combinaisons plus simples.

Par exemple : Si trois coups sont tirés sur une cible et que l’on considère les évènements suivants :

o  (A1) le premier coup atteint la cible

o  (/A1) le premier coup n’atteint pas la cible

o  (A2) le deuxième coup atteint la cible

o  (/A2) le deuxième coup n’atteint pas la cible

o  (A3) le troisième coup atteint la cible

o  (/A3) le troisième coup n’atteint pas la cible

alors l’événement (B) = (A1)(/A2)(/A3)+(/A1)(A2)(/A3)+(/A1)(/A2)(A3) correspond à ce qu’un seul coup atteigne la cible.    

Variables aléatoires, Loi de Répartition et Fonction de Répartition

[modifier | modifier le wikicode]

Une variable aléatoire est une grandeur pouvant prendre, lors d'une expérience, une valeur inconnue à l'avance. On distingue deux types de variables :

  1. Les variables DISCONTINUES (encore appelées DISCRÈTES) dont l'ensemble des valeurs possibles est dénombrable comme par exemple le nombre de faces possibles lors du jet d'une pièce de monnaie, en l'occurrence deux faces.
  2. Les variables CONTINUES qui peuvent prendre un ensemble de valeurs, non dénombrable cette fois là, dans un certains intervalle comme par exemple l'abscisse d'un point en mouvement.

Convenons de désigner la variable aléatoire par une MAJUSCULE et les valeurs qu'elle peut prendre par des minuscules.

Concernant les variables DISCONTINUES (encore appelées DISCRÈTES)

Considérons la variable aléatoire (X) dont les valeurs possibles sont : x1, x2, x3, ......., xn, valeurs qu'elle peut prendre avec une certaine probabilité.

Le fait de prendre une de ces valeurs au cours d'une expérience est la réalisation d'un des évènements formant le système complet d'évènements incompatibles suivant :

  • (X) = x1,
  • (X) = x2,
  • (X) = x3,
  • .............,
  • (X) = xn

Désignons par p avec l'indice correspondant les probabilités associées à ces évènements :

  • p(X = x1) = p1 ; (qui se lit : p1 est la probabilité que la variable aléatoire (X) prenne la valeur x1)
  • p(X = x2) = p2 ;
  • p(X = x3) = p3 ;
  • ........................;
  • p(X = xn) = pn

Cet ensemble forme un système COMPLET (un seul évènement est réalisé à chaque expérience) formé d'évènements incompatibles (qui veut dire qu'aucun des évènements ne peuvent apparaître simultanément

és la somme de leurs probabilités, qui ne sont pas obligatoirement identiquesà dire si nous pouvions écrire : p1 = p2 = p3 = ................= pn alors cela voudrait dire que tous les évènements sont équiprobables et formeraient un système de cas.

Caractéristiques numériques des variables aléatoires

[modifier | modifier le wikicode]

Les caractéristiques des variables aléatoires appelées LOIS de RÉPARTITION sont :

pour une variable aléatoire discrète :

  • la fonction de répartition
  • le tableau de répartition

pour une variable aléatoire continue :

  • la fonction de répartition
  • la densité de probabilité

La fonction de répartition est la caractéristiques la plus générale d'une variable aléatoire discrète ou continue. Elle caractérise complètement la variable du point de vue probabiliste.

Pour une variable discrète on appelle loi de répartition d'une variable aléatoire discrète toute relation établissant une correspondance entre les valeurs possibles de cette variable et leurs probabilités. La forme la plus simple en est un tableau qui contient les valeurs possibles que peut prendre la variable aléatoire et les probabilités associée.

Représentée sous forme d'un graphe avec en abscisses les valeurs possibles de la variable et en ordonnées les probabilités de ces valeurs nous obtenons la fonction de répartition d'une variable aléatoire discrète. Elle est toujours discontinue, en escalier, et les transitions sur l'axe des ordonnées se produisent aux points d'abscisses qui sont les valeurs possibles que peut prendre la variable. Les amplitudes de ces sauts sont égales aux probabilités d'occurrence des valeurs possibles et leur somme est égale à l'unité.

Une variable aléatoire continue a une infinité de valeurs possibles dans un certain intervalle et il existe une répartition des probabilités que l'on peut caractériser quantitativement par la probabilité de l'évènement (X < x). La probabilité que la variable aléatoire continue (X) soit (<) a une certaine valeur possible (x) est une fonction de cette valeur et est appelée Fonction de Répartition que l'on peut écrire : F(x) = P (X < x) - la fonction (F) de (x) est égale à la probabilité que la variable aléatoire (X) soit inférieure à la valeur possible (x) -

Densité de probabilité

[modifier | modifier le wikicode]

Espérance mathématique

[modifier | modifier le wikicode]

Notion de variable aléatoire centrée

[modifier | modifier le wikicode]