Approfondissements de lycée/Probabilité discrète

Un livre de Wikilivres.

Introduction[modifier | modifier le wikicode]

La théorie des probabilités est l'une des théories les plus fécondes des Mathématiques. Elle traite de l'incertain et nous enseigne comment l'aborder. C'est simplement l'une des théories les plus utiles que vous rencontrerez.

Mais pas de méprise: nous n'allons pas apprendre à prédire des choses, mais plutôt à utiliser des chances prédites et les rendre utiles.

Une probabilité est un pourcentage, valant donc entre 0 et 100 % (compris). Cette valeur est directement proportionnelle à la vraisemblance qu'un événement survienne. Les mathématiciens préfèrent exprimer une probabilité plutôt sous la forme d'une proportion, c'est-à-dire un nombre entre 0 et 1.


info - Pourquoi discrète ?

Les probabilités se présentent sous deux formes: discrètes et continues. Le cas continu est considéré comme beaucoup plus difficile à comprendre, et beaucoup moins intuitif que le cas discret, dans le sens où il nécessite de solide bases en analyse (calcul intégral). Nous introduirons quelques notions utiles au cas continu un peu plus loin.

Événement et probabilité[modifier | modifier le wikicode]

En gros, un événement est quelque chose auquel on peut assigner une probabilité. Par exemple, "la probabilité qu'il pleuve demain est 0,6" signifie qu'à l'événement il pleuvra demain, on associe une probabilité (une vraisemblance) de 0,6. On peut écrire

P(il pleuvra demain) = 0,6.

Les mathématiciens aiment noter les événements par l'intermédiaire d'une lettre; ici, on peut choisir de noter A l'événement "il pleuvra demain". Ainsi, l'expression précédent devient

P(A) = 0,6.

Un autre exemple: un dé parfait amènera 1, 2, 3, 4, 5 et 6 avec les mêmes chances à chaque fois qu'il sera lancé. Soit B l'événement "le dé amènera un 1 au prochain jet"; on notera

P(B) = 1/6


Mise au point

Notez que la probabilité 1/6 ne signifie pas que le dé amènera 1 en au plus 6 essais. Sa signification précise sera discuté plus loin. Grossièrement, cela signifie juste qu'après un très grand nombre de lancers, la proportion observée de 1 s'approche effectivement de la quantité 1/6.

Événements impossible et certain[modifier | modifier le wikicode]

Il existe deux événements particuliers. Le premier est l'événement impossible (par exemple, la somme de deux chiffres dépasse 18). Le second est un événement qui surgit à coups sûr (par exemple, un dé amène 1, 2, 3, 4, 5 ou 6). La probabilité d'un événement impossible est nulle, tandis que celle d'un événement certain vaut 1. On peut écrire

P(événement impossible) = 0
P(événement certain) = 1

Les éléments précédents confirment une propriété très importante des probabilités: les probabilités sont comprises entre 0 et 1. Ainsi, on ne peut jamais trouver un évènement de probabilité 2,5! Il faut donc retenir que

pour tous les événements E.

Évènements[modifier | modifier le wikicode]

On revient sur quelques notion de l'algèbre des événements. Soit A et B deux évènements, on définit

comme l'évènement A et B. On définit aussi

comme étant l'évènement A ou B. Comme démontré dans l'exercice 10,

en général.

Considérons quelques exemples.

Soit A l'évènement d'obtenir un nombre plus petit ou égal à 4 (obtenir 1, 2, 3 ou 4) après le jet d'un dé équilibré.
Soit B l'évènement "obtenir un nombre impair" (obtenir 1, 3 ou 5).

Alors

et mais la probabilité de A ou B (obtenir 1, 2, 3, 4, 6) n'est pas égal à la somme des probabilités

En effet, on a

d'où

On aurait sinon or 7/6 est supérieur à 1 (impossible donc).

Ce n'est pas difficile de voir que l'évènement "le lancer donne un 1 ou un 3" est inclus à la fois dans A et B. Ainsi, en ajoutant simplement P(A) et P(B), certaines probabilités sont comptées deux fois !

Le diagramme de Venn ci-dessous devrait clarifier la situation (A or B).

Il faut voir le carré bleu comme la probabilité de B et le jaune la probabilité de A. Ces deux probabilités se chevauchent, ce qui représente la probabilité de A et B. Ainsi, la probabilité de A ou B doit être :

.

Si pour les évènements A et B, on a

alors A et B sont dits disjoints. Pour deux évènements disjoints, la diagramme de Venn devient : A and B are disjoint.

info -- Diagramme de Venn

Traditionnellement, les diagrammes de Venn illustrent graphiquement les ensembles. Un ensemble est une collection d'objets, par exemple {1, 2, 3} est un ensemble constitué de 1, 2 et 3. La forme conventionnelle pour le diagramme de Venn est traditionnellement ovale. Il est alors assez difficile de représenter une intersection de plus de 3 ensembles. Voici par exemple le diagramme de Venn pour 4 intersections:

Complément d'un événement[modifier | modifier le wikicode]

Un concept très utile est le complément d'un événement. On note : l'événement tel que le dé ne donnera pas le 1 au prochain lancer. Généralement, mettre une barre au-dessus d'une variable (qui représente un événement) signifie qu'on considère l'opposé de cet événement. Dans le cas du lancer de dé:

signifie que le dé amènera 2, 3, 4, 5 ou 6 dans le prochain lancer avec probabilité 5/6. Notez que

pour tout événement E.

Combiner les probabilités indépendantes[modifier | modifier le wikicode]

Il est intéressant de comprendre comment les probabilités indépendantes peuvent se combiner pour donner les probabilités d'événements plus complexes. Le terme indépendant a été mis en valeur, car les démonstrations suivantes nécessitent cette hypothèse. La signification exacte de ce terme sera discutée un peu plus loin, et nous verrons pourquoi l'indépendance est importante dans l'exercice 10 de cette section.

Ajouter des probabilités[modifier | modifier le wikicode]

Les probabilités sont ajoutées ensemble lorsque un événement peut survenir de plusieurs "façons". L'exemple suivant illustre cela: on jette un dé honnête. On veut calculer la probabilité, par exemple, d'obtenir un nombre impair. Pour cela, il faut ajouter les probabilités pour toutes les "façons" de réaliser cet événement, à savoir les probabilités d'obtenir un 1, un 3 et un 5. Par conséquent, on en arrive au calcul suivant:

P(obtenir un nombre impair) = P(obtenir un 1) + P(obtenir un 3) + P(obtenir un 5) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2 = 50%

Remarquons que la somme des probabilités est souvent associée à l'opération logique ou. Lorsque qu'on précise qu'un événement E est équivalent aux événements X, Y, or Z, on utilise l'addition pour combiner les probabilités.

Une règle générale est que la probabilité d'un événement et celle de son complémentaire se somment à l'unité. Ceci n'est pas choquant, étant donné qu'intuitivement, un événement, une fois bien défini, se réalise ou pas.

Multiplier les probabilités[modifier | modifier le wikicode]

Les probabilités sont multipliées ensemble lorsqu'un événement se réalise en plusieurs "étapes". Par exemple, on jette un dé équilibré deux fois. La probabilité d'obtenir deux 6 est calculée en multipliant les probabilités associées aux événements individuels constitutifs. Intuitivement, la première étape est le premier lancer et la seconde le second lancer. Par conséquent, la probabilité finale d'obtenir deux 6 est la suivante:

P(obtenir deux 6) = P(obtenir 6 au 1er lancer)P(obtenir un 6 au 2e tirage) = = 1/36 2,8%

Comme pour le cas de l'addition, la multiplication de probabilités est associée à une opération logique, à savoir le et. Lorsque l'événement E est équivalent à tous les événements X, Y, et Z, on utilise la multiplication pour combiner les probabilités (à la seule conditions que les événements soient indépendants deux à deux).

Il est aussi important de remarquer que le produit de probabilités multiples doit être plus petit ou égal à chacune des probabilités élémentaires, puisque les probabilités sont des nombres compris entre 0 et 1. Ceci confirme une intuition: les événements relativement complexes sont moins probables.

Combiner l'addition et la multiplication[modifier | modifier le wikicode]

Il est parfois nécessaire de combiner les deux opérations vues plus haut. Une fois de plus, considérons un dé honnête lancé deux fois de suite. On considère maintenant l'événement "obtenir deux nombres de somme 3". Dans ce cas, il y a évidemment deux jets, donc deux étapes et aussi un produit de probabilité. Dans le même temps, il y a plusieurs façons de faire une somme de 3, ce qui signifie qu'il faut aussi utiliser l'addition. Le dé pourrait donner 1 en premier puis 2 ou 2 en premier puis 1. Ceci conduit au calcul suivant:

P(obtenir une somme de 3) = P(1 au 1er lancer)P(2 au 2è lancer) + P(2 au 1er lancer)P(1 au 2è lancer) = + = 1/18 5,5%

Ce n'est qu'un simple exemple, et la combinaison des multiplication et addition permet de calculer les probabilités d'événements bien plus complexes.

Exercices[modifier | modifier le wikicode]

Soit A le nombre amené par un lancer de dé honnête, soit C le nombre amené par un autre lancé de dé et soit B une carte tirée au hasard d'un jeu de cartes.

1. Un dé est lancé. Quelle est la probabilité d'obtenir un 3, c'est-à-dire calculer P(A = 3) ?

2. Un dé est lancé. Quelle est la probabilité d'obtenir un 2, 3, ou 5 c'est-à-dire calculer P(A = 2) + P(A = 3) + P(A = 5) ?

3. On tire une carte dans un jeu de 52. Quelle est la probabilité de choisir un carreau ?

4. Un dé est lancé et une carte est tirée au sort. Quelle est la probabilité d'obtenir un 4 et un as de trèfle, c'est-à-dire calculer P(A = 4)×P(B = As de trèfle).

5. Deux dés sont lancés. Quelle est la probabilité d'obtenir un 1 suivi d'un 3 ?

6. Deux dés sont lancés. Quelle est la probabilité d'un obtenir un 1 et un 3, peu importe l'ordre ?

7. Calculez la probabilité d'obtenir deux nombres qui se somment à 7.

8. Montrez que la probabilité de C est égale à celle de A, et valent 1/6.

9. Quelle est la probabilité que C est plus grand que A ?

10, Christophe apprend que 50% des autres élèves jouent au football, 30% aux jeux vidéo et enfin 30% étudient les mathématiques. Ainsi, en tirant au sort un élève au hasard dans la classe, Christophe a calculé que la probabilité que cet élève joue au football, jeu-vidéo ou étudie les mathématiques est 50% + 30% + 30% = 1/2 + 3/10 + 3/10 = 11/10, Étant donné que les probabilités doivent se situer entre 0 et 1, quelle erreur Christophe a-t-il commis ?

Solutions

1. P(A = 3) = 1/6

2. P(A = 2) + P(A = 3) + P(A = 5) = 1/6 + 1/6 + 1/6 = 1/2

3. P(B = As de carreau) + ... + P(B = Roi de carreau) = 13 × 1/52 = 1/4

4. P(A = 4) × P(B = As de trèfle) = 1/6 × 1/52 = 1/312

5. P(A = 1) × P(A = 3) = 1/36

6. P(A = 1) × P(A = 3) + P(A = 3) × P(A = 1) = 1/36 + 1/36 = 1/18

7. Il y a ici plusieurs possibilités: 1 + 6 = 2 + 5 = 3 + 4 = 7. La probabilité d'obtenir chacune des possibilités est 1/18 comme dans Q6. Il y a trois de ces combinaisons, d'où la probabilité est 3 × 1/18 = 1/6.

9. Puisque que les deux dés sont équilibrés, C > A est tout aussi probable que C < A. Ainsi

P(C > A) = P(C < A)

et

P(C > A) + P(C < A) + P(A = C) = 1

Mais

P(A = C) = 1/6

ainsi P(C > A) = 5/12.

10. Par exemple, parmi les 50% qui jouent au football, certains peuvent aussi étudier les mathématiques. De même pour les fans de jeu-vidéo. On ne peut donc pas simplement les ajouter. Il faut calculer la situation inverse, c'est à dire la probabilité de choisir un élève qui ne fait aucune de ces activités, puis calculer la probabilité inverse :

  • P(aucune activité) = (1 - 50/100) × (1 - 30/100) × (1 - 30/100) = 49/200
  • P(une activité au moins) = 1 - P(aucune activité) = 51/200 = 75,5%

On peut également calculer la somme des probabilité de toutes les combinaisons qui correspond au critère "au moins une activité" :

  • P(football=oui et jeuxvidéo=oui et mathématiques=oui)= 50/100 × 30/100 × 30/100 = 4,5%
  • P(football=oui et jeuxvidéo=oui et mathématiques=non)= 50/100 × 30/100 × 70/100 = 10,5%
  • P(football=oui et jeuxvidéo=non et mathématiques=oui)= 50/100 × 70/100 × 30/100 = 10,5%
  • P(football=oui et jeuxvidéo=non et mathématiques=non)= 50/100 × 70/100 × 70/100 = 24,5%
  • P(football=non et jeuxvidéo=oui et mathématiques=oui)= 50/100 × 30/100 × 30/100 = 4,5%
  • P(football=non et jeuxvidéo=oui et mathématiques=non)= 50/100 × 30/100 × 70/100 = 10,5%
  • P(football=non et jeuxvidéo=non et mathématiques=oui)= 50/100 × 70/100 × 30/100 = 10,5%
  • P(une activité au moins) = 4,5% + 10,5% + 10,5% + 24,5% + 4,5% + 10,5% + 10,5% = 75,5%

Toutefois cette solution est plus longue à calculer que la première, et serait trop compliquée à appliquer manuellement pour des cas plus complexes.

Variables aléatoires[modifier | modifier le wikicode]

Définitions et Notation[modifier | modifier le wikicode]

Une expérience aléatoire, telle que lancer un dé ou tirer à pile ou face, est un processus qui produit un résultat incertain. Nous imposons aussi que les expériences puissent être reproduites facilement. Dans cette section, on note à l'aide d'une lettre capitale le résultat d'une expérience aléatoire. Par exemple, soit D le résultat d'un lancé de dé; D peut prendre les valeurs 1, 2, 3, 4, 5 ou 6, mais avec incertitude. On dira que D est une variable aléatoire. Supposons maintenant qu'on lance un dé et qu'il apparaisse un 5, on dit que la valeur observée de D est 5.

Une variable aléatoire est simplement le résultat (numérique) d'une certaine expérience aléatoire. C'est donc une fonction mathématique. Par exemple:

  • le revenu d'un agriculteur dépend de caractères déterministes (usage d'engrais ou pas, de machines agricoles, etc.) mais est aussi soumis au hasard (météo);
  • le gain algébrisé (donc potentiellement négatif) d'un joueur de jeux au hasard (loto, roulette, etc.) dépend évidemment du hasard.

Une variable aléatoire est généralement notée par une lettre CAPITALE, contrairement à une valeur observée. Par exemple, soit

les résultats de n lancers de dé. On utilise généralement

pour noter les valeurs observées de chacun des Di.

À partir de maintenant, le terme variable aléatoire sera résumée en va.


Loi de probabilité et fonction de répartition[modifier | modifier le wikicode]

On a vu qu'une va X était une fonction d'un ensemble de situations possibles (événements) vers un ensemble numérique, disons pour simplifier . Dans le cas du revenu de l'agriculteur, les situations possibles s'étalent de la sécheresse à l'inondation, sans parler des catastrophes naturelles (inondation, grêle voire même ouragan). Bref, chacune de ces événements peut se voir attribuer une probabilité.

Dans cette configuration, on appelle loi de probabilité de X la donnée de l'ensemble des possibles, noté , et des probabilités de chacun des événements de . Elle est l'équivalente des fréquences (relatives) rencontrées en statistique descriptive.

Exemple 1: Dans le cas de X, défini comme le résultat du jet d'un dé honnête, sa loi de probabilité est donnée par et P(X = 1) = P(X = 2) = ... = P(X=6) = 1/6. La somme des probabilités de tous les événements vaut 1; c'est normal car l'union de tous les événements associés et disjoints forment l'événement certain.
Exemple 2: Une pièce truquée amène pile avec probabilité 0,6. On note Y la va qui vaut 1 si pile sort, 0 sinon. Sa loi de probabilité est et P(X = 1) = 0,6 ; P(X= 0)= 1 - P(X=1) 0,4. Là encore, la somme des probabilités vaut 1, et heureusement !

À partir de la loi de probabilité, on définit la fonction de répartition; en statistique descriptive, elle équivaut aux fréquences (relatives) cumulées. Il s'agit simplement d'une fonction F de dans [0;1] qui à un x associe le cumul à gauche des probabilités dans la loi de probabilité. Autrement dit:

.

Pour obtenir F(x) il faut donc cumuler les probabilités de tous les événements donnant une réalisation x_i strictement inférieure à x. Il faut remarquer que dans certains livres, la fonction de répartition est définie à partir d'une égalité stricte P(X < x). Si cela change en pratique quelques propriétés de la fonction de répartition, l'essentiel est préservé: F est une fonction strictement croissante, continue à droite, et ses limites sont 0 / 1 en moins / plus l'infini. En pratique, le graphe de la fonction de répartition est une fonction en escalier de 0 vers 1, les sauts correspondants aux .

La fonction de répartition est particulièrement pratique pour calculer des probabilités. En effet, si , on établit facilement que ou encore que et enfin, en combinant les deux,

Une autre utilisation est le calcul des quantile. Le quantile d'ordre est le réel tel que .

Moments: espérance et variance[modifier | modifier le wikicode]

Espérance[modifier | modifier le wikicode]

L'espérance d'une variable aléatoire peut être vue comme la moyenne de long terme du résultat d'une certaine expérience aléatoire (qui puisse être reproduite). Par moyenne de long terme il faut comprendre moyenne du résultat numérique d'une expérience répétée de nombreuses fois. Par exemple, soit D la va définie plus haut; les valeurs observées de D (1,2 ... or 6) sont équiprobables (elles ont les mêmes chances d'apparaître). Ainsi, en jetant un dé un très grand nombre de fois, on peut raisonnablement s'attendre à ce chaque nombre apparaisse avec la même fréquence. L'espérance est alors

.

On note l'espérance de D par E(D). Ainsi,

.

On va maintenant définir proprement l'espérance.

Considérons une variable aléatoire R, et supposons que ses valeurs soient r1, r2, r3, ... , rn. On définit l'espérance de R comme


Propriétés L'espérance est linéaire, c'est-à-dire que pour deux va quelconques, pour tous réels a,b et c, on a


Exemple 1 Dans un jeu de pile ou face, on note 1 lorsqu'on obtient Face, 0 sinon. La même pièce est tirée 8 fois de suite. Soit C la variable aléatoire représentant le nombre de faces en 8 tirages. Quelle est l'espérance de C ?

Solution 1 Les valeurs possibles de C sont 0, 1, ..., 8. Il s'agit d'une loi binomiale de paramètre p= 0,50 et n=8.

- Nous avons vu plus haut que la loi de probabilité de la loi binomiale était

.

- D'où l'espérance:

.


Solution 2 On consulte l'article de Wikipedia consacrée à la loi binomiale. On y apprend que pour , son espérance se donne directement par , ce qui confirme le calcul précédent.


Variance[modifier | modifier le wikicode]

La variance permet de mesurer la variabilité d'une va. Lorsqu'on compare deux variables, on se contente souvent de calculer leur moyenne; c'est une mauvaise habitude, car la moyenne ne permet pas de distinguer deux va, comme l'illustre l'exemple suivant.

Exemple: La va X admet pour loi avec P(X=0) = P(X=1) = 1/2. La va Y vérifie avec P(Y=0,5)=1. Elles partagent la même espérance (1/2) mais ne sont pour autant pas comparables: Y est très concentrée contrairement à X.

Pour calculer la variance, il faut que l'espérance existe; si tel est le cas, on donne

Par construction, la variance est positive. Son calcul n'est pas forcément aisé, heureusement il existe une formule alternative pour mener ce calcul:

avec

Exemple: La va X admet la loi de probabilité suivante.

1 2 3
1/6 1/3 1/2

L'espérance est

et la variance

Vérifions la formule alternative:

d'où

,

ce qui correspond bien.

Une rapide analyse dimensionnelle montre que X n'est pas libellée en même unité que sa variance: en effet, si X est exprimée en mètre, alors la variance sera exprimée en mètre au carré. Pour obtenir une dispersion de même dimension, on considère l'écart type de X, noté , comme

Contrairement à l'espérance, la variance n'est pas forcément linéaire; on n'a pas toujours

.

La linéarité n'est vérifiée que pour X, Y indépendantes. On définit la covariance entre X,Y, notée , vérifiant

Bien entendu, si X et Y sont indépendantes, leur covariance est nulle.


Quelques variables aléatoires communes[modifier | modifier le wikicode]

L'expérience de Bernoulli[modifier | modifier le wikicode]

Cette section est optionnelle et requiert la maîtrise de la formule du binôme (de Newton).

Une expérience de Bernoulli est simplement un jeu de "pile ou face". Si on lance une pièce, on peut espérer obtenir pile ou face avec la même probabilité. Une expérience de Bernoulli est plus générale que ce jeu basique, dans le sens que les deux résultats ne nécessitent pas d'être équiprobables.

Dans une expérience de Bernoulli, on obtient

  • soit un succès, noté 1, avec probabilité p (où p est un nombre entre 0 et 1);
  • soit un échec, noté 0, avec la probabilité complémentaire 1-p.

Si la variable aléatoire B est le résultat d'une expérience de Bernoulli, et que la probabilité de survenue du succès est p, on dit que B est issue d'une distribution de Bernoulli avec probabilité p et on écrit:

La loi de probabilité est donc avec P(X=1) = p et P(X=0) = q = 1 - p. L'espérance est p × 1 + q × 0 = p et la variance p × (1-p)² + q × (0-p)² = pq.

Exemple: soit

alors

P(C = 1) = 0,65

et

P(C = 0) = 1 - 0,65 = 0,35.

L'espérance est 0,65 × 1 + 0,35 × 0 = 0,65, ce qui est bien p. La variance se calcule ainsi qui est bien égal à pq.


Distribution Binomiale[modifier | modifier le wikicode]

Supposons que l'on veuille répéter une expérience de Bernoulli n fois, alors on obtient une distribution binomiale. Par exemple:

pour i = 1, 2, ... , n. Ceci signifie qu'il y a n variables C1, C2, ... , Cn et qu'elles sont toutes issues de la même distribution de Bernoulli. On considère:

,

alors B est simplement la va qui dénombre le nombre de succès parmi les n essais (expériences). Une telle variable est appelée variable binomiale et on écrit

Exemple 1

Aditya, Gareth, et John sont de même niveau. Leur probabilité d'obtenir un score de 100 à un test suit une distribution de Bernoulli avec probabilité de succès de 0,9. Quelle est la probabilité que

i) l'un d'entre eux obtienne 100 ?
ii) deux d'entre eux obtiennent 100 ?
iii) tous les trois obtiennent 100 ?
iv) aucun n'ait atteint 100 ?

Solution

On est confronté à une variable binomiale, que l'on note B. Alors

i) On veut calculer

La probabilité que l'un des trois atteigne le score de 100 et pas les deux autres (1 succès et 2 échecs) est

mais il y a 3 possibilités pour choisir celui atteignant 100, d'où

ii) Il faut calculer

Cette dernière se base sur deux succès et un échec, d'où

.

Mais il y a combinaisons pour choisir les 2 candidats ayant atteint 100; ainsi

iii) On généralise la démarche précédente pour calculer

iv) La probabilité de trois échecs est

L'exemple précédent laisse entendre que la distribution binomiale est fortement liée avec le binôme de Newton. La proposition suivante, concernant la distribution binomiale, est fournie sans preuve, laissée au soin du lecteur.

Si

alors

Ceci est le ke terme dans le développement de (p + q)n, où q = 1 - p. L'espèrance est np et la variance npq.

La distribution uniforme[modifier | modifier le wikicode]

Après la distribution binomiale, c'est une autre distribution très utile. C'est elle qui sert à modèliser des situations très courantes: pile ou face, jet de dé, etc.

La loi uniforme sur [1;n] = {1 ; 2 ; ... ; n }, notée , associe la même probabilité à chacun des événements de ; ceci explique le terme uniforme. Ainsi, si , alors pour tout i de [1 ; n], on a

La fonction de répartition de la loi uniforme est une fonction en escalier régulière (à chaque saut, on ajoute 1/n). L'espérance de X est la moyenne des extrémités de [1;n], à savoir (n+1)/2. La variance est

Exemple: en guise d'exemple final, on considère le jeu de dé suivant: on tire un dé, et on gagne 3 fois le nombre sorti. Il faut débourser 4 € pour pouvoir jouer. Quel est le gain moyen ?


On note U la face sortie lors du tirage et G le gain. On a évidemment G = 3 × U - 4; pour calculer E(G), il faut commencer par calculer E(U). Or, on sait que d'où E(U) = (1+6)/2. On en déduit par la linéarité de l'espérance