Python pour le calcul scientifique/Statistiques

Un livre de Wikilivres.
Sauter à la navigation Sauter à la recherche

Le module NumPy fournit des fonctions statistiques.

Rappelons que dorénavant les programmes commencent tous par :

import numpy as np
import matplotlib.pyplot as plt

Méthodes de matrices[modifier | modifier le wikicode]

Rappel : la classe des matrices (ndarray) dispose de méthodes permettant de calculer des statistiques sur les éléments des matrices :

  • .min() : minimum des valeurs ;
  • .max() : maximum des valeurs ;
  • .ptp() : écart amplitude « max – min » (peak to peak) ;
  • .mean() : moyenne ;
  • .std() : écart type (standard deviation).

Statistiques descriptives[modifier | modifier le wikicode]

NumPy fournit la fonction np.quantile() qui détermine les quantiles avec la syntaxe :

np.quantile(M, q)

M est une matrice (ou une liste, un n-uplet, bref un itérable de nombres) et q est un quantile ou un vecteur de quantiles sous la forme d'un nombre entre 0 et 1. Par exemple, pour avoir les quartiles :

np.quantile(M, [0, 0.25, 0.5, 0.75, 1])

Si un des éléments de la matrice est un NaN, le résultat est un NaN. Pour éviter cela, on peut utiliser la fonction np.nanquantile() qui ignore les NaN.

Les fonctions np.percentile() et np.nanpercentile() donnent les centiles ; on indique alors le centile que l'on veut sous la forme d'un nombre entier entre 0 et 100.

Nous disposons également des fonctions suivantes :

  • np.amin(), np.nanmin() : minimum ;
  • np.amax(), np.nanmax() : maximum ;
  • np.ptp() : amplitude.

Notons que pour toutes les fonctions, il est possible d'indiquer l'axe selon lequel on effectue le calcul. Par exemple,

M = np.arange(9).reshape(3, 3)
# [[0, 1, 2]
#  [3, 4, 5]
#  [6, 7, 8]]
print(np.quantile(M, [0.25, 0.5], 0))
# [[1.5 2.5 3.5]  : 1er quartile des colonnes
#  [3.  4.  5. ]] : médiane des colonnes
print(np.quantile(M, [0.25, 0.5], 1))
# [[0.5 3.5 6.5]  : 1er quartile des lignes
#  [1.  4.  7. ]] : médiane des lignes

Indicateurs de position et de dispersion[modifier | modifier le wikicode]

NumPy fournit les indicateurs de tendance centrale suivants :

  • np.mean() et np.nanmean() : moyenne ;
  • np.average() et np.nanaverage() : moyenne pondérée ; la syntaxe est np.average(M, axe, poids) ou bien np.average(M, weights = poids) (voir ci-après) ;
  • np.median() et np.nanmedian() : médiane.

En terme de performances, la fonction np.mean() est équivalente à la méthode M.mean() et à la fonction np.average() sans poids (ce qui équivaut donc à la moyenne). En revanche, la fonction np.nanmean() est plus lente, de même que la fonction np.average() lorsque l'on utilise des poids (même s'ils sont tous égaux à 1).

Comme précédemment, on peut indiquer l'axe (si l'on veut évaluer les valeurs par colonne ou par ligne). Pour la moyenne pondérée, on utilise une matrice poids P de même dimension que la matrice de valeurs M, P[i, j] étant le poids associé à la valeur M[i, j]. Par exemple, si l'on veut évaluer la moyenne pondérée pour toutes les valeurs de M (pas d'axe), on peut écrire une des deux solutions suivantes :

np.average(M, None, P) # l'axe est le 2e paramètre
np.average(M, weights = P)

NumPy fournit également les indicateurs de dispersion suivants :

  • np.std(), np.nanstd() : écart type (standard deviation) ;
  • np.var(), np.np.nanvar() : variance.

Fréquence, histogramme[modifier | modifier le wikicode]

On peut générer une matrice aléatoire avec les fonctions np.random.rand(), qui utilise une loi uniforme sur [0 ; 1], et np.random.randn() qui utilise une loi normale centrée réduite.

Lorsque l'on dispose d'une série de données aléatoires, qu'elles aient été mesurées ou bien générées par une fonction aléatoire, on peut ensuite les mettre dans des classes (bins). Les classes sont définies par un vecteur (ou une liste, un n-uplet) [c1, c2,c3, …, cn]. La classe 0 désigne les valeurs inférieures à c1 ; la classe 1 désigne les valeurs c1x < c2 ; la classe n (n == len(classes)) désigne les valeurs supérieures à cn.

La fonction np.digitize() indique dans quelle classe se trouve un nombre. Si on lui donne une matrice (ou un vecteur, une liste, un n-uplet), il renvoie une matrice de même dimension, np.digitize(M, classes)[i, j] étant la classe de l'élément M[i, j]. Par exemple :

M = np.random.rand(10)

classes = (0, 0.2, 0.4, 0.6, 0.8, 1)

print(M)
print(np.digitize(M, classes))

On peut changer la « largeur » des inégalités avec le paramètre right = True : right, « droite », est vrai (true) lorsque l'inégalité large est à droite, la classe i désigne les valeurs ci < xci + 1. La syntaxe est alors np.digitize(M, classes, True) ou bien np.digitize(M, classes, right = True). Le sens de l'inégalité ne dépend pas du sens du vecteur de classes ; ainsi, right désigne la valeur supérieure de l'intervalle même si le vecteur de classes est classé par ordre décroissant.

Histogramme tracé avec Python/Numpy/Matplotlib.

La fonction np.histogram() détermine n classes de même taille et renvoie deux vecteurs : le premier contient le nombre d'éléments dans chaque classe et le second décrit les classes (c'est-à-dire les bornes des classes).

Pour tracer l'histogramme, nous disposons de la fonction plt.hist() :

M = np.random.randn(50)
plt.plot(M, np.ones_like(M), "|")
plt.hist(M, bins=10, density=1)

La fonction np.bincount() travaille sur les listes de nombre entiers. Elle renvoie un n-uplet, np.bincount(M)[i] est le nombre de fois que le nombre i revient dans la matrice M — rappel, le premier élément du n-uplet np.bincount(M) a l'indice 0 donc correspond au nombre de fois que le nombre 0 apparaît dans la matrice M.

Lois de probabilités[modifier | modifier le wikicode]

Le module scipy.stats fournit un grand nombre de lois de probabilités. Ces lois sont des objets ayant toutes les mêmes méthodes. Par exemple, on dispose des lois suivantes :

  • lois dicrètes :
    • bernoulli : loi de Bernoulli,
    • scipy.stats.binom : loi binomiale,
    • scipy.stats.poisson : loi de Poisson,
    • scipy.stats.randint : loi discrète uniforme ;
  • loi continues :
    • scipy.stats.chi2 : loi du χ2 (khi carré),
    • scipy.stats.norm : loi normale,
    • scipy.stats.t : loi de Student,
    • scipy.stats.uniform : loi continue uniforme ;

et des méthodes suivantes :

  • .mean() : calcule la moyenne, l'espérance de la loi ;
  • .median() : calcule la médiane de la loi ;
  • .var() : calcule la variance de la loi ;
  • .std() : calcule l'écart type (standard deviation) de la loi ;
  • .moment() : calcule les moments de la loi ;
  • .rvs() : effectue des tirages aléatoires (random variables) ;
  • .pdf() : fonction densité de probabilité (probability density function) pour les lois continues ;
  • .mdf() : fonction de masse (mass density function) pour les lois discrètes ;
  • .cdf() : fonction de répartition (cumulative density function) ;
  • .ppf() : fonction quantile (percent-point function) ;
  • .fit() : calcule les paramètres de la loi correspondant au mieux à un échantillon, au sens du maximum de vraisemblance ; uniquement pour les lois continues.

Par exemple

from scipy import stats

# moments mvsk : mean (moyenne), variance, skewness (asymétrie), kurtosis
moy, var, asy, kurt = stats.norm.stats(moments="mvsk")
print(moy, var, asy, kurt)
# 0.0 1.0 0.0 0.0

print(stats.norm.pdf(1), ";", stats.norm.cdf(0.5), ";", stats.norm.ppf(0.99))
# 0.24197072451914337 ; 0.6914624612740131 ; 2.3263478740408408

x = np.linspace(-6, 6, 100)
y1 = stats.norm.pdf(x)
y2 = stats.norm.cdf(x)

plt.plot(x, y1, label="densité")
plt.plot(x, y2, label="répartition")
plt.legend()

Par défaut, les lois continues sont centrées réduites (de moyenne nulle et d'écart type unité). Les objets disposent des paramètres loc (location, position) et scale (échelle) ; par exemple pour un tirage aléatoire de 100 échantillons avec une loi normale de moyenne 10 et d'écart type 5 :

stats.norm.rvs(100, loc=5, scale=10)

Il est possible de fixer ces paramètres pour une loi, de la « geler », par exemple :

from scipy import stats

varAl = stats.norm(loc=5, scale=10) # loi "gelée"
n = 100
x = varAl.rvs(n)
plt.plot(x, np.ones_like(x), "|")
plt.hist(x)
print(varAl.mean(), varAl.std())

ou encore

from scipy import stats

n = 100
varAl = stats.poisson(mu=50)
x = varAl.rvs(size=n)
plt.plot(x, np.ones_like(x), "|")
plt.hist(x)
print(varAl.mean(), varAl.std())

res = stats.norm.fit(x)
print(res)
Diagramme quantile-quantile avec Python Scipy et Matplotlib.

L'exemple suivant consiste à vérifier qu'un échantillon suit bien une loi normale centrée réduite en traçant sa droite de Henry :

import numpy as np
from scipy import stats
import matplotlib.pyplot as plt

X = stats.norm.rvs(size=100)

p = np.arange(0.1, 1, 0.1)

qexp = np.quantile(X, p)
qth = stats.norm.ppf(p)
extr = stats.norm.ppf([0.1, 0.9])

plt.plot(extr, extr, "--r")
plt.plot(qth, qexp, "*")
plt.title("diagramme quantiles-quantiles")
plt.xlabel("quantiles théoriques")
plt.ylabel("quantiles expérimentaux")

plt.savefig("diagramme_qq_python_matplotlib.svg")

Pour les lois discrète, il est nécessaire d'indiquer leurs paramètres. Par exemple :

  • pour la loi de Bernoulli, la probabilité p : stats.bernoulli(p) ;
  • pour la loi binomiale, les facteurs de forme n et p : stats.binom(n, p) ;
  • pour la loi de Poisson : le paramètre μ (mu) : stats.poisson(mu) ; l est également possible de décaler la loi, stats.poisson(mu, loc) ;
  • pour la loi discrète uniforme, les valeurs minimales et maximales : stats.randint(low, high).

Ressources[modifier | modifier le wikicode]

Notes et références[modifier | modifier le wikicode]


Polynômes < > Interpolation, extrapolation et lissage