Les suites et séries/La convergence d'une série

Un livre de Wikilivres.
Aller à : navigation, rechercher

Les sommes partielles, vues au chapitre précédent, se limitent à faire la somme des premiers termes d'une suite. Pour les suites finies, cela ne change pas grand chose : le résultat sera naturellement fini, quoiqu'il arrive, même si la suite est elle-même très longue. Mais avec les suites infinies, on peut pousser le concept de somme partielle à son paroxysme : on peu faire la somme de tous les termes de la suite, sans exception. La somme ainsi obtenue n'est pas une somme partielle, vu qu'elle additionne une quantité infinie de termes. A la place, on lui donne le nom de série. Cette définition de série est quelque peu imprécise, la définition formelle est la suivante : une série est la limite de la somme partielle quand le rang n tend vers l’infini : .

On pourrait croire que ces séries donnent toutes un résultat infini, sauf dans quelques exceptions triviales (suite dont tous les termes sont nuls) : additionner une infinité de termes non-nuls doit naturellement donner un résultat infini, nous dit l'intuition. Mais l’intuition se trompe : certaines séries ont un résultat fini. Par exemple, Euler a montré que la base des logarithmes népériens est le résultat de la série associée à la suite des inverses des factorielles :

Les mathématiciens distinguent donc les séries dont le résultats est infini, appelées séries divergentes, des autres au résultat fini qui portent le nom de séries convergentes.

La convergence absolue et conditionnelle[modifier | modifier le wikicode]

Diverses subtilités se font jour avec les séries, subtilités qui n'existaient pas avec les suites "normales". La raison est que l'addition d'un nombre infini de termes peut jouer des tours lors des calculs. L'addition d'une infinité de termes est en effet quelque peu différente de l'addition usuelle : elle n'est pas forcément associative, distributive et commutative. Ce qui pose problème lors de l'addition d'une suite infinie de terme.

Pour donner un petit exemple de problèmes qui peuvent survenir avec certaines séries, prenons la suite suivante :

Si l'on souhaite en calculer la série, on peut remarquer qu'il y a plusieurs manières de faire l'addition des termes. Les voici :

Comme on le voit, l'ordre dans lequel on effectue les calculs change le résultat de la série : l'addition n'est donc pas associative, distributive et commutative quand on additionne une infinité de termes. La série converge donc vers deux limites différentes selon la situation et on peut même réussir à la faire diverger si l'on s'y prend assez bien.

Heureusement, certaines suites ne sont pas concernées par ce genre de problèmes. Toutes les séries qui ne contiennent que des nombres positifs ou nuls sont des séries absolument convergentes. Même chose pour les séries qui ne contiennent que des nombres négatifs ou nuls, qui convergent toujours vers une seule limite ou divergent toujours. Pour qu'une série puisse diverger ou converger vers plusieurs limites, il faut impérativement que la suite contienne des nombres négatifs et positifs. Et encore, cela ne suffit pas pour que le phénomène apparaisse. On doit donc distinguer les séries qui convergent toujours de celles qui convergent seulement si les calculs sont fait dans un certain ordre.

Les séries qui sont épargnées par les phénomènes vus plus haut sont appelées les séries absolument convergentes. Elles convergent vers une seule limite finie, qui est toujours la même, peu importe l'ordre dans lequel on fait les calculs. Les séries qui convergent ou divergent selon l'ordre des calculs sont appelées des séries semi-convergentes ou encore séries conditionnellement convergentes. Enfin, il existe certaines séries qui divergent, peu importe l'ordre des calculs, qui sont naturellement appelées séries absolument divergentes.

Déterminer si une série est absolument convergente[modifier | modifier le wikicode]

Les séries absolument convergentes respectent toutes la propriété suivante : si on remplace tous les nombres négatifs de la suite par leur valeur absolue, la série doit converger. En clair :

  • Une série converge si converge.

On peut comprendre l'intuition derrière ce résultat avec un raisonnement heuristique assez simple. Prenons une suite , qui contient à la fois des termes positifs et des termes négatifs. Nous allons la décomposer en deux sous-suites, une suite qui contient uniquement les termes positifs et une autre avec les termes négatifs. Nous les noterons respectivement et . La série vaut donc :

Si la série converge absoluement, les deux sous-séries et convergent toutes deux. Il n'y a alors pas d'ambiguité sur la convergence de la série. Mais si les deux sous-séries divergent, alors le résultat est indéterminé : peut donner un résultat aussi bien fini qu'infini. La série est alors semi-convergente.

Un exemple de série semi-convergente[modifier | modifier le wikicode]

Pour donner une exemple de série conditionnellement convergente, on peut prendre la série harmonique alternée, une variante de la suite harmonique où les signes sont inversés d'un terme à l'autre. La série de cette suite est la suivante :

Il se trouve que certains calculs ont permis de trouver que cette série a pour résultat le logarithme naturel de 2 !

Cela laisse croire que cette suite est convergente, mais le critère vu plus haut nous dit que non. Si on applique le critère plus haut, on se retrouve en face de la série harmonique, connue pour diverger.

La série ne peut donc qu'être conditionnelle convergente.

Le théorème de réarrangement de Riemann et les méthodes de sommation[modifier | modifier le wikicode]

Les séries conditionnellement convergentes ont une particularité : on peut obtenir n'importe quel résultat, si l'on sait s'y prendre correctement. En effet, le théorème de Riemann nous dit qu'il est possible d'obtenir n'importe quel résultat déterminé à l'avance, tant que l'on effectue l'addition des termes dans le bon ordre. Dit autrement : les séries conditionnellement convergentes n'ont pas vraiment de résultat.