Électronique/Version imprimable

Un livre de Wikilivres.
Sauter à la navigation Sauter à la recherche

Nuvola-inspired File Icons for MediaWiki-fileicon-ps.png

Ceci est la version imprimable de Électronique.

  • Si vous imprimez cette page, choisissez « Aperçu avant impression » dans votre navigateur, ou cliquez sur le lien Version imprimable dans la boîte à outils, vous verrez cette page sans ce message, ni éléments de navigation sur la gauche ou en haut.
  • Cliquez sur Rafraîchir cette page pour obtenir la dernière version du wikilivre.
  • Pour plus d'informations sur les version imprimables, y compris la manière d'obtenir une version PDF, vous pouvez lire l'article Versions imprimables.


Électronique

Une version à jour et éditable de ce livre est disponible sur Wikilivres,
une bibliothèque de livres pédagogiques, à l'URL :
https://fr.wikibooks.org/wiki/%C3%89lectronique

Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la Licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans Texte de dernière page de couverture. Une copie de cette licence est incluse dans l'annexe nommée « Licence de documentation libre GNU ».

Les amplificateurs électriques

Amplification d'une tension.

Dans ce chapitre, nous allons étudier les amplificateurs opérationnels, à savoir les composants qui amplifient une tension ou un courant. Il en existe de nombreux types, mais tous sont des quadripôles (pour rappel, des composants avec quatre broches) : deux broches servent d'entrée et reçoivent une tension ou un courant, alors que les deux autres fournissent une tension ou un courant en sortie. On distingue les amplificateurs selon qu'ils amplifient la tension d'entrée, le courant, ou la puissance.

  • Pour une amplification en tension, la tension de sortie est un multiple de celle d'entrée.
  • Pour une amplification en courant, le courant fournit en sortie est un multiple de celui envoyé sur l'entrée.
  • Certains amplificateurs font à la fois de l'amplification de tension et de courant : on parle d'amplification de puissance.

La relation entre tension d'entrée et de sortie[modifier | modifier le wikicode]

Amplificateur linéaire, saturé.

A noter que si l'entrée et la sortie sont proportionnelles, courants et tension de sortie ne peuvent cependant pas dépasser une valeur maximale (souvent proche de la tension ou du courant d'alimentation). Le schéma ci-contre illustre la relation entre entrée et sortie, dans le cas d'un amplificateur en tension. On voit qu’en-deça d'une certaine tension d'entrée, tension d'entrée et de sortie sont proportionnelles. On dit alors que l'amplificateur est en régime linéaire, ce qui trahit la relation entre entrée et sortie. Mais au-delà d'une certaine tension d'entrée, la tension de sortie sature et reste à sa valeur maximale, quelle que soit la tension d'entrée. On dit que l'amplificateur est en régime de saturation, ce qui trahit le fait que la tension de sortie "sature".

Le régime linéaire : gain et transmittance[modifier | modifier le wikicode]

Commencons par étudier le régime linéaire, le régime non-linéaire étant pour plus tard. Si l'on envoie une tension sinusoïdale sur l'entrée d'un amplificateur, la sortie fournit une tension sinusoïdale de même fréquence, mais dont la phase et l'amplitude peuvent être différentes (même chose pour un courant, mais nous utiliserons des tensions dans ce qui suit, pour simplifier les explications). On peut calculer le rapport entre la tension d'entrée et la tension de sortie . Celui-ci s'appelle la fonction de transfert, bien que le terme transmittance soit aussi très utilisé, et se note . La transmittance d'un amplificateur n'est évidemment pas la même selon la fréquence, ce qui traduit le fait que certaines fréquences sont atténuées et d'autres amplifiées. Voici sa formule de calcul.

Si on utilise des phaseurs pour les tensions d'entrée et de sortie, leur rapport est un nombre complexe, qui dépend de la fréquence du signal d'entrée/sortie. La transmittance ainsi calculée est appelée la transmittance complexe et se note .

Vu qu'il s'agit d'un nombre complexe, la transmittance possède un module et un argument, dont les interprétations sont les suivantes :

  • L'argument est le déphasage entre signal de sortie et d'entrée.
  • Le module est le rapport entre amplitudes d'entrée et de sortie. Il porte le nom d'amplification. Elle n'est évidemment pas la même selon la fréquence, ce qui traduit le fait que certaines fréquences sont plus amplifiées que d'autres.

Il est fréquent d'utiliser des diagrammes qui relient l'amplification/atténuation à la fréquence. Analyser ces diagrammes est cependant assez compliqué si l'on utilise une échelle linéaire. Par exemple, la courbe tracée par un simple condensateur ou une bobine donnent une courbe exponentielle. Pour éviter un tel écueil, il est d'usage d'utiliser une courbe logarithmique, histoire que l'amplification causée par les récepteurs non-linéaires (condensateur et bobine) donnent des droites. Pour cela, on calcule une fonction dérivée du logarithme de l'amplification : le gain. Celui-ci vaut :

Les non-linéarités : distorsion et bruit[modifier | modifier le wikicode]

Bruit en sortie d'un amplificateur opérationnel : comparaison entre le signal parfait et le signal réel.

Un amplificateur n'est pas un composant parfait et sa linéarité n'est qu'une approximation. Dans le monde réel de la réalité véritable, les amplificateurs ont de petites imperfections qui rendent la relation sortie-entrée non-linéaire. Dans la plupart des cas, cette non-linéarité est négligeable et ne se ressent pas. Mais pour certaines applications ou certains signaux, la non-linéarité devient sensible et commence à poser des problèmes. Les sources de non-linéarité sont variables, mais leur résultat est le même : le signal d'entrée et le signal de sortie n'ont pas la même forme. Cela veut dire que si l'on envoie une sinusoïde en entrée, la sortie n'est plus une sinusoïde. Le signal subit ce qu'on appelle une distorsion. A la distorsion, il faut ajouter du bruit, à savoir des variations aléatoires du signal de sortie, causé par divers mécanismes physiques.

Le premier type de distorsion est lié au fait que des sinusoïdes de fréquences différentes ne sont pas amplifiées de la même manière (certaines le sont plus que d'autres). Or, le théorème de Fourier nous dit que tout signal est composé d'une somme de sinusoïdes et de cosinusoïdes. Si les différentes sinusoïdes d'un signal ne sont pas amplifiées de la même manière, le signal de sortie ne ressemblera pas au signal d'entrée. Ce phénomène est appelé la distorsion d'amplitude. La distorsion de phase est similaire, sauf que la phase des sinusoïdes est décalée par l'amplificateur, chaque sinusoïde l'étant d'une manière différente. Les différentes sinusoïdes se déphasent progressivement, ce qui fait que le signal d'entrée ne ressemble plus au signal de sortie. Ces deux formes de distorsion ont une même cause : la transmittance varie selon les fréquences (que ce soit son module ou son argument). Une conséquence est que ces distorsions ne touchent pas les sinusoïdes pures : un signal sinusoïdal en entrée donne une sinusoïde en sortie. Seuls les signaux complexes, avec des harmoniques, sont déformés et distordus.

En temps normal, pour des entrées assez faibles, la saturation ne pose pas de problèmes. Mais si l'entrée devient trop importante, la sortie sature. Par exemple, prenons le cas d'un signal sinusoïdal, qu'on envoie en entrée d'un amplificateur. Si le signal d'entrée est assez faible, la tension d'entrée restera dans le régime linéaire et la tension de sortie est elle aussi une sinusoïde. Mais si le signal d'entrée est assez importante, elle peut passer dans le régime de saturation : la sortie ne donne alors pas une sinusoïde, mais un signal déformé du fait de la saturation. Ce phénomène porte un nom : on l'appelle la distorsion harmonique.

Les catégories d'amplificateurs selon leur étage de sortie[modifier | modifier le wikicode]

Classes d'amplificateurs.

Il existe de nombreuses classifications pour les amplificateurs électroniques, qui catégorisent ceux-ci selon des critères assez variés. L'une d'entre elle se base sur ce qu'il advient du signal en sortie de l'amplificateur, quand on envoie un signal sinusoïdal sur l'entrée différentielle. Le signal de sortie peut alors être : soit sinusoïdal, soit ne conserver que les tensions positives (ou négatives), soit ne garder que les tensions au-delà d'une tension seuil positive ou négative. Cela donne quatre classes principales, appelées classes A, B, AB et C. Il existe des classes plus marginales, appelées D, E, F, G, et encore d'autres, mais nous les aborderons pas ici. Les quatre classes A, B, AB et C sont illustrées ci-contre et ci-dessous.

  • Les amplificateurs de classe A donnent un signal non-déformé en sortie : une sinusoïde en entrée reste une sinusoïde.
  • Les amplificateurs de classe B ne gardent que les tensions positives (ou négatives, selon l'amplificateur) et mettent à zéro la tension quand l'entrée devient négative (réciproquement positive).
  • Les amplificateurs de classe AB et C mettent la tension de sortie à zéro quand elle dépasse un seuil de tension. La différence est que :
    • les amplificateurs de classe AB ont une tension de seuil négative ;
    • les amplificateurs de classe C ont une tension de seuil positive.
Amplificateur de classe A.
Amplificateur de classe B.
Amplificateur de classe AB.
Amplificateur de classe C.

On peut reformuler les classes précédentes en se basant sur la durée durant laquelle l'amplificateur amplifie réellement le signal. Partons du principe qu'on envoie une sinusoïde de période P sur l'entrée. Les amplificateurs n'amplifient le signal que sur une portion précise de la période (sauf les amplificateurs de classe A, qui amplifient tout le temps). Quand ils mettent la sortie à 0, ils ne l'amplifient pas. On peut alors dire que tel amplificateur amplifie le signal durant 50% de la période, tel autre durant 100%, celui-ci à peine 20% de la période P, etc.

  • Un amplificateur de classe A amplifie le signal sur 100% de la période du signal d'entrée.
  • Un amplificateur de classe B amplifie le signal sur 50% de la période du signal d'entrée (quand la tension est positive sur certaines amplificateurs, ou négative sur d'autres).
  • Un amplificateur de classe AB amplifie le signal pour une durée comprise entre 50 et 100% de la période du signal d'entrée.
  • Un amplificateur de classe C amplifie le signal pour une durée comprise entre 0 et 50% de la période du signal d'entrée.
Classe % de période Description
Classe C 0-50% Amplifie durant une fraction de la demi-période positive/négative (selon l'amplificateur).
Classe B 50% Amplifie durant la demi-période positive/négative (selon l'amplificateur).
Classe AB 50-100% Amplifie durant la demi-période positive/négative (selon l'amplificateur) et une fraction de l'autre demi-période.
Classe A 100% Amplifie durant toute la période.



Les amplificateurs opérationnels

Dans le chapitre précédent, nous avons vu les amplificateurs, au sens général du terme. Dans ce chapitre, nous allons voir une classe particulière d'amplificateurs : les amplificateurs opérationnels (AOP). Ils sont très utilisés de nos jours, et l'étaient encore plus du temps des calculateurs analogiques, avant l’invention de l'informatique. De nos jours, ils sont à la base de presque tous les circuits analogiques, que ce soit les régulateurs de tension, les oscillateurs électriques, les générateurs de fréquence, les servomoteurs (des circuits qui commandent un moteur) et bien d'autres. Ils sont formés de transistors, de résistances, ou d'autres composants du genre, mais on ne se préoccupera pas de ce qu'il y a à l'intérieur pour le moment.

Un AOP a plusieurs broches : des broches d'alimentation symétriques par rapport à la masse sur lesquelles placer VCC et son inverse (-VCC), une sortie (ce qui est normal) et deux entrées (ce qui est moins intuitif). Il existe deux symboles pour représenter les AOPs : un dit américain et un autre dit européen. Les deux notations sont données dans le schéma ci-dessous.

Symboles d'un amplificateur opérationnel.

L'AOP réel[modifier | modifier le wikicode]

La présence de deux entrées s'explique par le fait qu'un AOP est ce que l'on appelle un amplificateur différentiel : il amplifie la différence entre deux tensions. Il prend les deux tensions d'entrée, soustrait la seconde à la première, et amplifie le résultat. Le coefficient d'amplification est appelé le gain différentiel de l'AOP, ou encore le gain en boucle ouverte. Si les deux tensions sont égales, l'AOP fournit une tension nulle, propriété appelée rejet du mode commun. Les tensions sur les deux broches d'entrée sont notées et , alors que la tension de sortie est notée . Pour un AOP, on a :

, avec le gain différentiel de l'amplificateur.
Broches d'un amplificateur opérationnel.
Fonctionnement simplifié d'un amplificateur opérationnel.

La relation entre entrées et sortie[modifier | modifier le wikicode]

Un AOP présente quelques propriétés qui sont des défauts pour l'électronicien. Pour comprendre ces défauts, nous allons voir en premier lieu les défauts qui apparaissent en courant continu. Nous allons repartir de l'équation vue plus haut, qui décrit le fonctionnement idéal d'un AOP et l’améliorer pour rendre compte de ces défauts :

, avec le gain différentiel de l'amplificateur.
Illustration de la tension d'offset.

Un premier défaut est que, pour , la tension de sortie est non-nulle. La tension de sortie obtenue sous ses conditions, à savoir quand les deux entrées sont mises à la masse, est appelée la tension d'offset. Elle peut être positive ou négative : tout dépend de l'AOP utilisé. En temps normal, elle vaut entre 1 mV et 5 mV, guère plus. Elle a pour origine la structure interne de l'AOP, qui est composé de transistors et de composants passifs, qui sont loin d'être parfaits. Notons que la tension d'offset peut varier selon la température, ce qui fait qu'elle est souvent difficile à corriger via un circuit quelconque.

, avec la tension d'offset.

Ensuite, il faut ajouter l'influence de la tension en mode commun (la moyenne arithmétique des deux tensions d'entrée). Celle-ci est aussi amplifiée et se retrouve dans la tension de sortie. Le coefficient d'amplification lié à la tension en mode commun est appelée le gain en mode commun.

, avec le gain en mode commun.

Si on note la tension différentielle et la tension en mode commun , on a une version plus simple de l'équation qui est :

Mesure des gains différentiels et en mode commun
Mesure du gain en mode commun
Si on place la même tension sur les deux entrées et , on a :

En prenant une tension de 1 Volt, la tension de sortie est égale au gain en mode commun.

Mesure du gain différentiel
Si on place une tension sur une borne et son opposée sur l'autre, on a alors :

En utilisant une tension de 0,5 Volts, la sortie est égale au gain en mode différentiel.

On peut reformuler l'équation en utilisant une grandeur appelée le taux de rejet en mode commun, qui est égal à :

On a alors :

Les impédances et courants d'entrée/sortie[modifier | modifier le wikicode]

Circuit équivalent de l'entrée d'un AOP réel, qui illustre la tension d'offset et les courants d'entrée. Les courants d'entrée sont représentés par des générateurs de courants et la tension d'offset par le générateur de tension.

Les entrées d'un AOP réel sont traversées par un courant, même quand on n'y place aucune tension dessus. Si on place les deux entrées à la masse, on observera un courant d'entrée sur l'entrée et un autre sur l'entrée , qui seront notés et . Les électroniciens utilisent la moyenne de ces deux courants, , auxquels ils donnent le nom de courant de polarisation. Ils utilisent aussi la différence entre ces deux courants, , qui porte le nom de courant d'offset.

Illustration du circuit équivalent de l'entrée d'un AOP réel. Les courants d'entrée sont représentés par des générateurs de courants et la tension d'offset par le générateur de tension.

Enfin, précisons que l'AOP réel dispose d'une impédance de sortie non-nulle, ainsi que de plusieurs impédances d'entrée (une par entrée et une pour la liaison entre les deux). Le schéma ci-dessous montre quelles sont ces impédances et comment elles sont reliées aux différentes entrées. On voit qu'il existe une impédance pour chaque entrée, qui relie celle-ci à la masse. On trouve aussi une impédance d'entrée située entre les deux entrées, qui porte le nom d'impédance d'entrée différentielle. Chaque impédance d'entrée est constituée d'une résistance en parallèle avec un condensateur, ce qui a des implications sur le fonctionnement de l'AOP à haute fréquence. Mais laissons cela pour plus tard.

Impédances d'entrée et de sortie d'un AOP réel. Le symbole d'AOP à droite des résistances représente un AOP parfait, sans impédances d'entrée ni de sortie. La résistance Rs correspond à l'impédance de sortie de l'AOP réel. Les trois résistances en série donnent les impédances d'entrée de l'AOP réel.

La bande passante d'un AOP[modifier | modifier le wikicode]

En courant alternatif, d'autres défauts font leur apparition. Le premier d'entre eux est que le gain différentiel varie avec la fréquence. Plus précisément, le gain différentiel diminue quand la fréquence augmente, les exceptions étant très rares. On peut mettre cela en équation assez simplement, avec la formule suivante (que nous étudierons plus en détail dans le chapitre sur les filtres électroniques) qui exprime la gain en nombre complexe :

, avec le gain en courant continu (f = 0), f la fréquence du signal d'entrée, et une fréquence particulière appelée fréquence de coupure.
Réponse en fréquence d'un AOP.

Qui plus est, le gain et la fréquence de coupure sont reliés entre eux : plus le gain est grand, plus la fréquence de coupure sera basse. Pour le dire autrement, la bande passante d'un AOP varie selon le gain configuré.

Lien entre gain et fréquence de coupure d'un AOP de type passe-bas.
Relation gain et bande passante d'un AOP (cas général).

La vitesse de balayage[modifier | modifier le wikicode]

Réponse d'un AOP à un front de tension.

Un autre défaut se manifeste pour des signaux de fréquence élevée : l'amplificateur n'arrive pas à suivre le signal d'entrée, qui va trop vite pour lui. La raison est que la tension de sortie ne peut pas augmenter soudainement et met un certain temps avant d'atteindre la valeur voulue. Si on place un front de tension (la tension passe immédiatement de 0 à 5 Volts, par exemple), la tension de sortie va monter progressivement et former une sorte de rampe, comme illustré ci-contre. Pour résumer, les variations de la tension de sortie ne sont pas instantanées. La vitesse à laquelle la tension de sortie évolue est appelée la vitesse de balayage (slew rate en anglais). Elle est définie par :

Si la tension d'entrée évolue plus vite que la vitesse de balayage (en clair, si ), le signal de sortie est alors déformé. Pour un signal sinusoïdal, cela arrive au-delà d'une certaine fréquence. Pour la calculer, prenons ce signal :

On a alors la dérivée suivante :

La vitesse maximale du signal est donc de . Si la vitesse de balayage est inférieure à cette valeur maximale, le signal sera déformé. Alors qu'il ne subira pas de distorsion liée à la vitesse de balayage dans le cas contraire. On sait donc que la fréquence maximale est celle pour laquelle :

, avec la vitesse de balayage.

Ce qui donne :

L'AOP idéal (parfait)[modifier | modifier le wikicode]

L'AOP réel est un circuit très complexe, dont les propriétés ne sont pas forcément importantes quand on étudie des circuits électroniques. Pour se simplifier la vie, les électroniciens utilisent un modèle simplifié d'AOP appelé AOP parfait, ou encore AOP idéal. Un tel AOP respecte plusieurs conditions irréalistes, mais qui permettent de simplifier l'étude de nombreux circuits électroniques. Celui-ci diffère de l'AOP réel sur de nombreux points. Bon nombre des propriétés de l'AOP réel sont négligées dans l'AOP idéal, ce qui simplifie les calculs et l'analyse. Dans cette section, nous allons voir en quoi l'AOP parfait diffère de l'AOP réel.

Circuit équivalent d'un AOP réel et caractéristiques fréquentielles de celui-ci.

Pour rappel, les propriétés principales de l'AOP réel sont résumées dans le schéma de droite. Elles regroupent :

  • Des impédances d'entrée assez fortes.
  • Une impédance de sortie faible, mais non-nulle.
  • Des courants de sortie et d'entrée liés aux impédances précitées.
  • Une tension d'offset (non-représentée sur le schéma ci-contre).
  • Un gain en mode commun faible, mais non-nul.
  • Un gain différentiel assez important, qui diminue avec la fréquence.
  • Une vitesse de balayage finie (non-représentée sur le schéma ci-contre).

Les simplifications de l'AOP parfait[modifier | modifier le wikicode]

Une première simplification est de négliger les impédances d'entrée et de sortie. Sur un AOP réel, les impédances d'entrée sont très grandes, alors que l'impédance de sortie est très faible. Pour donner quelques chiffres, l'impédance d'entrée d'un AOP réel est comprise entre et Ohms, ce qui est énorme. Dans ces conditions, on peut considérer que l'impédance est infinie. En clair, les entrées se comportent comme des morceaux de fils non-reliés au reste du circuit interne de l'AOP : il n'y a pas de courants d'entrée. On peut aussi négliger l'impédance d'entrée, qui est très faible. Pour un AOP réel, elle est comprise entre 10 et 500 Ohms, rarement plus. Autant le pas en tenir compte dans les calculs et la supposer nulle. A noter que cette simplification vaut tant que l'on relie l'AOP à des résistances de l'ordre du millier d'Ohm ou plus.

Schéma équivalent d'un AOP idéal.

Une autre simplification est de négliger le gain en mode commun et la tension d'offset. La tension de sortie d'un tel AOP est toujours égale à , sans que le courant de sortie ait une quelconque importance. Un AOP est donc une source de tension parfaite, sans impédances parasites. Il est aussi d'usage de supposer que le gain d'un AOP parfait est très grand, suffisamment grand pour être infini. Cela veut dire que la tension de sortie sature entre la tension d'alimentation et son inverse. La caractéristique / d'un AOP parfait est illustrée ci-dessous.

Relation entre tension d'entrée et de sortie d'un AOP parfait, idéal.

Enfin, le gain différentiel est supposé identique pour toutes les fréquences, ce qui fait qu'il a une bande passante infinie.

Résumé[modifier | modifier le wikicode]

Les propriétés d'un AOP réel et d'un AOP idéal sont comparées ci-dessous. Toutes ces simplifications permettent de simplifier l'étude des circuits qui vont suivre.

Propriété AOP idéal AOP réel
Impédance d'entrée Infinie Finie
Impédance de sortie Nulle Non-nulle
Vitesse de balayage (slew rate) Infinie Finie, non-négligeable
Bande passante Infinie Finie
Gain différentiel Infini (ou du moins très grand) Fini, non-négligeable
Gain en mode commun Nul Non-nul
Tension d'offset Nulle Non-nulle



La rétroaction linéaire et l'amplification

Contre-réaction.

Les AOP sont rarement utilisés seuls, mais sont souvent utilisés dans des circuits qui combinent un AOP avec des résistances, des bobines, des condensateurs, ou d'autres composants passifs. Dans beaucoup de cas, la sortie de l'AOP est envoyée dans un circuit passif, qui lui-même est relié à l'entrée. Ce genre de circuit est un cas particulier de ce qu'on appelle des circuits à rétroaction. Ce sont des circuits dans lesquels la sortie du circuit est traitée, puis renvoyée sur l'entrée. Renvoyer la sortie sur l'entrée est ce qu'on appelle une rétroaction, d'où le nom donné à ces circuits. En soit, la rétroaction peut s'utiliser pour des raisons très différentes.

Les circuits à rétroaction ont une forme illustrée ci-dessous. La tension d'entrée est notée X(s) et la tension de sortie est notée Y(s). On voit qu'il y a deux circuits distincts. Le premier circuit transforme l'entrée X(s) en sa sortie Y(s) et il a une transmittance notée G(s). Nous l’appellerons le circuit direct, car il connecte directement l'entrée à la sortie. Le second circuit, de transmittance H(s), traite la sortie et renvoie son résultat sur l'entrée. Nous l’appellerons le circuit de rétroaction. Il existe deux types de rétroaction, suivant comment on traite le résultat du circuit de rétroaction. Avec la rétroaction positive, l'entrée est additionnée au signal de rétroaction. Avec la rétroaction négative, le signal de rétroaction est soustrait du signal d'entrée.

Circuit à rétroaction.

Dans ce qui suit, nous allons supposer que le circuit direct et le circuit de rétroaction sont des circuits linéaires, c'est à dire que la sortie et l'entrée sont proportionnels. Le circuit direct multiplie son entrée par un coefficient , alors que le circuit de rétroaction multiplie sa sortie par . Le coefficient est appelé le gain en boucle ouverte et correspond ni plus moins qu'au gain de l'amplificateur. Il est à différencier du gain du circuit complet, qui est défini par le rapport entre entrée et sortie du circuit, soit Y(s)/X(s). Ce dernier est appelé le gain en boucle fermée. Les noms gain en boucle fermée et gain en boucle ouverte parlent d'eux-mêmes : le premier est mesuré sans la rétroaction, donc avec la boucle ouverte, alors que le second est mesuré avec le circuit de rétroaction, donc quand la boucle est fermée.

Diagramme d'un circuit à rétroaction linéaire.

Dans ce chapitre, nous allons voir comment fonctionnent les circuits à rétroaction de manière générale. Nous verrons dans le chapitre suivant quels montages on peut obtenir avec une rétroaction simple. Nous utiliserons aussi les acquis de ce chapitre dans les chapitres sur les filtres et les oscillateurs. Dans ce qui va suivre, nous allons voir la rétroaction négative avant de voir la rétroaction positive.

La rétroaction négative[modifier | modifier le wikicode]

Avec la rétroaction négative, le résultat de la rétroaction est soustrait au signal d'entrée. Dans le cas des AOP, elle peut servir à corriger les défauts de l'AOP utilisé. Cela peut permettre de rendre le gain moins sensible aux défauts de l'AOP, à augmenter la bande passante, à réduire l'effet du bruit et des perturbations, à réduire les distorsions non-linéaires, où à modifier les résistances d'entrée et de sortie. Mais, si elle est utilisée intelligemment, elle permet de créer des circuits complexes en utilisant un AOP central. On peut ainsi créer des filtres, des oscillateurs ou des circuits additionneur/soustracteurs/multiplieurs/intégrateur/dérivateurs/autres.

Un circuit à rétroaction négative a la forme donnée ci-dessous. Il prend un signal d'entrée (Signal) et fournit un signal de sortie (Output), le signal de rétroaction est noté .

Le signal O(s) est multiplié par par le circuit de rétroaction, ce qui donne :

Le signal d'entrée S se voit soustrait le signal de rétroaction R, de qui donne un résultat temporaire I qui vaut :

Ce dernier est amplifié par l'AOP, qui a un gain , ce qui donne une sortie égale à :

Diagramme d'un circuit linéaire à rétroaction négative.

La transmittance d'un circuit à rétroaction[modifier | modifier le wikicode]

Maintenant, reprenons l'équation précédente et développons.

Divisons par S :

Par définition, n'est autre que la transmittance du circuit complet. En notant celle-ci , on a :

Regroupons les termes avec la transmittance :

Factorisons la transmittance :

Et isolons la transmittance :

Le terme est appelé le gain de boucle. Pour que la rétroaction soit négative, il faut que celui-ci soit positif. Le terme , au dénominateur de la transmittance est appelé la quantité de rétroaction.

Circuit à rétroaction originel.
Circuit équivalent au circuit à rétroaction précédent.
Le circuit illustré a une transmittance égale à .

Au passage, dans la plupart des applications, on a . Dans de telles conditions, la transmittance devient :

Cela signifie que le comportement du circuit est totalement déterminé par le circuit de rétroaction, pas par l'amplificateur. Cela ne signifie pas que le circuit direct est inutile, mais que la sortie sera peu sensible au gain de l'AOP central.

Usage de la rétroaction négative[modifier | modifier le wikicode]

Maintenant, nous allons voir quels sont les avantages de la rétroaction négative, ce à quoi elle peut servir.

Une augmentation de la bande passante[modifier | modifier le wikicode]

La rétroaction négative augmente la bande passante de l'AOP. Notons que cette augmentation de la bande passante est proportionnelle à la réduction du gain en boucle fermée. Plus le gain en boucle fermée est réduit, par rapport au gain en boucle ouverte, plus la bande passante sera élargie. On peut prouver, à partir de résultats mathématiques non-triviaux, que le produit bande passante gain est une constante. En conséquence, une réduction de x% du gain en boucle fermée se traduira par une augmentation de x% de la bande passante.

Compromis entre gain et bande passante d'un circuit à rétroaction.

Traditionnellement, on étudie le cas où le gain de l'AOP diminue avec la fréquence. Le gain de l'amplificateur dépend de la fréquence en suivant l'équation suivante :

On peut alors combiner cette équation avec la formule de la transmittance . On obtient alors :

En simplifiant, on a :

La situation étudiée est illustrée dans le schéma ci-dessous.

Comparaison entre la bande passante en boucle ouverte (en bleu) et en boucle fermée (en rouge).

Réduction de la sensibilité à l'AOP du gain[modifier | modifier le wikicode]

La première utilisation est la réduction du gain du circuit, de sa sensibilité au gain de l'AOP. Une variation massive du gain de l'AOP se traduit par une réduction beaucoup plus faible du gain du circuit total. Pour comprendre en quoi, partons de la transmittance du circuit à rétroaction :

Dérivons l'équation précédente, pour voir comment le gain varie.

Divisons par la transmittance :

Le terme correspond à une modification en pourcentage du gain en boucle fermée, alors que le terme est une variation en pourcentage du gain en boucle ouverte. On voit que le terme est le coefficient de proportionnalité entre les deux gains en boucle fermée et ouverte. Ce terme est généralement plus petit que 1, beaucoup plus petit. Le gain en boucle fermée du circuit est donc stabilisé, il dépend peu du gain en boucle ouverte de l'AOP.

La réduction des interférences[modifier | modifier le wikicode]

Une autre utilité de la rétroaction est qu'elle permet de réduire l'intensité des perturbations extérieures. Pour comprendre pourquoi, imaginons qu'une perturbation D survienne et perturbe la sortie. Intuitivement, le circuit de rétroaction amplifiera la perturbation D et le signal de rétroaction sera de . Le signal intermédiaire I est donc amputé de , ce qui fait que la sortie est approximativement réduite de . Si on , alors la perturbation est supprimée immédiatement après son apparition. Il suffit que la distorsion se propage dans le circuit de rétroaction, puis dans l'AOP central, et la sortie revient à la normale.

Diagramme d'un circuit linéaire à rétroaction négative avec un bruit.

Au niveau mathématique, on peut comparer ce qui se passe avec une perturbation D, avec et sans rétroaction.

Si la rétroaction n'avait pas d'effet sur la perturbation, alors la perturbation s'ajouterait à la sortie directement. Ce qui fait que l'on aurait :

Or, les calculs nous disent qu'avec la perturbation, le circuit à rétroaction négative a une sortie égale à :


Démonstration

Pour cela, on suppose que la perturbation s'ajoute à la sortie de l'AOP, pour donner la sortie. En clair, on a :

.

On combine alors avec

On développe :

On regroupe les termes avec O :

On factorise O :

On divise par  :

On voit que l'effet de la perturbation est multiplié par , qui est généralement inférieur à 1. En clair : l'effet de la perturbation est réduit du fait de la rétroaction. Si jamais une interférence électromagnétique peu intense survient, un circuit à rétroaction se comportera normalement. Sa sortie restera relativement stable et ne sera pas trop perturbée par la perturbation.

La rétroaction positive[modifier | modifier le wikicode]

Un circuit à rétroaction positive est identique au circuit à rétroaction négative, sauf que le signal de rétroaction est ajouté au signal d'entrée. Dans ces conditions, on a :

Développons l'équation précédente :

Divisons par S pour obtenir la transmittance :

Regroupons les termes avec la transmittance :

Factorisons la transmittance :

Et isolons la transmittance :

Effets de la rétroaction positive[modifier | modifier le wikicode]

La rétroaction positive a divers effets que nous allons aborder ici.

Réduction de la sensibilité à l'AOP du gain[modifier | modifier le wikicode]

Comme pour la rétroaction négative, la rétroaction positive tend à réduire la sensibilité du gain en boucle fermée au gain en boucle ouverte. Pour le prouver, reprenons le gain en boucle fermée :

Dérivons l'équation précédente et divisons par la transmittance :

Comme pour la rétroaction négative, le terme est un coefficient de proportionnalité qui relie les gains en boucle fermée et ouverte. Ce terme est généralement plus petit que 1, ce qui fait le des variations du gain en boucle ouverte n'ont que peu d'effet sur le gain en boucle fermée.

Réduction de la bande passante[modifier | modifier le wikicode]

Contrairement à la rétroaction négative, la rétroaction positive réduit la bande passante. Il faut dire que l'augmentation du gain doit forcément se traduire par une réduction de la bande passante, du fait de la constante du produit gain bande passante.

Amplification des perturbations[modifier | modifier le wikicode]

Un autre défaut est que la rétroaction positive augmente l'effet des perturbations. Pour le montrer, procédons comme auparavant et ajoutons une perturbation sur la sortie du circuit. Comparons maintenant le résultat avec et sans la rétroaction.

Sans la rétroaction, le circuit a une sortie égale à :

Or, les calculs nous disent qu'avec la perturbation, le circuit à rétroaction positive a une sortie égale à :


Démonstration

Pour cela, on suppose que la perturbation s'ajoute à la sortie de l'AOP, pour donner la sortie. En clair, on a :

.

On combine alors avec

On développe :

On regroupe les termes avec O :

On factorise O :

On divise par  :

On voit que les perturbations sont amplifiées, du fait du terme .

La stabilité d'un circuit à rétroaction négative[modifier | modifier le wikicode]

Il existe des valeurs de pour lesquelles la transmittance peut s'annuler ou au contraire devenir infinie. La transmittance est toujours écrite sous la forme d'une fraction avec un numérateur et un dénominateur. Elle s'annule si le numérateur est égal à 0, alors qu'elle devient infinie/indéfinie si le dénominateur s'annule. Les valeurs pour lesquelles sont appelées les zéros de la transmittance, alors que celles où sont appelées des pôles. Si la présence de zéros n'est pas en soi un problème, la présence de pôle en est un. Dans un cas pareil, le circuit est dit instable. On pourrait croire que les pôles n'ont pas de signification physique. Mais il n’en est rien ! Il est parfaitement possible de créer des circuits avec des pôles. En effet, certains oscillateurs (des générateurs de fréquences) sont fabriqués en utilisant cette possibilité. Concrètement, sur un pôle, la sortie du circuit est finie et non-nulle alors que l'entrée est nulle. Dans la plupart des cas, le circuit se met à osciller, à savoir que sa sortie est une tension sinusoïdale ou tout du moins une tension périodique. Ce n'est pas systématique, mais c'est une possibilité, tout dépend du circuit.

Si on compare les circuits à rétroaction positive et négative, on voit que les pôles surviennent pour des valeurs différentes de . Rappelons que pour le dénominateur est égal à et , respectivement. Pour un circuit à rétroaction négative, un pôle correspond au cas où . Cela demande que la condition suivante soit respectée : . Pour un circuit à rétroaction positive, il faut que la quantité de rétroaction s'annule, ce qui arrive si . Cela demande que la condition suivante soit respectée : .

Un problème similaire survient si la transmittance devient négative. Le cas est un petit peu plus complexe, mais le circuit est là aussi instable. Dans ce cas, la transmittance reste finie, mais la tension de sortie a quelques propriétés bizarres. Les méthodes classiques d'analyse des circuits linéaires ne fonctionnent pas et il faut utiliser d'autres méthodes d'analyse spécifiques. Les circuits qui fonctionnent avec cette condition sont les circuits oscillateurs, comme les multivibrateurs, les circuits bistables, etc. Cela arrive si devient négatif, pour un circuit à rétroaction négative. Pour un circuit à rétroaction positive, il faut que . Avec cette condition, la quantité de rétroaction est négative et la transmittance aussi.

En théorie, il suffirait de choisir et pour éviter un tel cas d'instabilité. C'est simple à faire si les deux coefficients ne dépendant pas de la fréquence et sont des constantes. Mais dans la réalité, les AOP et circuits linéaires ne se comportent pas ainsi. Dans la réalité, les circuits ont une transmittance qui dépend de la fréquence. Et il est possible que, pour certaines fréquences, on ait . Il faut absolument éviter ce cas de figure lors de la conception du filtre. Pour cela, il existe quelques techniques, dont l'usage du critère de Nyquist, qui permettent de détecter la présence d'une instabilité ou son absence. L'analyse de la stabilité d'un circuit à rétroaction positive se fait avec les mêmes outils que pour un circuit à rétroaction négative, avec quelques petites différences mineures (la valeur de n'est pas la même pour obtenir un pôle).

Le diagramme de Nyquist[modifier | modifier le wikicode]

Le diagramme de Nyquist est relativement simple. Il s'agit d'une courbe dessinée dans le plan complexe. Rappelons que la transmittance est un nombre complexe, son module correspondant au rapport entre tension d'entrée et de sortie, alors que l'argument donne le déphasage entre les deux tensions. Mais contrairement à ce que l'on peut penser, on ne trace par la transmittance du circuit sur ce diagramme, ce qui ne nous permettrait pas de détecter les situations où elle devient infinie. A la place, chaque point de la courbe est associée au produit mesuré à une fréquence, différente en chaque point.

Pour un circuit à rétroaction, le circuit devient instable pour une valeur finie de , ce qui peut se voir sur le plan complexe. Rappelons que la valeur est égale à -1 pour un circuit à rétroaction négative. La courbe dessinée sur le diagramme de Nyquist donne donc toutes les valeurs possibles de ce produit, et l'on peut vérifier si la courbe passe par -1. Si le circuit peut être instable, alors il passe forcément par le point de coordonnées (-1,0).

Exemples de diagramme de Nyquist.
Nyquist 1 over (s+1).png
Nyquist 1 over (s+1)3.png
Nyquist 1 over s(s+1)2.png

La réponse impulsionnelle d'un circuit à rétroaction[modifier | modifier le wikicode]

Précisons maintenant comment se comporte un circuit suivant ce que l'on voit sur le diagramme de Nyquist. Nous allons voir comment il se comporte quand on place un échelon de tension sur son entrée. Par échelon de tension, on veut dire que l'on place une tension finie sur son entrée, durant un temps très faible, trop faible pour être considéré comme un signal d'entrée clair. Si le circuit est stable, la sortie du circuit va dépasser zéro durant un certain temps, avant de diminuer et de repasser à 0. La réduction de la tension de sortie peut être progressive, ou se faire par oscillations progressives, mais celles-ci sont amorties. Si le circuit instable, la sortie du circuit peut soit osciller de manière périodique, soit s’emballer et diverger totalement. Ci-dessous, on voit ce qui se passe suivant la valeur du facteur de rétroaction. Si il reste supérieur à -1, le circuit reste stable suite à un échelon de tension. Si il passe par -1, la sortie du circuit se met à osciller périodiquement. Et enfin, si jamais il devient inférieur à -1, la sortie du circuit diverge totalement.

Analyse de stabilité - Lieux de Nyquist et conséquences sur la réponse indicielle

Les quatre topologies des circuits à rétroaction à amplificateurs opérationnels[modifier | modifier le wikicode]

Dans ce qui précède, nous avons parlé de la rétroaction dans le cas général. Tout ce que l'on a dit marche pour beaucoup de choses, en électronique, mais aussi en mécanique, en électromécanique, en hydraulique, voire en dehors de l’ingénierie. Nous avons abordé la rétroaction dans le cadre général de la théorie du contrôle des systèmes dynamiques. Il est maintenant temps d'aborder des connaissances plus ancrées dans l'électronique.

Montage en série et en shunt de l'AOP central et du circuit de rétroaction[modifier | modifier le wikicode]

Quadripôle idéal (pas de résistance d'entrée et de sortie).
Quadripôle réel, avec résistance d'entrée et de sortie.

Dans un circuit à rétroaction électronique, on trouve un AOP central bouclé à un circuit de rétroaction. Les deux, l'AOP central et le circuit de rétroaction, sont des quadripôles, à savoir des circuits qui ont quatre bornes. Deux de ces bornes sont des bornes d'entrée, sur lesquelles on peut placer une tension ou un courant, alors que les deux autres fournissent la sortie. En théorie, un quadripôle (idéal ou réel) a pour circuit équivalent les deux circuits ci-contre.

Suivant que l'on mette une tension ou un courant sur l'entrée, on dit que le circuit est en série ou en shunt. Dans le cas en série, on place une tension sur l'entrée. Dans le cas qui nous intéresse, on place la tension d'entrée sur une borne, alors que l'autre reçoit la tension fournie par le circuit de rétroaction. En faisant cela, on est certain que c'est la différence entre ces deux tensions qui est envoyée en entrée de l'AOP. Dans le cas en shunt, on place des courants sur l'entrée. Le courant sur la première borne est le courant du signal d'entrée, celui sur la seconde borne est fourni par le circuit de rétroaction.

Montage en série et en shunt d'un AOP.

Il est possible de faire la même chose, mais pour le circuit de rétroaction. Ce faisant, on peut se retrouver avec quatre possibilités :

  • Un shunt sur l'entrée de l'AOP central et du circuit de rétroaction.
  • Une série sur l'entrée de l'AOP central et du circuit de rétroaction.
  • Un shunt sur l'entrée de l'AOP central et une série sur l'entrée du circuit de rétroaction.
  • Une série sur l'entrée de l'AOP central et un shunt sur l'entrée du circuit de rétroaction.

Les explications précédentes peuvent sembler très techniques, en raison du jargon utilisé. Pour le dire autrement, le circuit à rétroaction peut prendre en entrée soit un courant, soit une tension. Et c'est la même chose pour ce qui est fourni en sortie du circuit : c'est soit une tension, soit un courant. Ces quatre possibilités correspondent aux cas suivants :

  • L'amplificateur en tension, aussi appelé cas série-shunt, où le circuit prend en entrée une tension et fournit en sortie une tension.
  • L'amplificateur en courant, aussi appelé cas shunt-série, où le circuit prend en entrée un courant et fournit en sortie un courant.
  • L'amplificateur en transimpédance, aussi appelé cas série-série, où le circuit prend en entrée un courant et fournit en sortie une tension.
  • L'amplificateur en transconductance, aussi appelé cas shunt-shunt, où le circuit prend en entrée une tension et fournit en sortie un courant.

Pour résumer, il y a quatre façons de relier entre eux deux quadripôles, qui sont illustrées ci-dessous. Elles correspondent respectivement à l'amplificateur en tension (droite, haut), à l’amplificateur en courant (gauche, bas), à l'amplificateur en transconductance (droite, bas) et l'amplificateur en transimpédance (gauche, haut).

Topologies des circuits électroniques à AOP, avec rétroaction.

Le montage série-shunt[modifier | modifier le wikicode]

Commençons par étudier l'amplificateur en tension, le montage série-shunt. Nous allons voir que l'amplificateur en tension est censé avoir une résistance d'entrée forte, alors que sa résistance de sortie doit être la plus faible possible. Et l'usage de la rétroaction permet justement de réduire la résistance de sortie, tout en augmentant la résistance d'entrée.

Pour commencer, nous allons préciser qu'il faut faire la distinction entre la tension et la tension  : la première est celle envoyée en entrée du circuit, alors que la seconde est celle en entrée de l'AOP. Pareil pour les courants d'entrée : il y en a deux, que nous noterons et , qui correspondent aux courants d'entrée du circuit et de l'AOP. Même chose pour les résistances d'entrée du circuit et de l'AOP qui sont respectivement notées et .

Dans ce qui suit, nous supposons que l'AOP est un quadripôle réel, alors que le circuit de rétroaction est un quadripôle idéal.

La résistance d'entrée du montage[modifier | modifier le wikicode]

Dans ce qui suit, nous supposons que l'AOP central est un quadripôle réel, avec une résistance d'entrée et une résistance de sortie . Par définition, cette résistance est définie par le rapport entre la tension en entrée de l'AOP et le courant d'entrée, par la relation :

Maintenant, calculons la résistance d'entrée du circuit complet, pas celle de l'AOP, mais celle du circuit complet. Elle est égale, par définition, au rapport entre la tension d'entrée et le courant d'entrée. Si l'on suppose que le circuit de rétroaction est un quadripôle idéal, alors le courant d'entrée est égal au courant d'entrée de l'AOP (il n'y a pas d'autre résistance sur l'entrée du circuit). Dans ce cas, la résistance d'entrée du circuit vaut :

On combine les deux équations précédentes :

Maintenant, on applique la formule  :

On voit que ce montage augmente la résistance d'entrée.

La résistance de sortie du montage[modifier | modifier le wikicode]

Maintenant, étudions la résistance de sortie du montage, et formulons-la à partir de la résistance d'entrée de l'AOP. Nous supposons que l'AOP est un quadripôle réel, alors que le circuit de rétroaction est un quadripôle idéal. L'AOP est composé d'une résistance en série avec un générateur de tension. Le générateur de tension en question fournit une tension égale à :

Si on met la sortie en court-circuit, la tension de sortie est nulle. La tension de rétroaction s'annule elle aussi, en conséquence. La tension d'entrée de l'AOP est donc la tension d'entrée du circuit, ce qui donne :

De plus, le courant de sortie du circuit est égal au courant de sortie de l'AOP. On a donc :

La résistance d'entrée du circuit est égale, par définition, à :

En combinant avec les équations précédentes, on trouve :

On voit que le montage réduit la résistance d'entrée.



Les montages à amplificateurs opérationnels

Contre-réaction.

Les AOP sont rarement utilisés seuls, mais sont souvent utilisés dans des circuits qui combinent un AOP avec des résistances, des bobines, des condensateurs, ou d'autres composants passifs. Dans presque tous les cas, la sortie de l'AOP est reliée à une entrée, ce qui porte le nom de rétroaction. On a alors deux cas : soit l'entrée , soit la . Dans le premier cas, la rétroaction est dite positive, alors qu'elle est dite négative pour le second cas. Les deux situations sont très différentes et l'AOP fonctionne dans deux modes différent selon que la rétroaction est positive ou négative.

  • Avec une rétroaction négative, une augmentation de la tension de sortie réduit la différence des entrées, ce qui tend à réduire la tension de sortie. La tension tend à se stabiliser à une valeur précise, d'équilibre. L'AOP est alors dit en mode linéaire, ce qui trahit le fait que la tension de sortie ne sature pas (du moins, pas systématiquement).
  • Avec une rétroaction positive, une augmentation de la tension de sortie augmente la différence entre entrée, ce qui augmente encore la tension de sortie et rebelote. La tension augmente ou baisse alors jusqu’à ce qu'elle arrive à la tension de sortie maximale/minimale.

Les montages en mode linéaire (rétroaction négative)[modifier | modifier le wikicode]

Dans ce chapitre, nous allons voir les montages les plus utilisés, en supposant l'AOP idéal. Pour rappel, un AOP parfait respecte les hypothèses suivantes :

  • Il n'a pas de courants d'entrée : .
  • Son gain différentiel est infini : .
  • On néglige les tensions d'offset et le gain en mode commun, ce qui donne : .

En combinant les deux expressions, et en supposant le mode linéaire (contre-réaction négative), on a :

Les deux tensions d'entrée sont donc égales, sous condition qu'il y ait une contre-réaction sur l'entrée . Intuitivement, on peut interpréter ce résultat comme suit.

Pour commencer, étudions le cas où l'AOP a un gain égal à 1. Supposons que les deux tensions d'entrée soient égales : la sortie est alors égale à 0. Maintenant, imaginons que la tension augmente : cela entraine l'apparition d'une tension différentielle et la tension de sortie prend la même valeur (si le gain est de 1). Cette tension différentielle est envoyée sur l'entrée par l'intermédiaire de la contre-réaction : augmente et les augmentations de et se compensent exactement (dans le cas où le gain est de 1).

Si l'AOP a un gain différent de 1, le principe reste valable, même si le déroulement des faits est plus compliqué. On retrouve la même logique qui veut que si augmente, alors fait de même. Par contre, les deux tensions ne se compensent pas exactement du premier coup : à la place, on voit apparaitre une nouvelle tension différentielle, qui modifie elle aussi la tension et ainsi de suite. Le circuit évolue donc continuellement, mais finir par atteindre un état d'équilibre au bout d'un temps assez court. Et à l'équilibre, les augmentations de et se compensent parfaitement et les tensions d'entrée sont égales.

Le montage suiveur[modifier | modifier le wikicode]

Montage suiveur.

Le montage le plus simple à étudier est le montage suiveur, illustré ci-contre. Il se limite à une contre-réaction négative, à savoir une liaison de la sortie sur l'entrée .

En appliquant la loi des mailles, on trouve :

, avec la différence de tension entre et .

Vu que cette dernière vaut zéro, on a :

En clair, ce montage reproduit la tension d'entrée sur sa sortie.


Démonstration

On peut aussi analyser ce circuit en utilisant les équations vues au chapitre précédent. Rappelons que l'on a vu que la transmittance d'un circuit à rétroaction négative est donnée par la formule suivante, avec le gain de l'AOP et le gain du circuit de rétroaction.

Dans le montage suiveur, le circuit de rétroaction est un simple, ce qui fait que sa transmittance est de 1 (le signal d'entrée est égal au signal de sortie). On a donc :

Le montage non-inverseur[modifier | modifier le wikicode]

Montage non-inverseur.

Le montage non-inverseur est illustré dans le schéma ci-contre.

Montage non-inverseur, avec les courants.

Rappelons que le courant d'entrée d'un AOP parfait est nul. Avec cette hypothèse, on peut calculer la tension par un simple pont diviseur de tension :

On a aussi, de par les hypothèses de l'AOP parfait :

Ce qui donne :

Multiplions par  :

Divisons par

Simplifions la fraction :


Démonstration

Illustration du circuit non-inverseur, qui met en avant la sortie du circuit de rétroaction.

Faire les calculs avec la formule : donne des résultats assez compliqués, la formule étant :

Mais si on pose l'approximation , on a :

Dans le montage non-inverseur, le circuit de rétroaction est un pont diviseur de tension, ce qui fait que :

En combinant les deux équations précédente, on trouve :

Le montage suiveur peut être vu comme un cas particulier du montage non-inverseur, pour lequel on aurait : et . Les calculs redonnent bien ce qu'on a établi pour le montage suiveur, à savoir :
:

Le montage convertisseur courant-tension[modifier | modifier le wikicode]

Montage convertisseur courant-tension.

La particularité de ce montage est que l'entrée ne reçoit pas une tension, mais un courant d'entrée . Vu que l'AOP n'absorbe pas de courant (ses courants sur les entrées sont nuls), tout le courant passe dans la résistance.

L'entrée est reliée à la masse, ce qui fait que . Si l'AOP est parfait, on a donc :

La loi des mailles donne alors :

, avec la tension aux bornes de la résistance R.

Dit autrement, on a :

Ce montage convertit donc le courant d'entrée en une tension, par l'intermédiaire de la résistance R.

Le montage inverseur[modifier | modifier le wikicode]

Montage inverseur.

Le montage illustré ci-contre est appelée le montage inverseur. Ce nom vient de ce que fait ce montage. Sa tension de sortie est l'inverse (en réalité l'opposée) de la tension d'entrée, pondérée par un coefficient lié aux résistances.

Montage inverseur avec les courants.

Vu que les courants d'entrée de l'AOP sont nuls, le circuit est alors composé de deux résistances en séries, alimentées aux deux bouts par une tension : d'un coté, de l'autre. C'est la situation parfaite pour utiliser le théorème de superposition (aussi appelé théorème de Millmann). Si on ne garde que et qu'on met à 0, le circuit devient un simple pont diviseur. Idem si l'on met à 0 en conservant . La tension d'entrée est la somme de ces deux ponts diviseurs, ce qui donne :

Mais vu que l'entrée est connectée à la masse, on a :

Ce qui donne :

On multiplie par : des deux cotés :

On divise par des deux cotés :

Circuit équivalent d'un montage inverseur.

On peut aussi reformuler ce développement comme suit. On peut voir ce montage inverseur comme une amélioration du montage précédent, auquel on aurait rajouté une résistance sur l'entrée. Cette résistance convertit la tension d'entrée en un courant, qui est convertit par le reste du montage en une tension. Cela fonctionne parce que la tension sur l'entrée est nulle, ce qui fait que schéma équivalent du montage est celui illustré ci-contre. Vu que le courant d'entrée de l'AOP est nul, tout le courant passe dans les deux résistances. On a donc :

Quelques manipulations algébriques redonnent bien l'équation précédente.

On peut reformuler cette équation de manière à obtenir le gain de l'amplificateur :

On voit que le gain obtenu n'est pas égal au gain différentiel (ou au gain en mode commun). D'un coté le gain différentiel est supposé infini, de l'autre le gain réel dépend de la valeur des résistances. Cela nous amène à faire la distinction entre deux gains : le gain différentiel vu précédemment, et le gain obtenu avec les calculs de cette section. Le gain différentiel est une propriété de l'AOP quand celui-ci n'a pas de rétroaction, ce qui lui vaut son appellation de gain en boucle ouverte. Par contre, le gain mesuré dans un montage avec une rétroaction est différent. Ce gain est appelé gain en boucle fermée, pour signifier qu'il implique une boucle de rétroaction (négative).

Le montage sommateur-inverseur[modifier | modifier le wikicode]

Montage sommateur.

Le montage sommateur-inverseur est une amélioration du montage précédent, la différence étant que l'on a plusieurs tensions/résistances reliées à l'entrée . Le montage additionne les tensions placées sur cette entrée et fournit en sortie l'inverse de cette somme. Pour le démontrer, repartons du second développement du montage inverseur. On sait que la tension est nulle.

Pour le courant qui circule dans la résistance , on a :

On peut aussi calculer la somme des courants qui circulent dans chaque résistance d'entrée, ce qui donne :

Vu que le courant d'entrée de l'AOP est nul, les deux courants sont égaux :

En multipliant par , on a :

Ce circuit additionne donc les tensions pondérées par chaque résistance.

Le montage amplificateur différentiel[modifier | modifier le wikicode]

Montage amplificateur différentiel.

Le montage en amplificateur différentiel est le même que le montage inverseur, si ce n'est qu'on a ajouté un pont diviseur sur la tension d'entrée.

La tension se calcule exactement comme avec le montage inverseur (théorème de Millmann/superposition), ce qui donne :

La tension se calcule avec un pont diviseur de tension :

Les deux tensions sont égales, par les hypothèses de l'AOP parfait :

On soustrait : des deux cotés :

On divise des deux cotés par :  :

On développe :

On simplifie et on réarrange les termes :

Deux cas particuliers sont intéressants à étudier :

  • Quand et , on a :
  • Quand et , on obtient le montage soustracteur :

Le montage amplificateur d'instrumentation[modifier | modifier le wikicode]

Le montage amplificateur d'instrumentation est une amélioration de l'amplificateur différentiel. Il suffit d'ajouter deux suiveurs sur les deux entrées du circuit pour obtenir un amplificateur d'instrumentation. Ce faisant, on est certain que les courants d'entrée de l'AOP (qui sont non-nuls pour un AOP réel) ne perturbent pas le fonctionnement du circuit.

Sur certains montages, on ajoute quelques résistances : une dans chaque boucle du suiveur, et une autre pour relier les deux boucles, afin d'améliorer le fonctionnement du circuit.

Montage amplificateur d'instrumentation sans résistances additionnelles.
Montage amplificateur d'instrumentation avec les résistances additionnelles.
Second montage avec les résistances additionnelles.

Le montage intégrateur[modifier | modifier le wikicode]

Montage intégrateur.

Le montage intégrateur ressemble au montage inverseur, si ce n'est qu'on a remplacé une résistance par un condensateur. Le montage est illustré ci-contre.

Si on suppose l'AOP parfait, il n'y a pas de courants d'entrée.

Aux bornes de la résistance, on a :

Au bornes du condensateur, on a :

Le courant circule dans le circuit série formé par la résistance et le condensateur, ce qui fait qu'il est identique en tout point du circuit. Les deux courants des équations précédentes sont égaux, ce qui donne :

Divisons par C :

Intégrons pour trouver  :

Simplifions :

Ce circuit calcule donc l'intégrale de la tension d'entrée au cours du temps (pondérée par le produit RC). D'où son nom de montage intégrateur.

Le montage dérivateur[modifier | modifier le wikicode]

Montage dérivateur.

Si on inverse de place la résistance et le condensateur, le comportement du montage est changé du tout au tout. De montage intégrateur, il passe à un montage dérivateur, qui calcule la dérivée de la tension d'entrée. Pour le démontrer, il faut refaire les développements de la section précédente. La seule différence est que la tension d'entrée et de sortie seront inversées. Évidemment, on suppose l'AOP parfait, ce qui fait qu'il n'y a pas de courants d'entrée.

Aux bornes de la résistance, on a :

Au bornes du condensateur, on a :

Les deux courants précédents sont égaux, ce qui donne :

Multiplions par R :

Ce circuit calcule donc la dérivée de la tension d'entrée au cours du temps (pondérée par le produit RC).

Le montage exponentiel[modifier | modifier le wikicode]

Montage exponentiel.

Le montage exponentiel est une amélioration du montage convertisseur courant-tension : on a rajouté une diode sur l'entrée du montage. Et cette fois-ci, on envoie une tension sur l'entrée du montage, et non un courant.

La diode ne change pas grand chose au fonctionnement du montage, vu que la chute de tension à ses bornes est négligeable. On a toujours :

Par contre, on peut le courant qui parcourt le circuit est le courant fournit par la diode (en fonction de la tension d'entrée). Celui-ci vaut, d'après l'équation de Schokley vue il y a quelques chapitres :

En combinant les deux expressions précédentes, on a :

En clair, ce montage calcule l'exponentielle de la tension d'entrée, à un coefficient de proportionnalité près.

En réalité, l'équation de Schokley d'une diode n'est pas , mais : . Cela modifie quelque peu les calculs, ce qui donne l'équation suivante :

Le montage logarithmique[modifier | modifier le wikicode]

Montage logarithmique.

Le montage logarithmique est une variante du montage précédent, dans lequel la diode et la résistance échangent leurs places.

Ici, la diode est alimentée par la tension , ce qui fait que le courant qui traverse le circuit est de :

On a toujours , ce qui donne :

En combinant les deux expressions précédentes, on a :

On peut reformuler l'expression comme suit :

Prenons le logarithme des deux cotés :

Multiplions par la tension de seuil de la diode  :

En clair, ce montage calcule le logarithme de la tension d'entrée, à un coefficient de proportionnalité près.

En réalité, l'équation de Schokley d'une diode n'est pas , mais : . Cela modifie quelque peu les calculs, ce qui donne l'équation suivante :

Nous en aurons besoin dans la section suivante.

Le montage multiplieur[modifier | modifier le wikicode]

Le montage multiplieur fournit en sortie le produit des deux tensions d'entrée. Il est composé avec l'aide des circuits exponentiels, logarithmiques, inverseurs et sommateurs vus plus haut. L'idée qui se cache derrière ce circuit est redoutablement simple, pour qui connait les propriétés des logarithmes. On sait que le logarithme d'un produit est égal à la somme des logarithmes. Cette propriété a durant longtemps été exploitée pour faire des multiplications à la main, pour des opérandes étaient assez grandes. Il suffit de réutiliser ce principe ici : on prend les logarithmes de chaque entrée, on les additionne, puis on prend l'exponentielle du résultat pour obtenir le résultat final. En clair, on a un montage logarithmique sur chaque entrée, un circuit sommateur, et enfin un montage exponentiel. Le circuit final est illustré ci-dessous.

Montage multiplieur analogique.

On peut créer le circuit sommateur de plusieurs manières. La méthode la plus évidente est d'utiliser un montage inverseur-sommateur, suivi par un montage inverseur (pour compenser l'inversion réalisée par le montage inverseur-sommateur). Mais il existe une autre solution, bien plus élégante. Avec elle, les sorties des montages logarithmiques sont placées en série avec une résistance, pour transformer la tension (le logarithme), en un courant proportionnel. Puis, les deux fils sont reliés/fusionnés : la loi des nœuds fait que les deux courants sont additionnés. Enfin, on fait passer le courant obtenu (la somme des courants logarithmiques) dans un montage de conversion courant-tension. Le circuit total, montages exponentiels et logarithmiques inclus, est celui-ci :

Montage multiplieur analogique avec sommation des courants.

En réalité, ce montage ne marche pas parfaitement, pour une raison simple : le montage logarithmique ne calcule pas exactement le logarithme, mais fait le calcul suivant :

La somme des deux logarithmes donne donc :

En appliquant la règle on a :

En appliquant le montage exponentiel, on trouve :

Ce qui se simplifie en :

Il faut donc ajouter les deux tensions d'entrée au résultat pour obtenir le bon résultat. Il suffit d'ajouter un montage sommateur, ce qui donne le circuit suivant :

Circuit multiplieur complet.

Les montages en mode comparateur (rétroaction positive ou absence de rétroaction)[modifier | modifier le wikicode]

Les montages précédents utilisent tous une contre-réaction négative, à savoir qu'ils relient la sortie à l'entrée . Cette contre-réaction négative fait fonctionner l'AOP dans le régime linéaire et la sortie tend à être stable autour d'une valeur d'équilibre. Mais il est aussi possible de relier la sortie à l'entrée positive . Dans ce cas, le circuit fonctionne tout autrement. Le circuit fonctionne alors en mode de saturation, à savoir que sa sortie est égale à la valeur maximale ou minimale que peut fournir l'AOP. Les circuits qui utilisent cette propriété sont généralement des comparateurs de tension, qui comparent les deux tensions d'entrée entre elles, ou qui comparent une tension d'entrée à un seuil prédéfini. Dans cette section, nous allons voir les montages qui utilisent une contre-réaction positive, et notamment les comparateurs.

Le comparateur à un seuil (absence de rétroaction)[modifier | modifier le wikicode]

Pour commencer cette section, je me dois de faire une digression sur l'AOP en mode de saturation. Un AOP parfait est, par définition, un comparateur. En effet, son comportement en régime de saturation est défini par les deux équations suivantes :

Si  :
Si  :

Un simple AOP, sans contre-réaction, permet de réaliser un circuit qui compare la tension d'entrée à un seuil. Si la tension est sous le seuil, . Mais si la tension d'entrée dépasse ce seuil : . Pour cela, il suffit de placer la tension de seuil sur l'entrée et de mettre la tension d'entrée sur l'entrée . Ce circuit est appelé un comparateur à un seuil.

Le schéma ci-dessous illustre un comparateur à un seuil qui compare la tension d'entrée au seuil .

Exemple d'un comparateur à un seuil qui compare la tension d'entrée au seuil '"`UNIQ--postMath-0000013B-QINU`"'.

Le circuit comparateur à deux seuils (trigger de Smitt)[modifier | modifier le wikicode]

Le circuit précédent n'utilise pas de rétroaction. Les circuits que nous allons voir dans cette section utilisent une rétroaction positive, qui garantit qu'ils fonctionnent en saturation. Pour comprendre pourquoi l'AOP fonctionne en saturation, étudions ce qui se passe quand la tension différentielle est positive. En clair la tension d'entrée du circuit est telle que la sortie de l'AOP est positive. La tension de sortie positive est alors renvoyée en entrée, où elle s'ajoute à la tension d'entrée préexistante. La tension d'entrée finale augmente donc, ce qui fait encore augmenter la tension de sortie de l'AOP. Et la boucle recommence, la tension de sortie augmentant jusqu’à ce que l'AOP atteigne sa tension maximale. Pour le cas où la tension d'entrée fait que la tension d'entrée est négative, c'est le même raisonnement, si ce n'est que la tension de sortie sera négative. On voit donc que la rétroaction fait que le processus 'emballe : de petites différences d'entrées s'amplifient de plus en plus, jusqu’à ce que l'AOP atteigne sa tension maximale ou minimale.

Courbe d’hystérésis.

Le comparateur à deux seuils est un comparateur un peu spécial. Il dispose non pas d'un seuil, mais de deux seuils de basculement. Lorsque le premier seuil est franchit, le circuit voit sa sortie passer de -VCC à +VCC. Le second seuil est pour l'opération inverse : quand la tension d'entrée descend en-dessous de ce second seuil, la sortie passe de +VCC à -VCC. Le premier seuil (passage de -VCC à +VCC) est appelé le seuil positif, alors que l'autre est appelé le seuil négatif. La raison est, pour la majorité des montages, ces deux seuils ont la même valeur absolue, mais des signes différents.

Le fonctionnement de ce circuit est résumé dans le schéma ci-contre. Ce schéma est appelé une courbe d'Hystérésis. L'interprétation de cette courbe est la suivante. Supposons que la tension d'entrée soit comprise au-delà du seuil T : la sortie est donc égale à +VCC. Imaginons maintenant qu'elle descende en-dessous du seuil T, mais reste supérieure à -T. Dans ce cas, la sortie restera à +VCC. Ce n'est que quand elle descendra sous le seuil - T que la sortie basculera à -VCC. Ensuite, imaginons que l'entrée, initialement sous le seuil -T, dépasse ce seuil et augmente progressivement. Rien ne se passe tant que l'entrée n'a pas dépassé le seuil de basculement T et la sortie reste à -VCC. Ce n'est qu'une fois le seuil T dépassé que la sortie bascule à +VCC. Les flèches indiquent comment interpréter ces basculements et les hausses/baisses de tension de sortie selon l'entrée.

Pour résumer :

  • Si l'entrée est en-dessous du seuil négatif -T, la sortie est à -VCC.
  • Si l'entrée est au-dessus du seuil positif +T, la sortie est à +VCC.
  • Entre les deux, la sortie garde sa valeur précédente, qui est de +VCC ou de -VCC selon l'histoire du circuit.

Le comparateur à deux seuils inverseur[modifier | modifier le wikicode]

Comparateur à deux seuils inverseur

Il existe deux circuits comparateurs à deux seuils, qui ressemblent aux circuits inverseur et non-inverseur obtenus avec contre-réaction négative. La seule différence est que la contre-réaction est ici placée sur la borne et non . Le circuit inverseur est montré ci-contre.

On voit immédiatement que la tension est obtenue par un pont diviseur de tension, ce qui donne :

Vu que l'AOP est en mode de saturation, peut prendre deux valeurs possibles : +VCC et -VCC. En injectant ces deux valeurs dans l'équation précédente, on trouve l'expression des deux seuils :

 : seuil positif.
 : seuil négatif.

Le comparateur à deux seuils non-inverseur[modifier | modifier le wikicode]

Comparateur à deux seuils non-inverseur

Passons maintenant au circuit non-inverseur.

Cette fois-ci, on doit utiliser le théorème de superposition (ou de Milmann, c'est selon) pour analyser ce circuit (comme on l'avait fait avec le montage non-inverseur). On a alors :

Vu que l'AOP est en mode de saturation, peut prendre deux valeurs possibles : +VCC et -VCC. En injectant ces deux valeurs dans l'équation précédente, on trouve a :

Reste alors à trouver la tension qui annule la tension différentielle (et donc la tension ), pour trouver les tensions de seuil. Quelques manipulations algébriques triviales donnent alors :

 : seuil positif.
 : seuil positif.



Les filtres électriques

Les filtres électriques sont des quadripôles, qui prennent en entrée une tension en fournissent en sortie une version atténuée de la tension d'entrée. Ceux-ci sont des composants qui atténuent les signaux dans une certaine gamme de fréquence. Ils vont par exemple laisser passer les signaux à basse fréquence, mais filtrer les hautes fréquences, ou inversement. Plus précisément, les filtres vont modifier l'ensemble des sinusoïdes qui leur parviennent. Si on leur envoie un signal (une tension ou courant quelconque) sur leur entrée, ils vont traiter ce signal et fournir une version traitée sur leur sortie. Pour donner quelques exemples, les circuits RC, RL, et RLC sont des filtres parmi tant d'autres. On a vu dans le chapitre sur l'impédance que ceux-ci fournissent une tension de sortie (aux bornes du condensateur ou de la bobine), quand on leur fournit une tension d'entrée. Leur étude dans le chapitre sur l'impédance a servi en quelque sorte d'introduction à l'étude des filtres électriques, là où ce chapitre porte sur l'étude des filtres de manière plus générale.

Il existe un grand nombre de filtres électroniques, qui ont chacun leurs avantages et inconvénients. Les critères utilisés pour classer les filtres sont assez nombreux : on peut les classer en fonction de leur bande passante, de leur ordre, de leur caractère actif/passif ou de certaines propriétés mathématiques. Dans ce qui va suivre, nous allons voir quelques classifications assez courantes des filtres. Nous allons d'abord voir la différence entre les filtres passe-haut, passe-bas, passe-bande et coupe-bande, qui ont chacun un comportement en fréquence bien précise. Puis, nous enchaînerons avec une classification plus élaborée qui distingue les filtres de Bessel, Butterworth, Tchebychev et Legendre.

La réponse en fréquence d'un filtre électronique[modifier | modifier le wikicode]

Lorsqu'on envoie un signal sinusoïdal en entrée d'un filtre, on retrouve en sortie un signal sinusoïdal d'une amplitude plus faible qu'à l'entrée. En quelque sorte, les filtres sont l'inverse d'un amplificateur : au lieu d'amplifier un signal, ils l'atténuent. Cette atténuation dépend de la fréquence du signal d'entrée : elle est minimale, voire nulle pour certaines fréquences, plus importante pour d'autres. Pour certaines fréquences, le signal de sortie est si faible qu'il est négligeable : la fréquence qui correspond est alors filtrée, atténuée, éliminée du signal original.

La relation atténuation-fréquence[modifier | modifier le wikicode]

Si on étudie la variation du gain en fonction des fréquences, on peut tomber sur plusieurs possibilités. Les quatre principales sont les suivantes :

  • Le gain augmente avec la fréquence. Le filtre atténue les basses fréquences, mais laisse passer les hautes fréquences. Le filtre est dit un filtre passe-haut.
  • Le gain diminue avec la fréquence. Le filtre laisse passer les basses fréquences, mais atténue les hautes fréquences. Le filtre est dit un filtre passe-bas.
  • Le gain augmente jusqu'à une fréquence maximale avant de diminuer. Dit autrement, le gain est minimal pour les hautes et basses fréquences, maximal pour un intervalle bien précis. Le filtre laisse passer les fréquences contenues dans un intervalle, mais atténue les fréquences situées en dehors de celui-ci. C'est le comportement d'un filtre passe-bande.
  • Le gain est maximal pour les hautes et basses fréquences, mais minimal dans un intervalle précis. Le gain diminue jusqu'à une fréquence maximale avant de remonter. Le filtre laisse passer les fréquences situées en dehors d'un intervalle, mais atténue les fréquences situées dans l'intervalle. C'est le comportement d'un filtre coupe-bande.

Certains filtres ont un comportement plus complexe et fonctionnent comme la superposition de filtres plus simples. Par exemple, certains filtres se comportent comme un filtre passe-bas aux basses fréquences, mais laissent passer une bande de fréquence dans certaines hautes fréquences. Et les exemples de ce type sont nombreux.

Types de filtres en fonction de leur réponse en fréquence (anglais).

On considère arbitrairement qu'un filtre ne laisse pas passer les fréquences dont l’atténuation est de moitié, les autres n'étant pas filtrées. Si on fait les calculs, cela correspond à un gain diminué de 3 dB. La fréquence qui correspond à une atténuation réduite de moitié, c'est à dire où la puissance dissipée par le filtre est la moitié de celle fournie en entrée, est appelée la fréquence de coupure. En clair, le signal voit son amplitude en tension ou en courant divisée par , soit égale à 70,7% du signal originel. Une illustration est donnée ci-dessous pour un filtre passe-bas et un filtre passe-haut.

Fréquence de coupure d'un filtre passe-bas et passe-haut

Pour la plupart des filtres, il existe entre une et deux fréquences de coupures, qui délimitent une bande de fréquences qui ne sont que peu filtrées. La largeur de cet intervalle est appelée la bande passante du filtre.

Illustration de la bande passante.

La relation déphasage-fréquence[modifier | modifier le wikicode]

Si le gain varie avec la fréquence, il en est de même pour la phase. Les signaux envoyés à un filtre en ressortent avec un déphasage par rapport à l'entrée. Qui plus est, ce décalage est généralement dépendant de la fréquence, la relation exacte variant selon le filtre considéré. L'origine de ce déphasage est que les signaux mettent un certain temps pour parcourir le filtre, pour faire le chemin de l'entrée vers la sortie, ce temps de parcours se traduisant par déphasage entre entrée et sortie. Généralement, plus un filtre contient de composants enchaînés les uns à la suite des autres, plus ce déphasage est important.

Tous les types de filtres introduisent un décalage constant pour toutes les fréquences. Attention : par décalage constant, on veut dire que le temps de parcours du filtre est identique pour toutes les fréquences. Si on regarde le déphasage, cela se traduit par un déphasage proportionnel à la fréquence. Par exemple, si le déphasage est de 20° à une fréquence de 5 KHz, alors il est de 40° pour 10 KHz, de 80° pour 20 KHz, de 800° pour 2000 KHz, etc. Ce temps de décalage est appelé le retard de groupe, nom qui traduit le fait que toutes les fréquences sont touchées de la même manière. Un signal envoyé sur un filtre ne sera pas modifié par le retard de groupe, vu que toutes les harmoniques du signal seront retardées de la même manière. Il n'implique donc aucune distorsion du signal d'entrée.

Si certains types n'introduisent que ce décalage de groupe, sans autres formes de retard supplémentaires, ce n'est pas le cas pour la majorité des filtres. Divers retards dépendant de la fréquence viennent s'ajouter au retard de groupe et ajoutent un déphasage dépendant de la fréquence. Une conséquence de cette approche se voit quand on envoie des signaux non-sinusoïdaux en entrée de tels filtres. Les diverses harmoniques du signal traversent le filtre à des vitesses différentes et ressortent chacune avec un délai différent de leur voisine. Les harmoniques ont chacune leur propre déphasage, ce qui donne un signal d'entrée déformé. Le résultat est une distorsion du signal, qui est d'autant plus importante que les retards dépendant de la fréquence sont importants.

La transmittance d'un filtre : propriétés mathématiques[modifier | modifier le wikicode]

De manière générale, la transmittance d'un filtre s'exprime avec une fraction, composée d'un numérateur et d'un dénominateur (respectivement, la tension d'entrée et de sortie), qui dépendent tous deux de la fréquence de la tension d'entrée.

Le numérateur et le dénominateur sont tous deux des polynômes, dont la fréquence d'entrée est la seule variable. De manière générale, on peut écrire la transmittance de tout filtre de cette manière :

L'ordre d'un filtre[modifier | modifier le wikicode]

L'exposant le plus élevé dans le dénominateur est appelé l'ordre du filtre. Par exemple, on dira que le filtre est d'ordre 2 si la fréquence est élevée au carré dans le dénominateur, d'ordre 4 si elle est élevée à la puissance 4, etc. Il a un rôle tout particulier à jouer, car elle décrit la sensibilité du filtre à la fréquence. Plus la puissance est élevée, plus le filtre aura un filtrage efficace. Par exemple, pour un filtre passe-bas, l'atténuation sera d'autant plus rapide que l'ordre du filtre est important. Par contre, plus l'ordre d'un filtre est élevé, plus il contient de composants électroniques : il est donc plus complexe, plus difficile à produire, plus coûteux, etc.

Pour un filtre du premier ordre, la transmittance est une équation qui dépend de la fréquence de coupure . Si vous étudiez les formules qui vont suivre, vous verrez qu'elles ressemblent aux formules obtenues pour les filtres RC et RL. Le fait est que les filtres RC et RL sont des filtres du premier ordre.

Filtre passe-bas
Filtre passe-haut

La transmittance des filtres du second ordre est une équation quadratique qui contient deux constantes et , dépendantes du circuit, appelées respectivement facteur d'amortissement et facteur de qualité. Le facteur de qualité est défini comme le rapport entre la fréquence propre , celle où le gain est maximal, et la largeur de la bande passante. Le facteur d'amortissement est défini à partir du facteur de qualité, comme étant la moitié de son inverse. On a donc :

Filtre passe-bas
Filtre passe-haut
Filtre passe-bande
Filtre coupe-bande
Si vous étudiez les formules qui vont suivre, vous verrez qu'elles ressemblent aux formules obtenues pour le filtre RLC. Le fait est que le filtre RLC est du second ordre, à savoir que la fréquence est mise au carré dans l'équation de la transmittance.

Les zéros et pôles d'un filtre[modifier | modifier le wikicode]

On peut reformuler les formules pour la transmittance en se souvenant que tout polynôme peut être factorisé en utilisant ses racines. Ainsi, tout polynôme de la forme peut se reformuler comme suit : , avec les racines du polynôme. En reformulant ainsi les polynômes de la transmittance, on a :

Les racines du numérateur sont appelées les zéros et les racines du numérateur sont appelées les pôles. Ce sont des nombres complexes, avec chacun une partie réelle et une partie imaginaire. Il est possible de placer ces pôles et zéros sur un plan complexe, ce qui donne le graphe des pôles d'un filtre. Il est très utilisé pour déterminer si certaines fréquences rendent le filtre instable. En effet, les pôles sont des valeurs pour lesquelles le dénominateur de la transmittance est nul, et où la transmittance est donc infinie. Si un pôle se situe sur la moitié gauche du graphe des pôles, cela n'a pas trop d'importance, vu qu'il s'agit de valeurs que l'on ne peut pas observer en réalité (une partie réelle négative signifie un gain négatif, chose qui n'a pas vraiment de sens). Mais la présence d'un pôle sur la partie droite est plus problématique. Si le pôle se situe sur l'axe des abscisses, la transmittance augmente exponentiellement jusqu'à ce que la fréquence atteigne ce pôle (où elle est alors infinie). Si elle est en dehors, cela signifie que le déphasage et/ou le gain peuvent devenir infinis et donc que le filtre est extrêmement instable.

Certains filtres n'ont pas de zéros du tout, du moins tant que la fréquence reste finie. De tels filtres sont appelés des filtres tous pôles. Pour de tels filtres, la transmittance peut tendre vers zéro, mais seulement quand la fréquence tend elle aussi vers zéro. En clair : on peut avoir . Cette condition à la limite impose qu'au-delà d'une certaine fréquence, la transmittance baisse. En conséquence, de tels filtres sont forcément des filtres de type passe-bas ou passe-bande, mais ne peuvent pas être des filtres passe-haut ou coupe-bande. Vu l'absence de zéros, la fonction de transfert de ces filtres est la suivante :

La décomposition d'un filtre en filtres plus simples[modifier | modifier le wikicode]

Reprenons maintenant à partir de l'expression suivante de la transmittance :

Il est possible de regrouper les termes par groupes de deux, ce qui donne :

En développant chaque produit, on peut réécrire la formule comme suit :

En clair, la transmittance de tout filtre peut s'exprimer comme le produit de termes de la forme , avec P1 et P2 deux polynômes du premier ou du second degré. La traduction en termes électroniques est que tout filtre peut se décomposer en filtres plus simples, du premier ou du second ordre. C'est d'ailleurs souvent ainsi que sont fabriqués les filtres d'un ordre > 2 : ils sont formés par assemblage de filtres du 1er/2nd ordre.

Les types de filtres en fonction de la formule mathématique de leur transmittance[modifier | modifier le wikicode]

Comparaison du diagramme de Bode entre les filtres de Butterworth et d'autres types de filtres. Ce schéma montre les diagrammes gain-fréquence pour divers types de filtres. On voit qu'à l’exception des filtres de Butterworth, tous comportent des oscillations et ondulations.

Suivant les propriétés mathématiques de ces polynômes, on peut distinguer plusieurs types de filtres. Dans cette section, nous allons voir une classification basée sur des propriétés mathématiques précises, qui distingue les filtres de Bessel, Butterworth, Tchebychev et Legendre. Nous utiliserons beaucoup le diagramme gain-fréquence dans ce qui suit, le fameux diagramme de Bode. On verra qu'à l’exception des filtres de Butterworth celui-ci présente des vagues en forme de morceaux de sinusoïdes sur le diagramme gain-fréquence.

Type de filtre Caractéristiques
Filtre de Bessel Délai constant en bande passante
Filtre de Butterworth Gain le plus constant possible dans la bande passante
Filtre de Tchebychev Meilleure atténuation en dehors de la bande passante, mais transmittance fluctuante dans la bande passante
Filtre de Legendre Graphe de transmittance sans fluctuations/ondulations et avec une forte pente au voisinage de la fréquence de coupure

Les filtres de Butterworth[modifier | modifier le wikicode]

Les filtres de Butterworth ont un gain presque totalement constant sur toute la bande passante. En dehors de la bande passante, le gain diminue régulièrement avec la fréquence, mais à un rythme assez faible comparé aux autres filtres. Par exemple, un filtre peut avoir un gain qui diminue de 5 décibels à chaque fois que la fréquence est multipliée par 10, guère plus. Cela en fait des filtres qui élimnent mal les fréquences non-désirées.

Si on regarde le diagramme de Bode (relation gain-fréquence), celui-ci est plat dans la bande passante et a une forme de droite en dehors. Il y a une légère courbure autour de la fréquence de coupure, plus ou moins prononcée selon l'ordre du filtre. Quant au déphasage, il est minimal dans la bande passante, mais augmente progressivement en dehors, avant de se stabiliser pour les fréquences très éloignées de la bande passante.

Diagramme de Bode (gain-fréquence) d'un filtre de Butterworth.

Ci-dessous sont illustrés les diagrammes de Bode pour un filtre de Butterworth de type passe-bas et passe-haut.

Filtre passe-bas.
Filtre passe-haut.

La formule de la transmittance d'un tel filtre est la suivante :

, avec n l'ordre du filtre.

Le gain qui correspond est donc le module de la transmittance, qui vaut :

, avec n l'ordre du filtre.

A la fréquence de coupure, la transmittance et le gain sont donc de :

et , avec n l'ordre du filtre.

Les filtres de Chebyshev[modifier | modifier le wikicode]

Relation gain-fréquence pour un filtre de Chebyshev.

Les filtres de Chebyshev ont un comportement inverse des filtres de Butterworth. Ils ont une chute rapide de transmittance dans la bande non-passante, ce qui en fait des filtres qui coupent bien les fréquences non-désirées, contrairement aux filtres de Butterworth. Par contre, la transmittance varie dans la bande passante, là où un filtre de Butterworth garde un gain constant. Si on observe ce qui se passe dans la bande passante, on voit que le gain oscille quand la fréquence augmente. Sur le graphe gain-fréquence ci-contre, on voit une sorte de sinusoïde déformée dans la bande passante, dont les vagues se font de plus en plus proches en approchant de la fréquence de coupure. Les vagues ont toutes la même hauteur, hauteur qui est minimisée dans le cadre des filtres de Chebyshev. Le nombre de cycles, de vagues sinusoïdales, est égal à l'ordre du filtre. Par exemple, le schéma ci-contre possède deux cycles ce qui fait qu'il s'agit d'un filtre d'ordre 2.

Précisons que le déphasage est maximal près de la fréquence de coupure pour de tels filtres.

Relations gain-fréquence et déphasage-fréquence pour un filtre de Chebyshev.

La formule de la transmittance d'un tel filtre est la suivante :

, pour .
, pour .
, pour .



Les filtres du premier et second ordre

Dans ce chapitre, nous allons voir les filtres du premier et du second ordre, plus précisément la manière dont ils sont fabriqués à partir de composants plus simples. LVous pouvez vous demander en quoi ces filtres méritent qu'on leur attribue un chapitre entier. La raison est que ces filtres de base sont souvent utilisés pour fabriquer des filtres plus compliqués. Il est parfaitement possible de créer des filtres extrêmement puissants en combinant les filtres simples que nous allons voir dans cette section.

Pour rappel, il existe deux grands types de filtres : les filtres passifs d'un côté, les filtres actifs de l'autre. Les filtres passifs sont composés intégralement de composants passifs, d'où leur nom. Ils ne contiennent donc que des résistances, des condensateurs et des bobines. Ils regroupent des filtres classiques, comme les filtres RC, RL et RLC que nous allons voir dans ce qui suit. À l'inverse, les filtres actifs contiennent des composants actifs, comme des amplificateurs opérationnels. Dans ce chapitre, nous allons d'abord voir les filtres passifs, avant de voir les filtres actifs.

Les filtres passifs du premier et second ordre[modifier | modifier le wikicode]

Dans cette section, nous allons voir les filtres passifs les plus courants : les circuits RC, RL, et RLC.

Une étude détaillée des circuits RC, RL et RLC est disponible dans le chapitre Les circuits RL, RC et RLC du wikilivre sur l’électricité. Je conseille vivement de lire ce lien avant de terminer la lecture de ce chapitre.

Le circuit RC série[modifier | modifier le wikicode]

Circuit RC série.

Le filtre RC série est composé d'une résistance et d'un condensateur placés en série. La tension d'entrée est envoyée sur la résistance, alors que la tension de sortie est récupérée aux bornes du condensateur. Le montage est équivalent à un pont diviseur et on peut calculer la tension de sortie à partir de la tension d'entrée et des impédances et du condensateur et de la résistance :

On obtient donc la transmittance complexe suivante :

pour le circuit RC.

Maintenant, étudions le circuit RC quand la fréquence de la tension d'entrée varie. Il se trouve que les choses varient selon que l'on étudie la tension aux bornes de la résistance ou du condensateur. Pour les hautes fréquences, on a :

A basse fréquence, on a :

On voit que la tension aux bornes du condensateur est maximale à basse fréquence et nulle à haute fréquence. Ce montage agit donc comme un filtre passe-bas, à savoir qu'il laisse passer les basses fréquences, mais filtre, atténue les hautes fréquences. La tension aux bornes de la résistance fait exactement l'inverse : elle est maximale à haute fréquence et nulle à basse fréquence. Il s'agit donc d'un filtre passe-haut, à savoir qui filtre les basses fréquences mais n'atténue pas les hautes.

Comportement en fréquence du circuit RC - tension aux bornes de la résistance.
Comportement en fréquence du circuit RC - tension aux bornes du condensateur.

Le circuit RL série[modifier | modifier le wikicode]

Circuit RL série.

Le filtre RL série est composé d'une résistance et d'une bobine placées en série. La tension d'entrée est envoyée sur la résistance, alors que la tension de sortie est récupérée aux bornes de la bobine.

On peut obtenir la relation suivante à partir des lois élémentaires de l'électricité :

On obtient donc la transmittance complexe suivante :

pour le circuit RL.

Passons au cas du circuit RL. Il se trouve que les choses varient selon que l'on étudie la tension aux bornes de la résistance ou du condensateur. Pour les hautes fréquences, on a :

A basse fréquence, on a :

On voit que la tension aux bornes de la résistance est maximale à basse fréquence et nulle à haute fréquence. Ce montage agit donc comme un filtre passe-bas, à savoir qu'il laisse passer les basses fréquences, mais filtre, atténue les hautes fréquences. La tension aux bornes de la bobine fait exactement l'inverse : elle est maximale à haute fréquence et nulle à basse fréquence. Il s'agit donc d'un filtre passe-haut, à savoir qui filtre les basses fréquences mais n'atténue pas les hautes. Ce circuit est donc l'exact opposé du circuit RC.

Le circuit RLC série[modifier | modifier le wikicode]

Circuit RLC.

Le filtre RLC série est composé d'une résistance, d'un condensateur et d'une bobine placées en série. La tension d'entrée est envoyée sur la résistance, alors que la tension de sortie est récupérée aux bornes de la bobine.

On peut obtenir la relation suivante à partir des lois élémentaires de l'électricité :

On peut calculer la tension aux bornes de la résistance en fonction de la tension d'entrée :

On a donc la transmittance suivante :

Le comportement de cette transmittance est intermédiaire entre celui d'un filtre passe-bas et passe-haut. Rien d'étonnant à cela, vu que ce circuit est un mélange entre un circuit RC et RL, qui sont respectivement passe-haut et passe-bas. Rien d'étonnant à ce qu'elle hérite des propriétés des circuits dont elle est composée. Son impédance est très élevée pour les hautes et basses fréquences, avec un minimum pour une bande de fréquences qui dépend du circuit. Elle filtre aussi bien les basses que hautes fréquences, ce qui fait qu'elle ne laisse passer que les fréquences intermédiaires. On dit qu'il s'agit d'un filtre passe-bande, sous-entendu qui ne laisse passer que les fréquences comprises dans un certain intervalle, une bande de fréquences.

Les filtres actifs[modifier | modifier le wikicode]

Les filtres passifs précédents sont les plus simples à étudier et à comprendre. Mais il existe aussi des filtres actifs basés sur des amplificateurs opérationnels, des transistors ou des diodes, parfois d'autres composants. De nos jours, la méthode la plus utilisée dans l'industrie est celle des filtres actifs à capacité commutée, mais bien d'autres existent. Dans les grandes lignes, les filtres actifs fonctionnent à peu près comme leur équivalent passif, avec quelques différences mineures. Dans le détail, certains composants, comme les inductances ou les résistances, sont remplacés par un circuit équivalent qui comprend un AOP ou des transistors. La raison à cela est que, pour des circuits à basse fréquence, les inductances demandées par un filtre passif sont encombrantes et peu pratiques. De plus, il est difficile d'intégrer des inductances dans des circuits intégrés modernes, du fait des techniques de fabrication actuellement en vigueur. Même chose pour les résistances, qui ne sont pas simples à intégrer dans les circuits actuels. Heureusement, on peut fabriquer des filtres efficaces en se passant d'inductances et de résistances, en utilisant intelligemment des composants actifs. Les méthodes pour ce faire sont assez nombreuses, comme vous allez le voir dans ce qui suit.

Remplacement d'une inductance par un circuit composé d'un AOP, de résistances et d'un condensateur.

Les filtres actifs les plus simples sont construits sur le même modèle qu'un circuit passif, sauf que l'inductance est remplacée par un petit circuit. Ils sont construits autour d'un AOP, entouré de résistances et de condensateurs. Cela leur vaut le nom de filtres actifs à réseau RC. Dans de tels filtres, l'inductance est remplacée par un petit circuit composé d'un AOP, d'une résistance et d'un condensateur. De tels circuits, qui simulent une inductance, sont appelés des simulateurs d'inductance. Il en existe un grand nombre, celui illustré ci-contre n'étant qu'un exemple parmi tant d'autres. Nous n'allons pas tous les étudier, mais sachez que celui qui est le plus utilisé actuellement est celui crée par Antoniou en 1969. Il a pour particularité d'être le seul qui soit très tolérant aux défauts de l'AOP utilisé, ce qui en fait le meilleur circuit possible actuellement connu. Par contre, il simule une inductance placée en parallèle du reste du circuit (remarquez dans le schéma ci-dessous qu'il n'y a qu'une seule connexion avec le reste du circuit).

Circuit de simulation d'inductance d'Antoniou.
Capacité commutée.

Dans les filtres à capacités commutées, les résistances sont remplacées par des condensateurs couplés à des interrupteurs (des transistors, le plus souvent). Le principe de cette technique est que les deux interrupteurs sont commandés par un signal d'horloge. Le premier interrupteur s'ouvre sur un front montant et se ferme sur un front descendant, alors que le second fait l'inverse. Ainsi, le condensateur se charge suite au front montant, puis se décharge suite au front descendant. Sur une période, il laisse passer un courant bien précis, qui dépend de la tension d'entrée (qui sert de tension de charge), ce qui fait qu'il se comporte comme une résistance. Lors d'une période, il accumule, puis relâche une quantité de charges électriques. Le courant associé est donc de . Cela donne une résistance égale à : . Les circuits à capacité commutée remplacent donc les résistances par le circuit illustré ci-contre. Cela ne se fait cependant pas sans heurts, le circuit devant souvent être modifié de manière à accommoder ce changement. Le simple remplacement ne suffit généralement pas et d'autres modifications assez tordues sont parfois nécessaires.

Dans ce qui suit, nous allons voir les filtres de type RC, sans voir en détail les filtres à capacité commutées. Pour faire simple, dites-vous que ces derniers sont fabriqués en remplaçant les résistances par des capacités commutées. Ce n'est pas totalement faux, mais c'est une simplification acceptable pour ce cours. Dans ce ui va suivre, nous allons donc voir les filtres les plus simples, les plus connus, en commençant par les filtres du premier ordre.

Les filtres actifs RC du premier ordre[modifier | modifier le wikicode]

Il existe plusieurs filtres actifs RC de premier ordre. En voici quelques exemples, illustrés dans le tableau ci-dessous. Notez que ceux-ci n'utilisent pas le circuit de simulation d'inductance d'Antiniou.

Réponse en fréquence Schéma du circuit Formule de la transmittance
Filtre passe-bas
Filtre passe-bas actif du premier ordre.
, avec
Filtre passe-haut
Filtre passe-haut actif du premier ordre.
, avec

Les filtres du second ordre sont beaucoup plus nombreux, tant les méthodes pour les fabriquer sont différentes.

Les filtres actifs RC de type Sallen-Key[modifier | modifier le wikicode]

Une des nombreuses méthodes pour fabriquer de tels filtres se base sur la topologie Sallen-Key, aussi appelée voltage control voltage source (VCVS). Elle est illustrée ci-dessous, dans le cas général et pour les filtres passe-bas et passe-haut. Elle a pour avantage d'être assez peu sensible aux défauts de l'AOP. La raison est que l'AOP est utilisé en tant qu'amplificateur seul, et non dans un montage intégrateur (comme des les autres filtres). Cela permet un fonctionnement à haute fréquence du montage, chose que les autres filtres ont du mal à faire sans AOP de grande qualité. Un autre avantage de cette topologie est qu'elle utilise des résistances et des condensateurs relativement similaires. Entre la plus petite résistance du montage et la plus grande, il n'y a guère qu'un ordre de grandeur en terme de conductance. Pareil pour les capacités, la plus petite étant plus faible d'à peine un ordre de grandeur de la plus grande. Par contre, de tels filtres sont assez difficile à régler, pour obtenir la bande passante exactement souhaitée.

Réponse en fréquence Schéma du circuit Formule de la transmittance
Topologie générale Sallen-Key Generic Circuit
Filtre passe-bas Sallen-Key Lowpass General
Filtre passe-haut Sallen-Key Highpass General

Les filtres actifs RC à rétroaction multiple[modifier | modifier le wikicode]

Une autre méthode est celle des filtres à rétroaction multiple, illustré ci-dessous. Il a les défauts et qualités inverses de celles des filtres Sallen-Key : bande passante assez mauvaise, fonctionnement à haute fréquence compliqué, résistances et condensateurs déséquilibrées, mais réglage facile.

Exemple de filtre passe-bas à rétroaction multiple.

Les filtres actifs RC de type Biquad[modifier | modifier le wikicode]

Les filtres Biquad et les filtres à état variable sont deux types de filtres assez proches l'un de l'autre. Ils ont des avantages et inconvénients similaires aux filtres à rétroaction multiple. Une de leur particularité est que suivant où l'on prend la tension de sortie, la tension sera filtrée en passe-bas, passe-haut, ou passe-bande. Le même circuit peut donc servir à la fois de passe-bas, de passe-haut et passe-bande.

Détaillons un peu ces filtres. Ils sont composés d'un ou deux intégrateur en série, couplés à d'autres montages/composants. Dans le cas des filtres Biquad, ils sont formés de plusieurs montages à AOP mis en série : un sommateur, deux intégrateurs et éventuellement des montages multiplieurs. Dans certaines variantes optimisées, on arrive à n'utiliser qu'un seul intégrateur, mais le fonctionnement du circuit devient plus complexe. Pour comprendre comment fonctionne un filtre Biquad, il faut partir de l'équation de la transmittance d'un filtre du second ordre. Pour un filtre passe-haut, celle-ci peut s'écrire comme suit :

On peut réécrire cette équation comme ceci :

Il se trouve que le terme s'obtient avec un simple sommateur. De même, le terme s'obtient en faisant passer la tension dans un intégrateur dont la constante de temps est égale à . Un second passage dans un intégrateur identique donne le terme manquant . D'où la présence d'un montage sommateur et de deux montages intégrateurs à AOP. Reste ensuite à ajouter des multiplieurs pour tenir compte de divers facteurs multiplicatifs comme le facteur K et le facteur de qualité Q.

Maintenant, reprenons l'équation du filtre passe-haut vu en début de section. En la multipliant par , on obtient l’équation d'un filtre passe-bande du second ordre ! Or, multiplier la tension de sortie initiale par est exactement ce que fait le premier intégrateur. En clair, la sortie du premier intégrateur se comporte comme un filtre passe-bande, dont le facteur de qualité est le même que le filtre passe-haut initial. Et si on re-multiplie encore par , on obtient l'équation d'un filtre passe-bas, cette fois-ci. En clair, la sortie du second intégrateur est un filtre passe-bas dont le facteur de qualité est le même que les deux autres filtres précédents. On a donc trois filtres en un !

Filtre Biquad

Précisons qu'il existe plusieurs manières de traduire cette équation en circuit, de nombreuses simplifications et optimisations étant possibles. La version la plus proche de l'équation, sans optimisations particulières, donnerait un circuit semblable à celui-ci :

Exemple de filtre Biquad de type Two-Thomas.

Une autre possibilité est la suivante :

Filtre Biquad de type Kerwin-Huelsman-Newcomb.

Et enfin, voici une dernière possibilité :

Exemple de filtre Biquad.

Il est possible de ruser pour éliminer des AOP au point de n'en conserver qu'un seul, ce qui donne un filtre Biquad à amplificateur unique. L'idée est de remplacer les AOP, sauf un, par un réseau RC, c'est à dire composé de résistances et de condensateurs. Ce réseau RC est placé dans une boucle, qui relie la sortie de l'AOP à son entrée. La conception du réseau RC est relativement complexe, aussi je n'en parlerais pas ici. Au niveau de leurs caractéristiques, ces circuits ont de moins bonnes performances, comme un gain ou une bande passante limitée. Mais ils sont parfaitement adapté aux circuits basse-consommation, pour lesquels un grand nombre d'AOP a tendance à faire augmenter la consommation plus que raison.

Il existe de nombreux autres types de filtres du second-ordre. Les voir en détail ne serait pas utile, ce qui fait que nous allons nous arrêter là pour cette section.



Les oscillateurs (générateurs de fréquence)

Les oscillateurs électroniques sont des circuits qui fournissent une tension périodique. Ils sont aussi appelés des générateurs de fréquence. Leur utilité principale est de créer un signal d'horloge, de forme sinusoïdale, carrée, triangulaire, etc. Mais ils peuvent avoir d'autres utilités, comme créer la porteuse pour un signal modulé en fréquence ou en phase. On distingue plusieurs types oscillateurs, suivant la forme du signal périodique créé.

  • Les oscillateurs linéaires fabriquent un signal sinusoïdal. Leur nom est quelque peu trompeur, une sinusoïde n'étant pas un signal linéaire. Heureusement, on peut aussi les appeler oscillateurs harmoniques, nom qui trahit le fait qu'ils créent des sinusoïdes (des harmoniques).
  • Les autres oscillateurs fabriquent des signaux carrés, triangulaires, ou autre. Pour les opposer aux oscillateurs linéaires, on les appelle improprement oscillateurs non-linéaires, ou encore générateurs de fonction, voire oscillateurs à relaxation.
Formes les plus courantes pour le signal périodique crée par l'oscillateur.

Les oscillateurs harmoniques fournissent une tension sinusoïdale. Il en existe un très grand nombre et tous ne sont pas fabriqués sur le même modèle. Néanmoins, si on analyse le fonctionnement de tous les oscillateurs harmoniques, on peut remarquer qu'on peut les classer en deux grands types. Tous les oscillateurs appartiennent à une de ces deux catégories, qui décrivent le principe de fabrication de l'oscillateur. On distingue donc les oscillateurs à rétroaction et les oscillateurs à résistance négative.

Dans ce qui va suivre, nous allons d'abord voir les oscillateurs harmoniques à résistance négative, avant de passer aux oscillateurs à rétroaction, puis les oscillateurs à relaxation.

Les oscillateurs à résistance négative[modifier | modifier le wikicode]

Oscillateurs à résistance négative.

Les oscillateurs à résistance négative sont fabriqués en mettant en série un circuit résonant avec une résistance négative.

Une résistance négative n'est pas un composant électronique unique à proprement parler, mais un circuit qui simule une résistance un peu particulière, appelée résistance négative. Dans le cas qui nous intéresse, la résistance en question peut être aussi bien une résistance négative statique que dynamique. Dans le premier cas, on veut dire que la tension et le courant à ses bornes ne sont pas dans le bon. Pour une résistance normale, la tension et le courant sont des sens opposés : la tension va d'une borne à l'autre, le courant va dans le sens inverse. Mais pour une résistance négative, les deux sont dans le même sens. Pour une résistance dynamique négative, le courant qui passe dans la résistance diminue quand on augmente la tension, jusqu'à un certain point.

Résistance négative statique.
Résistance négative dynamique.

Le circuit résonant est un circuit qui se comporte approximativement comme un oscillateur en lui-même. Le cas le plus connu est le circuit LC, où un condensateur et une inductance sont placés en série/parallèle. Un autre exemple est un cristal de Quartz soumis à un échelon de tension. De tels circuits ont un comportement périodique, qui peut être utilisé pour fabriquer une tension sinusoïdale. Cependant, de tels circuits sont rarement parfaits : ils ont une résistance interne qui amortit leurs oscillations. Pour éliminer l’amortissement, il suffit de compenser leur résistance interne par quelque chose, ce quelque chose étant une résistance négative égale. En plaçant la résistance négative en série, on arrive à annuler la somme des deux résistances (interne et négative), ne laissant que le circuit résonant parfait, qui fonctionne comme un oscillateur.

Les oscillateurs (R)LC sans résistance négative[modifier | modifier le wikicode]

Illustration de la tension et du courant dans un circuit LC.

Un circuit LC, composé d'une bobine et d'un condensateur en série/parallèle, est en soi un oscillateur isolé. La tension aux bornes d'un tel circuit est en effet égale à :

La tension mesurée aux bornes du condensateur est une tension alternative sinusoïdale et il en est de même aux bornes de la bobine, à cause de la loi des mailles. La tension et le courant sont illustrés dans la figure de droite. La tension sinusoïdale a une fréquence égale à :

Illustration du courant dans un circuit LC.

Mais cela ne vaut que pour des oscillateurs idéaux, basés sur des inductances et des condensateurs idéaux. Mais dans la réalité, les inductances ont une résistance non-nulle. Il n'existe donc pas de circuit LC pur, dans la réalité. Tous les circuits LC réels se comportent comme des circuits RLC idéaux. Et quand on le soumet à une impulsion (un échelon de tension brutal, par exemple), un circuit RLC ne fournit pas de tensions sinusoïdale en sortie. A la place, la tension de sortie ressemble à une sinusoïde qui s'atténue avec le temps, une sinusoïde amortie. Une telle sinusoïde est illustrée ci-dessous. La vitesse d'amortissement de la sinusoïde dépend de la résistance, plus précisément du facteur d'amortissement du circuit qui est proportionnel à la résistance.

Tension d'un circuit RLC en régime transitoire. On voit que la tension forme une oscillation sinusoïdale amortie, l'amortissement dépendant de la résistance. Chaque courbe correspond à une valeur différente de la résistance, et plus précisément à une valeur distincte du facteur d'amortissement (qui est proportionnelle à la résistance).

Pour supprimer l'amortissement, il faut éliminer la résistance. En compensant la résistance du circuit avec une résistance négative, on obtient bien un oscillateur. La résistance négative a juste à être placée en série du circuit (R)LC, avec une valeur de résistance exactement calibrée.

Oscillateur à résistance négative.

En guise de résistance négative, on peut utiliser divers montages ou composants électroniques. On peut utiliser les montages à AOP, des transistors câblés d'une manière bien précise, etc. Et chaque possibilité donne naissance à un oscillateur bien particulier.

L'oscillateur avec une résistance négative émulée par un AOP[modifier | modifier le wikicode]

Il est possible d'émuler une résistance négative par un montage à AOP. Les montages en question sont illustrés ci-dessous.

Émulation d'une résistance négative avec un montage à AOP - cas général.
Émulation d'une résistance négative avec un montage à AOP - seconde possibilité.

En utilisant un tel circuit dans un oscillateur à résistance négative, on obtient ce circuit :

Circuit RLC couplé à une résistance négative à AOP.

L'oscillateur à diode Gunn[modifier | modifier le wikicode]

L'exemple qui suit, utilise une diode Gunn, un composant qui a une résistance dynamique négative. Nous n'en dirons pas plus sur ce composant pour le moment, tout ce qu'il y a à savoir est qu'elle a une résistance dynamique négative. La diode est placée en série du circuit (R)LC. Elle est choisie de manière à avoir une résistance exactement opposée à la résistance du circuit RLC. Le circuit en question est illustré ci-contre.

Notons que le circuit ne fonctionne que si une tension est placée de manière à charger le circuit (R)LC. Il faut donc ajouter un générateur de tension couplé à un interrupteur. L’interrupteur est fermé pour charger le circuit, et s'ouvre une fois l'oscillateur chargé. Le circuit complet est illustré ci-dessous.

Oscillateur à diode Gunn. La diode Gunn sert de résistance négative. Le générateur de tension et le composant sur le côté droit du circuit servent à fabriquer l'échelon de tension qui lance l'oscillation.

Les oscillateurs à rétroaction[modifier | modifier le wikicode]

Oscillateur à rétroaction.

Les oscillateurs du premier type sont les oscillateurs à rétroaction. Leur nom trahit le fait que ce sont des circuits à rétroaction, comme ceux que nous avons vu dans le chapitre sur la rétroaction. Et pour être précis, ce sont des circuits à rétroaction positive. Rappelons que ces circuits sont composé de deux circuits mis en boucle l'un avec l'autre. Le premier est ici un AOP, qui multiplie par son entrée. L'autre circuit fait la même chose, sauf que le coefficient est différent et est noté . Pour résumer, est le coefficient d'amplification de l'AOP, alors que est le coefficient d'amplification du circuit de rétroaction. Dans le cas présent, un oscillateur à rétroaction est basé sur un AOP mis en boucle avec un filtre passe-bande.

On pourrait croire que l'on peut réutiliser les acquis vus dans le chapitre sur la rétroaction, mais il n'en est rien. Dans le chapitre mentionné, nous avions parlé des oscillateurs stables, dans le sens où le circuit voit sa sortie se stabiliser à une valeur fixe. La transmittance d'un tel circuit est égal à :

Or, un oscillateur ne fonctionne pas en régime stable, mais en régime instable. En clair, sa transmittance doit être infinie, à savoir que sa sortie doit être finie pour une entrée nulle.

Pour cela, il faut que le produit . En conséquence, le filtre passe-bande est tel qu'il annule l'amplification de l'AOP : son est l'inverse de l' de l'AOP, ce qui fait que leur produit vaut 1. Un signifie que le gain d'un tour de la boucle (un passage par l'AOP, puis dans le circuit de rétroaction) est de 1 : le signal n'est ni amplifié, ni atténué lors d'un passage das la boucle.

Précisons que ce critère n'est réalisé que pour une fréquence bien définie, la fréquence du signal à produire. Pour les autres fréquences, le produit est inférieur à 1. En conséquence, la fréquence sélectionnée va rester, alors que toutes les autres fréquences vont progressivement. Le circuit va donc reproduite la fréquence voulue, mais les autres fréquences seront supprimées.

Reste qu'un circuit à rétroaction est censé avoir une entrée. En théorie, on pourrait ajouter une entrée au circuit, qui envoie un signal quelconque. Mais les oscillateurs à rétroaction sont différents. Il n'y a pas nécessité d'avoir une entrée. En réalité, le fil en entrée de l'AOP subit toujours de petites variations de tension, liées à des perturbations électromagnétiques ou à des variations de tension aléatoires. Ces variations sont une forme de bruit, qui a diverses origines : bruit d'origine thermique lié au déplacement thermique des charges du métal, autres. Ce bruit est, comme tout signal, la superposition d'une infinité de fréquences, la fréquence voulue en faisant partie. La fréquence voulue sera alors amplifiée par l'AOP, passé au filtre passe-bande, et cela plusieurs fois de suite. Les autres fréquences finiront par être atténuées, ne laissant que la fréquence voulue.

Exemple d’oscillateur à rétroaction de type RC : le l'oscillateur Twin T.

Les oscillateurs RC et LC à rétroaction[modifier | modifier le wikicode]

Le filtre passe-bande utilisé peut être un circuit RC, un circuit LC, un filtre actif, voire un filtre fabriqué avec un cristal de Quartz. Les oscillateurs RC utilisent un réseau de résistances et de condensateurs comme filtre passe-bande. Les oscillateurs LC utilisent, quant à eux, un réseau d'inductances et de condensateurs. Ils sont plus rareset les plus connus sont les oscillateurs Coolpits et Hartley. Ils ont un circuit LC pour filtre passe-bande et l'amplificateur du montage est implémenté avec un transistor unique.

Oscillateur Colpitt.
Oscillateur Hartlet.

L'oscillateur de Wien[modifier | modifier le wikicode]

Oscillateur de Wien.

L'oscillateur de Wien est fabriqué en couplant un montage non-inverseur à un réseau RC. Le réseau RC est composé d'un circuit RC série placé en série avec un circuit RC parallèle. Le circuit est illustré ci-contre. Le réseau RC agit comme un filtre passe-bande assez particulier. Le circuit RC série agit comme un filtre passe-haut, alors que le circuit RC parallèle agit comme un filtre passe-bas (il est alimenté par un courant, compte tenu de la configuration du circuit, ce qui lui permet d'agir comme un filtre passe-bas). L'ensemble du réseau RC agit donc comme un filtre passe-bande.

Oscillateur de Wien où le montage non-inverseur et le filtre passe-bande sont mis en évidence.
Oscillateur de Wien, avec les impédances des circuits RC. Le terme s utilisé dans les formules d'impédance est une forme abrégée de .

Le gain de boucle de ce circuit est égal au produit de deux termes : le gain du montage non-inverseur et le gain du réseau RC.

Le gain du montage non-inverseur est égal à :

Pour le réseau RC, la transmittance dépend de l'impédance du circuit série , et de celle du circuit parallèle . En analysant le circuit, on trouve que sa transmittance est égale à :

Le gain de boucle vaut donc :

En remplaçant les valeurs d'impédances par leur valeur respective, on trouve :

Pour permette une oscillation, il faut que le déphasage entre entrée et sortie de la boucle soit nul. Cela signifie que la transmittance doit être un nombre réel. Pour cela, il faut que , ce qui n'est possible que pour . A cette fréquence, on a :

Pour que , il faut que .

L'oscillateur à déphasage[modifier | modifier le wikicode]

Oscillateur à déphasage.

L'oscillateur à déphasage couple un AOP à gain négatif à un réseau RC qui sert de filtre passe-bande.

Par AOP à gain négatif, on veut simplement dire que l'AOP amplifie la tension d'entrée et change son signe. Dans le cas le plus simple, l'AOP à gain négatif est implémenté par un simple montage inverseur. Le gain d'un tel montage est négatif, égal à :

Le fait que l'AOP ait un gain négatif signifie qu'il déphase le signal d'entrée de 180°. Le réseau RC doit donc avoir lui aussi in déphasage de 180°, pour que le déphasage de la boucle soit nul. Sans quoi, il ne peut pas y avoir d'oscillations. Le réseau RC est en trois sections, trois circuits RC placés en série l'un de l'autre. Le nombre de cellules RC mises en série n'est pas anodin : le circuit ne fonctionnerait pas avec moins de trois cellules. En effet, un réseau RC à une ou deux cellules en série ne peut pas avoir de déphasage égal à 180°. il faut absolument au moins trois cellules pour cela.

La fréquence d'un tel circuit est de :

L'oscillateur à Quartz[modifier | modifier le wikicode]

Les oscillateurs RC et LC sont utilisés pour fournir des signaux de faible fréquence, de moins de 100 Mhz. Difficile de les utiliser au-delà, en raison de la taille des condensateurs et des résistances. Pour des fréquences plus élevées, on doit utiliser des oscillateurs à Quartz.

Les cristaux de Quartz comme filtres passe-bande[modifier | modifier le wikicode]

Avec ceux-ci, le filtre passe-bande, le circuit de rétroaction, est composé d'un cristal de Quartz qui se comporte comme un filtre passe-bande mécanique. Cela vient d'une des propriétés des cristaux de Quartz : la piézoélectricité. Un matériau piézoélectrique, comme le Quartz, se déforme en réaction à un champ électrique. Et réciproquement, leur déformation déplace leurs charges internes et un champ électrique apparait sur les faces du cristal. Si on applique une tension périodique sur le cristal, il va se déformer et ces déformations vont elles-mêmes générer une tension périodique en réponse. Le cristal se comporte donc comme un composant, qui prend en entrée une tension et fournit en sortie une autre tension.

Circuit équivalent d'un cristal de Quartz.

Le cristal de Quartz se comporte comme un circuit RLC avec une capacité en parallèle, comme illustré ci-contre. Sachant qu'un filtre RLC est un filtre passe-bande, le cristal se comporte comme un filtre passe-bande. La transmittance inverse d'un cristal de Quartz est donc égale à :

En éliminant l'influence de la résistance, on trouve une transmittance de :

On peut reformuler l'équation précédente comme suit :

L'analyse des équations précédentes nous dit que le cristal a deux fréquences de résonance, deux fréquences d'oscillation possibles.

  • Une résonance série égale à :
  • Une résonance parallèle égale à :

Si on étudie l'impédance du cristal en fonction de la fréquence, on obtient un spectre semblable à celui-ci :

Impédance d'un cristal de Quartz. Le module de l'impédance est en vert, le déphasage en rouge.

L'oscillateur de Pierce[modifier | modifier le wikicode]

L’oscillateur à Quartz le plus souvent abordé dans les cours d'électronique est l'oscillateur de Pierce. Dans celui-ci, l'amplificateur est implémenté avec une porte logique NON. Le filtre passe-bande est réalisé avec un cristal de Quartz en parallèle avec une résistance, auquel on a couplé deux condensateurs. Le circuit est illustré ci-dessous.

Oscillateur de Pierce : circuit.

Les oscillateurs non-linéaires[modifier | modifier le wikicode]

Les oscillateurs non-linéaires fournissent une tension de sortie qui n'est pas sinusoïdale, mais carrée, triangulaire ou autre. Globalement, les oscillateurs non-linéaires sont fabriqués à partir de blocs de base, appelés multivibrateurs. Ces derniers se subdivisent en plusieurs types, qui sont appelés les circuits astables, bistables et monostable. Un exemple de circuit bistable n'est ni plus ni moins que le montage comparateur à seuil, que nous avions vu dans le chapitre sur les montages à amplificateurs opérationnels. N'hésitez pas relire la section associée si vous avez oublié comment fonctionne ce circuit. Nous aurons à l'utiliser dans les circuits qui vont suivre.

Les types principaux d'oscillateurs non-linéaires[modifier | modifier le wikicode]

Les oscillateurs à relaxation sont composés de deux circuits : un circuit de charge et un circuit d'accumulation. Le circuit d'accumulation peut accumuler des charges électriques et se charger/décharger jusqu'à une certaine limite. Le circuit de charge s'occupe à intervalle régulier de remplir, puis de vider le circuit d'accumulation, à une fréquence bien définie. Le circuit d'accumulation est composé d'un condensateur ou d'une inductance, parfois des deux. Le circuit de charge est composé soit d'un AOP, soit d'un transistor, soit d'un comparateur, soit d'un relai, soit d'une résistance négative, etc. La fréquence du circuit dépend de la constante de temps du circuit d'accumulation (du produit RC ou RL).

D'autres oscillateurs non-linéaires sont fabriqués en couplant un oscillateur sinusoïdal avec un circuit qui transforme celle-ci en signal carré/triangulaire/autre. Pour obtenir un signal carré, il faut coupler l'oscillateur avec un circuit dit bistable. Un circuit bistable est un circuit dont la sortie ne peut prendre que deux valeurs : une tension maximale positive, ou une tension minimale nulle/négative. Le passage d'une tension à l'autre se produit en fonction de ce qu'on place sur l'entrée. Un exemple de circuit bistable est le comparateur à un seuil, vu il y a quelques chapitres. Pour rappel, le comparateur à un seuil est un circuit qui fournit une tension positive si la tension d'entrée dépasse un certain seuil, et une tension nulle/négative en dessous de ce seuil. Le comparateur à deux seuils, lui aussi vu il y a quelques chapitres, est aussi un circuit bistable. En couplant un oscillateur sinusoïdal avec un comparateur à un ou deux seuils, on obtient donc un signal carré.

Le cas le plus simple est celui où on couple un oscillateur linéaire avec un comparateur à un seuil. Si le signal d'entrée est une sinusoïde parfaite, alors le signal de sortie sera un signal carré presque parfait. Dans le détail, plus le slew rate de l'AOP est bon, plus le signal sera proche d'un signal carré. Si le signal n'est pas parfait, mais a de petites sautes brutales, l'usage d'un comparateur à un seul seuil peut poser quelques problèmes : les sautes du signal d'entrée peuvent se voir sur la sortie. Si une petite variation fait passer la tension sous le seuil ou au-dessus, alors le signal de sortie va s'inverser. Pour mitiger ce problème, on peut remplacer le comparateur à un seuil par un comparateur à deux seuils. Les sautes brutales de la tension d'entrée ne se voient plus systématiquement sur la sortie. Pour cela, il faut qu'elles passent sous le second seuil, qui est plus bas que le seuil unique du comparateur à un seuil.

Le multivibrateur astable[modifier | modifier le wikicode]

Oscillateur à relaxation basé sur un comparateur.

L'oscillateur que nous allons voir dans cette section est construit à partir d'un circuit bistable, comme un comparateur à deux seuils. En couplant le circuit bistable avec un circuit RC série, on obtient l'oscillateur. Le circuit bistable peut s'implémenter de beaucoup de manières différentes, que ce soit avec des AOP, des transistors, voire d'autres composants moins bien connus.

Les multivibrateurs astables à AOP[modifier | modifier le wikicode]

Pour le cas qui nous intéresse, le circuit bistable en question est un vulgaire comparateur à deux seuils, fabriqué avec des AOP. Le circuit est donc composé d'un AOP avec deux boucles de rétroaction : une boucle de rétroaction positive pour le montage comparateur à deux seuils, et une boucle de rétroaction négative avec le circuit RC. Dans le circuit RC, le condensateur sert de circuit d'accumulation, la résistance n'étant utile que comme intermédiaire à travers lequel on charge/décharge le condensateur. Le circuit est illustré ci-contre, ainsi que ci-dessous.

Oscillateur basé sur un comparateur à AOP.
Version altérée de l'oscillateur précédent.

Pour comprendre comment fonctionne un tel circuit, imaginons que la sortie du comparateur soit égale à la tension maximale. Dans ce cas, on a une tension positive en entrée du circuit RC, ce qui fait que le condensateur se charge jusqu'à atteindre cette tension. Cependant, la sortie du circuit RC est reliée à l'entrée négative de l'AOP (via la boucle de rétroaction négative). En conséquence, l'augmentation de la tension aux bornes du condensateur se répercute sur l'entrée du comparateur. Quand la tension d'entrée atteint le bon seuil, le comparateur bascule et sa tension de sortie passe dans le négatif, à sa tension minimale. Le comportement du circuit s'inverse alors. Le condensateur est soumis à une tension plus faible que celle à ses bornes, ce qui fait qu'il se vide. La tension à ses bornes diminue, ce qui se répercute à l'inverse sur l'entrée du comparateur. La tension d'entrée du comparateur augmente alors progressivement, au fur et à mesure que le condensateur se vide. Quand la tension d'entrée atteint le second seuil, le circuit rebascule. Et la boucle est bouclée, le circuit recommence de zéro.

La fréquence du circuit est égale à :

, avec .

Un tel circuit fournit une tension carrée d'un côté du circuit, mais une tension triangulaire déformée sur l'autre côté. En sortie du comparateur, on observe un signal carré, signe que la sortie du comparateur bascule entre sa tension maximale et sa tension minimale d'un seul coup. En sortie du réseau RC, on trouve la tension triangulaire, illustré ci-dessous. Vous reconnaitrez peut-être que chaque morceau de la courbe ressemble à une courbe de charge ou de décharge d'un condensateur, ce qui est compatible avec ce qu'on a dit précédemment.

Sortie d'un circuit multivibrateur astable.

En modifiant quelque peu le circuit précédent, on peut obtenir une tension triangulaire en lieu et place de la tension de charge/décharge exponentielle. Pour cela, il faut remplacer le circuit RC série par un montage intégrateur. Ce faisant, le condensateur accumule des charges, mais la tension de sortie du montage est le produit : tension de sortie du comparateur temps. Cette quantité augmente linéairement, ce qui lui donne un aspect de droite sur le graphique. En clair, les courbes de charge/décharge sont remplacées par des segments, ce qui en fait une tension triangulaire.

Les multivibrateurs astables à transistors[modifier | modifier le wikicode]

Il est possible d'implémenter le circuit astable en utilisant des transistors, des composants électroniques qui agissent comme des amplificateurs non-linéaires. Une implémentation d'un circuit astable est illustrée ci-dessous. Mais comprendre le fonctionnement de ce circuit demanderait de connaitre en détail le fonctionnement d'un transistor, ce qui sera vu dans les chapitres suivants. Nous n'en parlerons pas ici, donc.

Multivibrateur astable fabriqué avec des transistors.

Les multivibrateurs astables à lampe à néon[modifier | modifier le wikicode]

Lampe à néon.

Comme autre exemple, il était autrefois possible de fabriquer des oscillateurs avec des lampes à néon ! En couplant celles-ci avec un circuit RC série, on obtenait un oscillateur assez rustique, mais qui marchait. Le fonctionnement de ce montage est lié au fonctionnement de la lampe à néon, et plus précisément à ce qu'on appelle l'effet Pearson–Anson. Celui-ci dit que si l'on connecte une lampe à néon en parallèle avec un condensateur, et qu'on alimente le tout avec un courant continu, alors la tension de sortie du montage oscille spontanément. Le circuit lampe à néon + condensateur se comporte donc comme un oscillateur. Pour obtenir le courant continu, on peut utiliser un générateur de courant continu, ou alors une tension continue en série avec une résistance.

Multivibrateur astable fabriqué avec des lampes à néon.

La tension de sortie d'un tel oscillateur à lampe à néon était une tension presque triangulaire, semblable à la tension de sortie non-lissée de l'oscillateur astable à AOP. Il faut dire que le fonctionnement du montage est presque identique. La lampe à néon fonctionne comme une résistance variable à deux seuils. Pour faire simple, prenons le cas où la tension à ses bornes augmente progressivement. Dans ce cas, elle a une résistance élevée au-dessous d'une tension seuil, mais une résistance plus faible au-delà de la tension seuil. Quand la tension à ses bornes descend, c'est la même chose, sauf que le seuil est différent. Les seuils pour faire commuter la résistance sont respectivement élevé pour la faire baisser, faible pour la faire augmenter. Quand on connecte le montage, le condensateur est vide et la tension à ses bornes est basse. Vu que cette tension alimente la lampe à néon, la lampe à néon ne conduit pas et le condensateur se charge à travers la résistance. Mais quand la tension du condensateur dépasse la tension seuil haute, la lampe se met à conduire et le condensateur se décharge à travers la lampe à néon. La tension chute alors et descend tant qu'elle reste supérieure à la tension seuil basse. Une fois cette tension seuil basse atteinte, la lampe cesse de conduire le courant. Et rebelote : un nouveau cycle commence.

Oscillations de relaxation d'une lampe au néon.

Il était même possible d'enchainer plusieurs lampes à néon pour améliorer la tension en sortie de l'oscillateur.

Version altérée de l'oscillateur précédent.
Version altérée des oscillateurs précédents.



Les semi-conducteurs

Les semi-conducteurs sont des solides dont la résistance varie selon la température ou d'autres paramètres physiques. Ce comportement s'explique par le fait que les électrons des atomes deviennent des électrons libres si on leur donne une énergie suffisante. Les électrons arrachés aux atomes deviennent des porteurs de charge, qui peuvent alors conduire le courant. Le courant dans les semi-conducteurs est dominé par les électrons libres créés par "ionisation" du solide, ce qui fait que l'étude de cette "ionisation" est importante.

La théorie des bandes des solides[modifier | modifier le wikicode]

Bandes de conduction et de valence.

La théorie des bandes est une théorie physique qui décrit le fonctionnement des semi-conducteurs, mais aussi des conducteurs et des isolants. Nous allons la présenter sous une forme vulgarisée et particulièrement simplifiée. Pour résumer simplement, cette théorie dit que les électrons dans un solide peuvent être dans deux états : soit ils sont fortement liés aux atomes, soit ce sont des électrons libres. Si les électrons libres peuvent servir de porteurs de charges, ce n'est pas le cas des électrons liés. Là où les électrons libres peuvent parcourir la totalité du solide, les électrons liés confinés dans les atomes, d'où ils ne peuvent pas sortir. Les électrons liés appartiennent aux atomes (ils orbitent autour du noyau atomique) et participent aux liaisons chimiques entre atomes.

La différence entre les deux tient dans leur énergie : l'attraction atomique enlève un peu d'énergie aux électrons, pour des raisons que nous éludons ici. Les électrons de faible énergie sont liés aux atomes et ne peuvent pas servir de porteurs de charges. À l'inverse, les électrons à forte énergie sont des électrons libres, qui ont quitté l’attraction atomique du fait de leur forte énergie. Dans un solide, l'énergie d'un électron se trouve systématiquement dans deux intervalles possibles : un intervalle de faible énergie et un autre où elle est plus forte. Les électrons liés ont une énergie dans l'intervalle de faible énergie, appelé la bande de valence. À l'inverse, l'intervalle d'énergie des électrons libres est appelé la bande de conduction. Entre les deux, on peut trouver un intervalle d'énergie dans lequel aucun électron ne peut se trouver : la bande interdite.

Différence entre conducteur et isolants en fonction de l'énergie de Fermi et des bandes de Valence/conduction.

On peut déjà comprendre pourquoi certains matériaux sont naturellement conducteurs ou non. Au zéro absolu, les porteurs de charge vont se répartir dans les bandes de conduction et de valence, selon leur énergie. L'énergie maximale que peut avoir un électron au zéro absolu est appelée l'énergie de Fermi. Selon que cette énergie de Fermi se situe dans la bande de conduction ou non, on se trouve face à deux situations différentes.

  • Premier cas : l'énergie de Fermi se situe dans la bande de conduction. Des électrons se trouvent alors dans la bande de conduction, même au zéro absolu. Ce qui veut dire que le matériau contient naturellement des porteurs de charges pouvant conduire le courant et est donc conducteur.
  • Deuxième cas : l'énergie de Fermi se situe dans la bande de valence ou interdite. Dans ce cas, tous les électrons seront dans la bande de valence. Tous les électrons du matériau sont donc liés et aucun porteur de charge n'est disponible. Le matériau est alors isolant ou semi-conducteur (on verra pourquoi les semi-conducteurs sont dans ce cas juste après).

Semi-conducteurs et isolants[modifier | modifier le wikicode]

Dé-confinement d'un électron lié, qui devient un électron libre. Équivalent à un passage d'un électron de la bande de valence à celle de conduction.

Pour comprendre la différence entre semi-conducteurs et isolants, il faut étudier comment des électrons peuvent transiter entre les bandes de valence et de conduction. Il est possible de dé-confiner un électron en lui fournissant assez d'énergie, ce qui lui permet de vaincre l'attraction atomique et de quitter l'atome. Un bon moyen pour cela est d'augmenter la température du solide, ce qui augmente l'énergie cinétique des électrons. Dit autrement, dé-confiner un électron demande juste de lui fournir assez d'énergie pour passer de la bande de valence vers la bande de conduction. L'énergie qu'il faut fournir pour cela, à savoir la différence d'énergie entre bande de valence et de conduction, est appelée le gap d'énergie. On peut le voir grossièrement comme une énergie d'ionisation pour un électron dans un solide.

La différence entre semi-conducteurs et isolants tient dans le gap d'énergie.

  • Pour les isolants, le gap d'énergie est important : il faut fournir une grande quantité d’énergie énorme pour dé-confiner un électron. À des températures normales, la totalité des électrons sont des électrons liés aux atomes et le solide ne contient aucun porteur de charges. À de plus hautes températures, il est cependant possible de créer quelques électrons libres, mais rien de bien folichon.
  • Pour les semi-conducteurs, il faut une faible énergie pour dé-confiner un électron. Une petite augmentation de température suffit pour faire passer des électrons de la bande de valence vers la bande de conduction. Dit autrement, une augmentation de température assez faible permet de créer suffisamment d'électrons libres pour conduire le courant.
  • Pour les métaux, il n'y a pas besoin de fournir de l'énergie pour dé-confiner les électrons. Le métal contient naturellement des électrons libres, même à de faibles températures. Il conduit donc naturellement le courant. Les métaux sont naturellement ionisés, et on peut les voir comme un cristal ionisé qui baigne dans un fluide d'électrons libres. La bande de valence et de conduction se chevauchent.
Illustration du gap d'énergie entre conducteurs, semi-conducteurs et isolants.

Les trous quantiques[modifier | modifier le wikicode]

Trous quantiques.

Quand un électron lié devient un électron libre, l'atome initial s'ionise et obtient une charge positive opposée à celle de l'électron. D'après les règles compliquées de la physique quantique, on peut considérer qu'un déficit de charge se comporte comme une particule de charge positive, appelée trou. Il ne s'agit pas d'une vraie particule, mais on peut parfaitement faire comme si c'était le cas. Donc, toute formation d'un électron libre donne naissance à un trou dans l'atome qu'il quitte. Le processus inverse, à savoir la disparition d'un trou par capture d'un électron libre, est aussi possible. Il est possible qu'un électron libre se lie à un atome "ionisé", faisant disparaitre le trou. Ce processus est appelé la recombinaison.

Chose importante, les trous peuvent parfaitement se déplacer dans le solide, en sautant d'atome en atome, de proche en proche. Ils se comportent comme des porteurs de charge qui circulent dans le solide et permettent de conduire le courant. Pour comprendre pourquoi, il faut rappeler qu'un trou est un déficit d'électron dans un atome. Ce déficit d'électron peut être compensé par recombinaison avec un électron libre, mais aussi par un électron lié provenant d'un atome voisin. Dans ce cas, l'atome fournisseur de l’électron, initialement neutre, hérite du déficit de charge. Ainsi, le déficit d'électron se déplace dans le métal en sautant d'atomes en atomes, de proche en proche. Les électrons de valence étant attirés eux aussi par la borne positive, ils vont sauter d'atomes en atomes avec une préférence pour la direction positive. Ainsi, le courant dans les semi-conducteurs provient de deux sources : un courant d'électrons libres, et le déplacement des électrons atomiques d'atomes en atomes. Le courant de proche en proche des électrons se reformule alors comme un courant de trous, qui sont donc des porteurs de charge.

Les semi-conducteurs intrinsèques et extrinsèques[modifier | modifier le wikicode]

Les semi-conducteurs se différencient selon leur densité de trous et d'électron, qui peut varier selon divers paramètres. La température est déterminante pour certains semi-conducteurs, alors qu'elle l'est moins pour d'autres. Cela permet de classer les semi-conducteurs en deux types :

  • les semi-conducteurs intrinsèques ;
  • les semi-conducteurs extrinsèques.

Les semi-conducteurs intrinsèques[modifier | modifier le wikicode]

Les semi-conducteurs intrinsèques sont des semi-conducteurs pour lesquels la résistance dépend de la température. Ils sont totalement isolants au zéro absolu, mais leur résistance diminue quand on les chauffe. Dans ces semi-conducteurs, la formation des électrons-libres est liée exclusivement à la température. La formation des paires électrons-trous a lieu quand un électron reçoit suffisamment d'énergie thermique pour s'arracher de son atome. Il va de soi que plus la température est forte, plus cela a de chances d'arriver : le nombre d'électrons libres augmente donc avec la température, ce qui se répercute sur la conductivité. On peut remarquer que, la formation de chaque électron libre laisse un trou dans le solide. Dit autrement, si on note n la concentration en électrons libres et p la concentration en trous, on a :

On peut aussi reformuler l'équation précédente de la manière suivante, qui a l'avantage d'être aussi valable pour les semi-conducteurs extrinsèques.

Semi-conducteur intrinsèque. L'illustration montre que le nombre de trous et d'électrons y est le même. On voit aussi que les porteurs de charges n'apparaissent qu'au-delà d'une température suffisante.

Les physiciens ont démontré une formule qui permet de calculer directement la valeur de n (et donc de p). Dans celle-ci, on utilise les notations suivantes : A une constante qui dépend du matériau étudié, T pour la température, K pour la constante de Boltzmann, la largeur de la bande interdite (la bande de Fermi). Ce dernier paramètre est l'énergie minimum qu'il faut pour générer une paire électron-trou. C’est aussi l'énergie nécessaire pour briser une liaison covalente entre deux atomes, ce qui permet de transformer un électron lié en électron libre.

Les semi-conducteurs extrinsèques[modifier | modifier le wikicode]

Mais à côté des semi-conducteurs intrinsèques, on trouve les semi-conducteurs extrinsèques, dont la conduction ne dépend pas que de la température. Leur caractéristique principale est qu'ils ont des porteurs de charges disponibles, même au zéro absolu. On distingue les semi-conducteurs qui contiennent des trous au zéro absolu de ceux qui ont des électrons libres. Les premiers sont appelés semi-conducteurs P et les seconds des semi-conducteurs N. Les schémas ci-dessous illustrent cette distinction. Les trous sont en blanc, alors que les électrons libres sont en noir.

Semi-conducteur de type N.
Semi-conducteur de type P.

Il faut noter que des paires électrons-trous peuvent se former sous l'effet de la température, dans un semi-conducteur extrinsèque. Le semi-conducteur extrinsèque fonctionne donc comme un semi-conducteur intrinsèque, la différence étant dans le nombre de porteur de charge total. Là où le semi-conducteur intrinsèque n'a aucun porteur de charges au zéro absolu, le semi-conducteur extrinsèque part avec un peu d'avance. Cela fait que les semi-conducteurs extrinsèques ont naturellement une meilleure conductivité, vu qu'ils possèdent plus de porteurs de charges. Le nombre total de porteurs de charges dépend de la température, mais on peut cependant faire une remarque importante. Pour les deux types de semi-conducteurs, il se forme autant d'électrons libres que de trous sous l'effet de la température. Mais les semi-conducteurs extrinsèques possèdent un déséquilibre de charges au zéro absolu : ils vont avoir plus d'électrons que de trous au zéro absolu, ou l'inverse. Et cet excès n'est pas compensé par la formation de paires électrons-trous : ce déséquilibre est permanent. En clair, à la différence des semi-conducteurs intrinsèques, la quantité de trous n'est pas égale à la quantité d'électrons libres pour les semi-conducteurs extrinsèques. La relation entre nombre de porteurs de charges, valable pour les deux types de semi-conducteurs, est la suivante :

Le dopage de semi-conducteurs[modifier | modifier le wikicode]

Les semi-conducteurs extrinsèques sont fabriqués en ajoutant des impuretés à un semi-conducteur intrinsèque. Les impuretés ajoutent des trous ou des électrons libres au matériau de base, i, ce qui en fait un semi-conducteur extrinsèque. Ce processus d'ajout d'impuretés s'appelle le dopage, d'où le nom de semi-conducteur dopés qui est parfois donné aux semi-conducteurs extrinsèques. Lors du dopage, les impuretés vont se lier chimiquement aux atomes du semi-conducteur. Cependant, il restera un électron ou un trou en trop suite à ce processus, qui serviront de porteurs de charges.

  • Pour les semi-conducteurs de type N, les impuretés sont plus riches en électrons que les atomes du solide. Il y a alors un électron en trop après dopage, qui devient un électron libre.
  • Pour les semi-conducteurs de type P, les impuretés sont plus pauvres en électrons que les atomes du solide. Il manque un électron suite au dopage, ce qui donne un trou.
Dopage de type N.
Dopage de type P.

D'ordinaire, le dopage part d'un morceau de silicium et y ajoute des impuretés en Bore ou en Phosphore. Le silicium peut se lier chimiquement avec quatre atomes via ce qu'on appelle une liaison covalente. Avec celle-ci, l'atome de Silicium partage un électron avec un atome voisin : l'électron appartient alors aux deux atomes.Vu que le silicium peut participer à quatre liaisons covalentes, il peut fournir quatre électrons en tout. Les impuretés vont aussi former des liaisons covalentes avec le silicium, sauf qu'elles peuvent partager 3 ou 5 électrons dans des liaisons covalentes.

  • Par exemple, le Phosphore partage 5 électrons, et peut former 5 liaisons covalentes. Un atome de Phosphore prendra la place d'un atome de Silicium dans le solide et ne tissera que quatre liaisons covalentes (il ne peut pas en faire plus pour des raisons assez compliquées). Quatre électrons seront donc utilisés dans ces liaisons, ce qui laisse un électron en trop, qui quitte l'atome et devient un électron libre. Le dopage obtenu est dit de type N, à savoir qu'il ajoute des électrons libres dans le Silicium.
  • Le bore est dans la situation inverse, à savoir qu'il peut partager 3 électrons, ce qui donne trois liaisons covalentes. Il tisse bien quatre liaisons covalentes, le Silicium lui fournissant les électrons manquant, mais il manque quand même un électron. Ce manque n'est autre qu'un trou. Le dopage obtenu est dit de type P, à savoir qu'il ajoute des trous dans le Silicium.
Silicum normal, sans impuretés.
Silicium dopé avec du Phosphore - dopage de type N.
Silicium dopé avec du Bore - dopage de type P.
Silicium dopé avec du Phosphore - dopage de type N.
Silicium dopé avec du Bore - dopage de type P.

Effet du dopage sur les bandes de conduction et de valence[modifier | modifier le wikicode]

Le dopage a un effet sur les bandes de valence et de conduction, en augmentant ou diminuant leurs extrémités. Le dopage de type N abaisse la bande de conduction, alors celui de type P remonte la bande de valence. Dans les deux cas, la bande interdite se réduit, ce qui facilite le dé-confinement des électrons.

Effet du dopage de type N sur les bandes de conduction et de valence. Seules sont représentées la limite basse de la bande de conduction et la limite haute de la bande de valence.
Effet du dopage de type P sur les bandes de conduction et de valence. Seules sont représentées la limite basse de la bande de conduction et la limite haute de la bande de valence.

La conductivité d'un semi-conducteur[modifier | modifier le wikicode]

Les parties précédentes ont surtout abordé la quantité de trous et d'électrons présente dans un semi-conducteur. Si nous avons passé beaucoup de temps à étudier ce sujet, c'est parce que celle-ci explique pourquoi la conductivité des semi-conducteurs varie. Dans cette section, nous allons voir qu'il existe un lien très fort entre la résistance d'un matériau et le nombre de porteurs de charges. Plus il y a de porteurs de charges (électrons libres ou trous), plus le matériau pourra conduire facilement le courant. Et donc, tout ce qui peut faire varier le nombre de porteur de charge a une influence directe sur la résistance du matériau. Prenons par exemple un semi-conducteur intrinsèque : une augmentation de la température va augmenter la quantité d'électrons et de trous, ce qui va diminuer la résistance du semi-conducteur. Voyons ce mécanisme plus en détails.

Les semi-conducteurs peuvent conduire le courant grâce à deux mécanismes distincts. Le premier est à l'origine de la résistance du matériau et se décrit assez bien avec la loi d'Ohm. Il donne naissance à un courant appelé courant de dérive. Le second permet d'homogénéiser la densité de charge dans le matériau, celles-ci tendant à se répartir uniformément dans l'espace. Cela induit un déplacement de charge appelé courant de diffusion. Le courant dans un semi-conducteur est la somme d'un courant de dérive et du courant de diffusion .

Le courant de dérive[modifier | modifier le wikicode]

Le premier, appelé le courant de dérive, est aussi présent chez les conducteurs normaux (comprendre les métaux et électrolytes). Il apparait quand on soumet le semi-conducteur à une tension/un champ électrique et sa valeur dépend de cette première ainsi que de la résistance du matériau. C'est lui qui intervient dans la loi d'Ohm pour les conducteurs. La conductivité d'un matériau, définie pour le courant de dérive, dépend de la densité de porteurs de charges et de leur mobilité .

Cette équation nous dit que plus le nombre de porteurs de charges d'un matériau est grand, plus sa conductivité sera importante. On retrouve donc ce qu'on a dit plus haut : les conducteurs le sont parce qu'ils ont un grand nombre de porteurs de charges, alors que les isolants le sont parce qu'ils n'en ont pas. Pour les semi-conducteurs, la situation est intermédiaire : le nombre de porteurs de charges est très faible en temps normal, mais augmente fortement avec la température, l’éclairement, ou d'autres paramètres physiques. Pour les semi-conducteurs, cette formule s'applique partiellement (il faut rajouter une second courant dit de diffusion qui provient de la concentration des porteurs de charges). Quoiqu’il en soit, on a un courant de trous et un autre courant d'électrons. Ces deux types de charges ont certes la même charge, mais leur densité n'est pas la même, pas plus que leurs mobilités et . En faisant la somme des deux courants, on a :

Le courant de diffusion[modifier | modifier le wikicode]

Outre le courant de dérive vu dans le section précédente, les semi-conducteurs sont parcourus par un second type de courant. Celui-ci, le courant de diffusion, vient d'une différence de concentration des porteurs de charges. Ceux-ci ne sont pas forcément répartis de manière homogène dans le matériau, du fait des hasards de la formation des paires électrons-trous. Il arrive donc que les électrons soient plus nombreux à un endroit du matériau que dans d'autres. Dit autrement, la concentration en électrons libres et/ou en trous n'est pas uniforme et varie dans le matériau. Mais ces différences de concentration se traduisent par une répartition inhomogène des charges : le matériau sera chargé négativement là où il y a un excès d'électrons, positivement là où il en manque, en suivant le gradient de concentration. Ce mouvement de charges donne naissance à un courant dit de diffusion, régit par les lois physiques de la diffusion et décrit par l'équation de la diffusion :

  • j est la densité de courant en un point du matériau ;
  • e est la