« Photographie/Conditions particulières de prise de vues/Photographie en lumière faible » : différence entre les versions

Un livre de Wikilivres.
Contenu supprimé Contenu ajouté
Ligne 119 : Ligne 119 :


== Techniques adaptées à la photographie numérique ==
== Techniques adaptées à la photographie numérique ==

Commençons par tordre le coup à cette expression ridicule qui consiste à dire : « le logiciel XYZ permet de récupérer jusqu'à deux diaphragmes en sur-exposition et en sous-exposition ». Il s'agit en effet, au mieux, d'un simple argument publicitaire et au pire, d'un non-sens. Un petit rappel n'est pas inutile ici.

Quels qu'ils soient, les appareils numériques utilisent les signaux électriques fournis par leur capteur pour construire ensuite, grâce à leur logiciel embarqué, un ou plusieurs fichiers informatiques correspondants à l'image enregistrée. Sur la plupart des appareils de bas de gamme, ces signaux électriques ne sont pas enregistrés en tant que tels mais traités juste après la prise de vues pour que l'utilisateur dispose d'un fichier comprimé au format JPEG pouvant être immédiatement affiché sur un écran d'ordinateur ou envoyé à l'impression. Entre temps, une partie des informations est alors perdue, en particulier celles qui concernent les zones les moins éclairées et les plus éclairées du sujet.

Pour l'immense majorité des appareils reflex numériques et pour certains compacts ou bridges de haut de gamme, les choses se passent autrement : il est en effet possible d'enregistrer les données « brutes de capteur » dans un fichier dit « RAW », dont le format et l'extension diffèrent selon les marques : NEF pour [[Nikon]], [[CR2]] pour Canon, etc. Ce fichier peut être enregistré en complément du fichier JPEG correspondant ou à sa place, selon les cas.

Le fichier RAW contient par définition tout ce que le capteur a pu enregistrer, le reste évidemment n'existe pas et ne pourra jamais être reconstitué. Du côté des basses lumières comme du côté des hautes lumières, les signaux deviennent de plus en plus faibles et finissent par devenir indiscernables, perdus dans le magma du bruit numérique.


== Problèmes pratiques ==
== Problèmes pratiques ==

Version du 12 février 2012 à 12:20

PHOTOGRAPHIE


Un wikilivre pour ceux qui veulent apprendre la photographie de façon méthodique et approfondie.

Enrichissez-le en mettant votre propre savoir à la disposition de tous.

Si vous ne savez pas où intervenir, utilisez cette page.

Voyez aussi le « livre d'or ».


Aujourd'hui 28/03/2024, le Wikilivre de photographie comporte 7 152 articles
plan du chapitre en cours

Conditions particulières


Niveau

A - débutant
B - lecteur averti
C - compléments

Avancement

Ébauche Projet
En cours Ébauche

des chapitres

Fait à environ 50 % En cours
En cours de finition Avancé
Une version complète existe Terminé



Quoi de neuf
Docteur ?


ajouter une rubrique

les 10 dernières mises à jour notables
  1. Southworth & Hawes (2 mars)
  2. Showa Optical Works (29 février)
  3. Bradley & Rulofson (4 janvier, MàJ)

- - - - - - - - - -

  1. Lucien Lorelle (10 décembre, MàJ)
  2. Groupe des XV (10 décembre)
  3. MàJ de la liste des APN Sony (10 décembre)
  4. Alfred Stieglitz (17 novembre)
  5. Classement et archivage (12 novembre)
  6. ADOX (24 août)
  7. Hippolyte Bayard (22 août)
cliquez sur les titres ci-dessous pour dérouler les menus



Particularités des conditions de prise de vue

Par rapport à la photographie « normale » qui se pratique lorsque la lumière est abondante, la photographie dans des conditions de faible lumière présente quelques particularités qu'il vaut mieux connaître pour éviter d'obtenir des résultats décevants. Il s'agit ici d'enregistrer les images de sujets ou de parties de sujets très faiblement éclairés et/ou très peu lumineux, en essayant de rendre au mieux leurs formes, leurs textures ou leurs couleurs.

De telles circonstances ne sont pas rares, on les rencontre lorsque l'on veut photographier à la tombée de la nuit, dans un local très sombre, au clair de Lune, etc. ; on peut également chercher à photographier non plus des sujets qui reçoivent de faibles éclairements, mais aussi des sources lumineuses de très faible activité, telles que certains objets phosphorescents.

Il faut alors donc non seulement jouer adroitement avec les trois facteurs fondamentaux habituels qui sont le temps de pose, l'ouverture du diaphragme et bien sûr la sensibilité du film ou du capteur, mais encore savoir exploiter au mieux par un traitement approprié, chimique pour les films et informatique pour les fichiers numériques, les faibles traces laissées par l'action de la lumière.

Retour sur la courbe caractéristique des surfaces sensibles

Les surfaces sensibles, qu'il s'agisse de films ou de capteurs, réagissent en fonction de la lumination qu'elles reçoivent. Cette grandeur lumineuse a été précédemment définie comme le produit d'un éclairement par un temps ; l'éclairement dépend pour l'essentiel de deux facteurs qui sont la luminance du sujet et l'ouverture du diaphragme, tandis que le temps correspond directement à la durée d'ouverture de l'obturateur.

L’œil n'est sensible qu'aux luminances et il ne garde que très peu de temps le « souvenir » des impressions lumineuses qu'il reçoit ; cette petite rémanence est utilisée par le cinéma et la télévision dont les images se succèdent à un rythme suffisamment rapide pour donner l'illusion du « continu ». Au contraire, les surfaces sensibles sont capables d'intégrer l’énergie lumineuse qu'elles reçoivent pendant toute la durée de l'exposition et de la conserver en mémoire au fil du temps.

Sans entrer ici dans les détails, puisque cette question fait l'objet du chapitre spécial consacré à la sensitométrie, disons simplement que la réponse d'une surface sensible qui reçoit une lumination peut être dans tous les cas représentée par une courbe dite « en S » qui prend toujours peu ou prou l'aspect suivant :



La réponse peut être une densité optique si la surface sensible est un film ou un signal électrique s'il s'agit d'un capteur de lumière. Les échelles sont logarithmiques pour que l'on puisse représenter sur le graphique à la fois des valeurs très basses et très élevées, mais cela ne doit effrayer personne car nous n'en tiendrons aucun compte dans le raisonnement qui va suivre.

La zone du voile ou du bruit

Dans cette zone de la courbe, située au voisinage du point A et qui s'éloigne à gauche aussi loin que l'on veut, il ne se passe pas grand chose d'intéressant car la lumination est trop faible pour produire un effet détectable sur la surface sensible, quelle qu'elle soit. Cependant, « pas grand chose d'intéressant » ne signifie pas forcément « rien ».

En effet, lorsque l'on développe un film noir et blanc vierge, on observe tout de même un léger noircissement car il existe toujours une faible proportion de cristaux de sels d'argent assez instables pour être décomposés par le révélateur alors qu'ils n'ont reçu aucune lumière. C'est ce que l'on appelle le voile. Cette notion ne doit pas être confondue avec celle plus connue de « grain » qui traduit le caractère hétérogène des couches sensibles argentiques. D'une manière générale, le voile d'un film argentique peu sensible présente un grain fin tandis que celui d'un film très sensible montre une structure beaucoup plus grossière.

Si l'on fait fonctionner un appareil numérique dans le noir absolu, le résultat est comparable, les photosites fournissent spontanément des signaux certes très faibles, mais suffisants pour que les pixels qui en résultent ne soient pas tous « noirs ». On ne parle plus alors de voile, mais de bruit, ce qui ne change absolument rien à notre étude.

La zone de sous-exposition

Elle correspond à la partie fortement incurvée de la courbe située entre les points B et C. La réponse de la surface sensible croît progressivement au fur et à mesure que la lumination augmente ; plus précisément, le rapport entre l'accroissement du signal et l'accroissement de la lumination est de plus en plus grand lorsque la lumination augmente. Cela se traduit bien sûr par l'augmentation de la pente de la courbe.

Le passage de la zone du voile à la zone de sous-exposition n'est pas brutal. Au contraire, entre le moment où la surface sensible n'enregistre vraiment plus rien et celui où des zones d'image nettement différenciées apparaissent de façon évidente, la transition est très progressive. Cependant, les effets de la lumination y sont très faibles et très difficiles à distinguer du voile ou du bruit, comme de petites voix perdues dans le brouhaha d'une foule surexcitée.

Nous nous y attarderons un peu plus loin.

Les autres zones de la courbe

Elles ne sont citées ici que pour rappel, dans la mesure où elles ne concernent plus la photographie en lumière faible.

  • La zone de pose correcte de C à D est plus ou moins rectiligne, tout accroissement de la lumination se traduit par un accroissement proportionnel du signal. Cette zone peut être très étendue ou au contraire réduite à un simple point d'inflexion qui voit la courbure s'inverser.
  • La zone de sur-exposition de D à E traduit un accroissement de plus en plus faible de la réponse aux luminations.
  • Au-delà de E il y a saturation, les hautes lumières ne sont plus distinguées mais c'est un autre problème que nous étudierons à part. Avec certains films et dans certaines conditions, la réponse peut à nouveau décroître dans le cas de luminations extrêmement élevées, c'est ce que l'on appelle la solarisation, à ne pas confondre avec l'effet Sabattier.

La sauvegarde des faibles informations

La zone de sous-exposition dans laquelle se situent les dernières traces de l'action de la lumière ne s'arrête pas brutalement. La partie de la courbe située entre les points A et B, avant l'apparition d'une courbure nette, peut présenter une très légère pente ascendante ; cela signifie que quelques photons captés par la surface sensible ont pu agir sur elle et laisser de très faibles traces qu'il faut alors s'efforcer d'exploiter au mieux.

Il n'existe évidemment aucun traitement miraculeux susceptible de recréer ce qui n'a pas été enregistré par la surface sensible. En revanche, il est très facile de faire disparaître maladroitement les informations les plus ténues, que ce soit en développant un film dans un révélateur inapproprié ou en comprimant, même très légèrement, les images numériques correspondantes.

Les luminations très faibles mais cependant suffisantes pour laisser quelques traces provoquent sur les films convenablement développés ou sur les capteurs des structures très irrégulières, formées d'amas d'argent ou d'ensemble de pixels plus ou moins désordonnés. Examinées localement, ces structures sont très semblables au voile ou au bruit, dont elles ne peuvent guère être distinguées. Pour en retirer des informations utiles, il faut en quelque sorte les observer « de plus loin », changer d'échelle, examiner ce qui se passe sur des surfaces relativement importantes et de façon quasi statistique.

En effet, si l'on se limite à une zone très petite, la présence de quelques minuscules amas d'argent un peu plus gros ou un peu plus nombreux que les autres, ou une fréquence un peu plus importante de pixels « plus tout-à-fait noirs » ne peut pas être davantage attribués à l'action de la lumière qu'à l'effet du hasard. En revanche, si l'on constate que dans une zone plus étendue la densité de tels signaux est légèrement plus importante que dans les zones voisines, alors il est probable qu'une telle différence de densité corresponde à une structure non aléatoire et donc à l'enregistrement d'une image.

Techniques utilisables en photographie argentique

Les méthodes évoquées ci-après on essentiellement un aspect historique, étant donné que la photographie sur film tend à disparaître, mais aussi qu'il est de plus en plus difficile de se procurer le matériel et les produits nécessaires. Peu ou pas utilisées par les amateurs ou même par la plupart des professionnels, elles ont constitué en revanche une aide précieuse dans les applications scientifiques, permettant bien des études et/ou parfois des découvertes.

La première chose à faire est a priori d'utiliser des films très sensibles, dont on commence par accroître les performances par divers procédés physiques ou chimiques. La plupart du temps, ces procédés sont plus faciles à pratiquer sur des plaques ou des plan-films plutôt que sur des films en rouleaux, car l'accès direct à l'émulsion est évidemment plus facile.

Hypersensibilisation

Ce type de traitement est pratiqué avant l'exposition ; les surfaces traitées doivent être utilisées très rapidement car les propriétés acquises sont plus ou moins fugaces. En accroissant la fragilité des cristaux d'halogénures d'argent, on facilite l'action de la lumière mais en même temps, le voile augmente, pour les mêmes raisons. L'accroissement de la sensibilité et la montée du voile sont intimement liés, reste à savoir si dans cette sorte d'amplification des densités, le rapport signal/bruit se trouve amélioré ou non. Le « grain » se trouve presque toujours augmenté, tandis que l'on constate généralement une baisse de la capacité de restitution des fins détails.

Les émulsions « noir et blanc » sont pratiquement les seuls utilisables, à moins que l'on recherche des effets inattendus, car l'hypersensibilisation des films en couleurs est plus qu'aléatoire et en particulier, il ne faut guère espérer la préservation de l'équilibre chromatique.

Ajoutons qu'il serait totalement illusoire de vouloir combiner les diverses techniques, leurs effets n'étant nullement cumulatifs. Par ailleurs, les résultats obtenus sont souvent très variables d'une émulsion à l'autre, ou même pour une même émulsion selon le lot de fabrication, le vieillissement, les conditions de conservation, etc.

Effet de la chaleur

La dégradation des émulsions sous l'effet de la chaleur est bien connu comme un inconvénient et il est généralement conseillé de conserver les pellicules au frais, voire au congélateur pour les stockages de longue durée. Cependant, en maintenant des plaques ou des films de fabrication récente pendant plusieurs jours aux environs de 50 °C, dans leur emballage d'origine, leur sensibilité peut être doublée, voire triplée. L'utilisation doit suivre le traitement à bref délai.

Lavage

Les émulsions contiennent un peu de bromure de potassium solubles qui agit comme un antivoile pour stabiliser les émulsions et augmenter leurs possibilités de stockage avant utilisation. En éliminant ce bromure, la sensibilité se trouve un peu augmentée. Ce procédé est simple mais modérément efficace. Le lavage peut être réalisé avec de l'eau ordinaire pendant une dizaine de minutes à 20 °C, ou mieux avec une solution de borax à 2 % pendant 4 minutes, il doit être suivi d'un séchage rapide. Ce traitement doit être pratiqué avant l'exposition.

Lumination auxiliaire

En additionnant les effets de deux luminations très faibles, l'une provenant de l'image enregistrée par l'appareil et l'autre appliquée uniformément, la sensibilité des films peut être notablement augmentée, sans que cela fasse apparaître un voile exagérément dense.

La lumination auxiliaire peut être pratiquée avant ou après l'exposition principale mais son efficacité dépend des conditions dans lesquelles on doit la pratiquer.

Si l'on doit réaliser une pose longue pour enregistrer l'image d'un sujet très peu lumineux, comme nous l'envisageons ici, alors il faut soumettre le film, avant l'exposition principale, à un éclairement intense mais très court, au plus 1/1 000 s. Cet éclairement peut être produit par un flash électronique ; il provoque la formation au sein des cristaux d'halogénure d'argent d'un grand nombre de « sous-germes » de développement dont les dimensions doivent rester un peu inférieures à celles qui permettent l'amorçage du développement. L'exposition principale, là où elle apportera un peu de lumière, pourra ainsi achever la formation de véritables germes permettant le développement d'une image utilisable.

Si l'on désire renforcer une image latente trop faible produite par une pose très courte et un éclairement intense, il faut au contraire réaliser la lumination auxiliaire après la pose principale et à l'aide d'un éclairement très faible agissant pendant plusieurs minutes.

L'ordre des poses reste le même, courte et intense d'abord, lente et très faible ensuite. Des essais sont évidemment indispensables, en particulier pour déterminer à partir de quand le voile devient prohibitif. On pourra par exemple dans un premier temps réaliser des luminations croissantes et noter la valeur à partir de laquelle le voile devient nettement perceptible ; en exposant à la moitié ou aux deux tiers de cette lumination on n'est généralement pas très loin de l'optimum.

Hypersensibilisation par la vapeur de mercure

Cette technique est considérée comme très efficace pour accroître la sensibilité d'une émulsion ou renforcer une image latente déjà enregistrée. Elle donne toutefois des résultats très variables d'une émulsion à une autre et les résultats ne sont pas toujours très reproductibles. L'émulsion à traiter est soumise pendant 12 à 24 heures à la vapeur de mercure, à température ambiante et sous un degré d'humidité relative de 50 % environ ; trop d'humidité aboutirait au contraire à une désensibilisation.

On pense que le mercure se fixe sur les centres de sensibilité superficiels, si le traitement est pratiqué avant la prise de vues, ou sur les germes de développement s'il est pratiqué après. L'augmentation de sensibilité peut aller de 2 à 3 fois, en particulier vers la partie basse de la courbe de développement.

On utilisait autrefois la vapeur de mercure sans prendre de précautions spéciales, mais le caractère très toxique de ce métal, dont l'accumulation dans l'organisme cause de redoutables dégâts, amène à mettre sérieusement en garde tous ceux qui voudraient pratiquer des traitements susceptibles des les exposer à ses vapeurs.

Traitement par le gaz sulfureux (dioxyde de soufre)

Ce procédé convient très bien pour les films de petit format et pour les pellicules en bobines, qui peuvent être enroulées dans des spirales de cuves à développement placées dans un récipient étanche au-dessus du mélange qui va dégager le gaz.

Le traitement se pratique après l'exposition. Il consiste à soumettre le film au gaz sulfureux pendant 24 h à température ambiante. le gaz lui-même est facilement produit en mélangeant environ 20 cm³ d'une solution de sulfite de sodium à 10 % avec 30 cm³ d'acide acétique également à 10 %. Ces deux produits sont d'un usage commun au laboratoire et il est très facile de se les procurer.

Avant développement, les films doivent être éventés ou simplement rincés dans une eau additionnée de quelques gouttes de produit mouillant. L'effet de renforcement de l'image latente est plus important lorsque l'exposition du film a été brève, et il dépend beaucoup du révélateur utilisé. La célèbre formule Kodak D 76 se révèle généralement très décevante, tandis que la formule moins classique D 23 (7,5 g de génol et 100 g de sulfite de sodium anhydre par litre, en l'absence de tout autre produit) a la réputation de donner de bons résultats. La sensibilité peut être multipliée par 2 ou 3.


En travauxlink={{{link}}}

Cette page est en travaux. Tant que cet avis n'aura pas disparu, veuillez en considérer le plan et le contenu encore incomplets, temporaires et sujets à caution. Si vous souhaitez participer, il vous est recommandé de consulter sa page de discussion au préalable, où des informations peuvent être données sur l'avancement des travaux.

Techniques adaptées à la photographie numérique

Commençons par tordre le coup à cette expression ridicule qui consiste à dire : « le logiciel XYZ permet de récupérer jusqu'à deux diaphragmes en sur-exposition et en sous-exposition ». Il s'agit en effet, au mieux, d'un simple argument publicitaire et au pire, d'un non-sens. Un petit rappel n'est pas inutile ici.

Quels qu'ils soient, les appareils numériques utilisent les signaux électriques fournis par leur capteur pour construire ensuite, grâce à leur logiciel embarqué, un ou plusieurs fichiers informatiques correspondants à l'image enregistrée. Sur la plupart des appareils de bas de gamme, ces signaux électriques ne sont pas enregistrés en tant que tels mais traités juste après la prise de vues pour que l'utilisateur dispose d'un fichier comprimé au format JPEG pouvant être immédiatement affiché sur un écran d'ordinateur ou envoyé à l'impression. Entre temps, une partie des informations est alors perdue, en particulier celles qui concernent les zones les moins éclairées et les plus éclairées du sujet.

Pour l'immense majorité des appareils reflex numériques et pour certains compacts ou bridges de haut de gamme, les choses se passent autrement : il est en effet possible d'enregistrer les données « brutes de capteur » dans un fichier dit « RAW », dont le format et l'extension diffèrent selon les marques : NEF pour Nikon, CR2 pour Canon, etc. Ce fichier peut être enregistré en complément du fichier JPEG correspondant ou à sa place, selon les cas.

Le fichier RAW contient par définition tout ce que le capteur a pu enregistrer, le reste évidemment n'existe pas et ne pourra jamais être reconstitué. Du côté des basses lumières comme du côté des hautes lumières, les signaux deviennent de plus en plus faibles et finissent par devenir indiscernables, perdus dans le magma du bruit numérique.

Problèmes pratiques

Le risque de bougé

Une lumière faible entraîne souvent la nécessité d'adopter une faible vitesse d'obturation, donc un temps de pose relativement plus long que la normale. Dans ces conditions le risque de bougé devient très important si l'appareil est tenu à la main. Dans le cas du format 24 x 36, on énonce souvent comme règle d'adopter une valeur du temps de pose égale à l'inverse de la distance focale de l'objectif utilisé. Cela donne donc environ 1/30 s pour un objectif de 28 mm, 1/60 s pour 50 mm, 1/125 s pour 125 mm et ainsi de suite. Il faut évidemment arrondir les valeurs et il est clair que la stabilité dépend hautement des possibilités physiques du photographe, de son état de fatigue, de l'émotion qu'il peut ressentir au moment de la prise de vue, etc.

Ce calcul n'est plus possible de façon directe avec les appareils numériques compacts équipés de capteurs minuscules et d'objectifs de courte focale. Il faut alors parler d'équivalence. Tel appareil muni d'un objectif à focale variable de 5,7-17,1 mm, par exemple, donnera un champ de prise de vue équivalent à celui d'un objectif de 35-105 mm monté sur un boîtier 24 x 36.

On en déduit d'ailleurs facilement la longueur du capteur :


Le flou de bougé dû aux tremblements de l'opérateur risque bien évidemment d'affecter la qualité de l'image, et ceci d'autant plus que la focale utilisée sera plus longue. On s'abstiendra d'utiliser cet appareil avec des temps de pose plus longs que 1/30 s en position grand angulaire et 1/125 s en position téléobjectif.

Utiliser un pied ou un support

Un trépied de bonne qualité supprime le risque de flou dû aux mouvements intempestifs de l'appareil, en revanche il n'est d'aucun secours si le sujet est mobile. Il faut faire attention à choisir un matériel bien construit et muni d'une tête rigide. En effet, certains pieds sont beaucoup trop légers et souples et le vent suffit à faire bouger l'appareil, surtout s'il est équipé d'un objectif volumineux. Les têtes en matière plastique manquent elles aussi, bien souvent, de rigidité. Lorsque le pied est terminé par une tige coulissante, celle-ci ne doit être sortie que si l'on ne peut vraiment pas faire autrement.

L'usage d'un pied est d'ailleurs conseillé en toutes circonstances, même en bonne lumière, si l'on veut obtenir des images parfaitement nettes.

Outre leur poids, le principal défaut des trépieds est qu'ils rendent difficile les changements rapides de cadrage. Les têtes à rotule équipées d'une poignée permettant le blocage et le déblocage rapides évitent en partie cet inconvénient. Les photographes sportifs ou animaliers préfèrent presque toujours utiliser un monopode qui permet de suivre une action tout en compensant partiellement le poids souvent important des téléobjectifs à grande ouverture. Naturellement, la stabilité ne peut jamais être aussi bonne que celle que confère un trépied.

Faute de pied, il faut chercher à s'appuyer aussi rigidement que possible sur tout ce que l'on peut avoir à sa portée : poteau, mur, toit d'une automobile, prie-dieu dans une église, etc.

Un petit sac de grains à moitié plein permet de poser l'appareil et d'ajuster dans une certaine mesure sa position. Il permet d'être relativement stable et d'avoir un choix (relatif) de l'angle de prise de vue. Un sac vide que l'on remplit de sable ou de graviers « sur le tas » assure la même fonction.

Utiliser un déclencheur souple ou le retardateur

Une fois l'appareil monté sur son trépied, reste à éviter de le faire bouger par le simple fait d'appuyer sur le déclencheur. L'idéal est d'utiliser un déclencheur souple mécanique, pneumatique ou électrique qui évitera de transmettre des vibrations à l'appareil. Si ce dernier ne permet pas le montage d'un tel déclencheur, ce qui est le cas pour une grande majorité d'appareils compacts numériques, il reste la possibilité d'utiliser le retardateur qui laisse entre le déclenchement et la prise de vue effective un délai suffisant pour que les vibrations soient amorties. Naturellement cette solution ne convient pas aux sujets qui se déplacent et aux photos d'action.

Utiliser un objectif très lumineux

En utilisant un objectif ouvert à f/1,4 plutôt qu'un autre ouvert à f/4, on fait entrer huit fois plus de lumière dans l'appareil et on peut donc diviser le temps de pose par huit. Cependant cette façon de faire présente quelques inconvénients. La profondeur de champ est très réduite et par ailleurs les objectifs utilisés à leur pleine ouverture ne donnent pas toujours des images de bonne qualité. Les objectifs très lumineux facilitent la visée mais ils sont par ailleurs très lourds, aussi bien dans le fourre-tout que pour le portefeuille. Avec certains appareils, ils donnent parfois de mauvais résultats en raison des difficultés éprouvées par les systèmes autofocus pour faire une mise au point précise.

Multiplier les prises de vues

C'est la technique que nos amis anglo-saxons appellent « bracketing ». On réalise plusieurs prises de vue avec des expositions différentes correspondant à une sous-exposition, à une exposition normale et à une sur-exposition. On peut ainsi réaliser 3 ou 5 photos, à condition bien sûr que le sujet s'y prête.

Cette méthode est évidemment ruineuse si l'on utilise une surface sensible argentique mais elle est désormais couramment pratiquée avec les appareils numériques, dont beaucoup permettent d'ailleurs le « bracketing » automatique. L'étude de l'histogramme permet par la suite de choisir la meilleure image.

Augmenter la sensibilité

Malgré les progrès accomplis ces dernières années, les films de haute sensibilité présentent toujours une image plus granuleuse que les films de sensibilité moyenne ou faible. La plupart du temps il faut utiliser un développement poussé, ce qui ne peut se faire qu'avec les films pour diapositives et surtout les films pour le noir et blanc. Le film Kodak TriX, dont la sensibilité nominale est de 400 ISO, peut par exemple être utilisé jusqu'à 2.500 ISO ; le film Kodak Recording (discontinué), donné pour 1.000 ISO, pouvait atteindre 4.000 ISO avec de très bons résultats. Actuellement, il vaut mieux utiliser des films comme l'Ilford Delta 3200 ou Kodak T-Max P3200.

Les films Kodak Recording

Pour les capteurs numériques le problème est différent. Contrairement à une idée répandue, un capteur n'a qu'une seule sensibilité et celle-ci est toujours relativement basse, équivalente à celle d'un film de l'ordre de 100 ISO ou moins. L'augmentation apparente de sensibilité procurée par les réglages des appareils correspond en fait à un traitement électronique des images ; lorsque des valeurs très élevées sont recherchées, il en résulte un « bruit » qui vient perturber les images, de sorte que l'on retrouve un défaut comparable à celui du « grain » argentique.

Utiliser un flash

Osons le dire, c'est généralement ce que l'on peut faire de pire pour ce qui est de la qualité d'éclairage.

Les flashes intégrés aux appareils sont de faible puissance, ils donnent un éclairage plat et provoquent le phénomène bien connu des « yeux rouges ». En outre, si l'on veut photographier une assemblée comportant diverses personnes, celles qui sont proches de l'appareil verront leurs visages transformés en « fromage blanc » tandis que les plus éloignées resteront dans l'ombre, restant parfois presque invisibles.

Si l'on utilise un gros flash dans une pièce claire, il est intéressant de diriger le réflecteur non pas vers le sujet, mais vers un mur latéral ou vers le plafond. Dans ce dernier cas, attention, la lumière « tombera » peut-être trop sur les personnages dont les yeux resteront dans l'ombre. Il est alors tentant d'utiliser un gros flash pour créer l'ambiance et un petit pour « déboucher » les ombres mais les facéties des systèmes automatiques embarqués sur la plupart des appareils numériques, même sur ceux qui offrent la possibilité d'opérer en « manuel », rendent ce genre de manipulation plus qu'aléatoire ...

Contrairement à ce que beaucoup de photographes débutants peuvent penser, la meilleure utilisation du flash n'est pas la nuit ou en intérieur mais plutôt en extérieur lorsque le sujet se trouve en plein soleil. En effet, la nuit, il ne sera pas possible de recréer un éclairage satisfaisant avec un unique flash situé sur l'appareil : le sujet sera éclairé de face, perdant tout son relief. En revanche, lorsque le sujet est en plein soleil, celui-ci comporte souvent des zones d'ombre portée très marquée (par exemple : au niveau des yeux, sous le nez, sous le menton, etc.) qui peuvent être atténuées par l'utilisation du flash.


Bibliographie

  • JOLY, Jean .- Photographie à la lumière ambiante. In : Photo-Ciné-Revue, janvier 1970, pp. 28-31.


Conseils aux débutants