Capturer la couleur :comment l'art apparaît en reproduction
Combien de Monet et de Picasso sont accrochés aux murs des plus modestes banlieues? On peut voir de grandes œuvres par les fenêtres de n’importe quelle maison, exposées encadrées au-dessus du sol ou abandonnées aux coins d’une chambre à coucher. Aujourd’hui, nous pouvons tous être des collectionneurs, parce qu’on peut trouver de bonnes reproductions pour le prix d’un repas quelconque. Entre les couvertures de nos étagères de livres se trouvent des musées entiers de chefs-d’œuvre. On peut difficilement se plaindre de cette démocratisation de l’art. De nombreux artistes ont souhaité voir l’art quitter l’atmosphère raréfiée des musées et être transporté sur la voie publique. Mais les puristes peuvent se plaindre de ce que ce changement de contexte déprécie l’œuvre, que les doigts de Dieu et de l’homme peints par Michel Ange perdent leur signification culturelle et soient transformés en une bande dessinée parodique quand ils seront édités en cartes de vœux, comme l’équivalent visuel d’une rengaine musicale.
Il y a bien entendu quelque chose d’un peu triste dans la façon dont la surexposition dilue l’impact, comparable à la chanson favorite devenue ennuyeuse rengaine. Pouvons-nous vraiment ressentir la même émotion en voyant le véritable Guernica, comme son sujet le mérite, alors qu’il a figuré des années durant sur la couverture d’un livre de Sartre? Dans son fameux essai de 1936, Walter Benjamin suggère que « ce qui se flétrit à l’âge de la reproduction mécanique, c’est l’aura de l’œuvre d’art ». Mais on peut difficilement s’attendre à ce que la dissémination populaire de l’art se fasse sans qu’il y ait un prix à payer.
Et cependant… nos plus grands musées sont remplis de visiteurs, comme ils ne l’ont jamais été. À croire que la prolifération des copies ouvre l’appétit pour l’original. Dans une proportion considérable, l’envie de visiter la source des images reproduites sur le papier glacé des livres d’art provient du désir de jouir de l’intangible mystique, non pas de l’image mais de « l’objet »: ces vraies touches ont été faites par la main de Van Gogh, de Rubens ou de Masaccio. La peinture devient un objet historique, la galerie, un musée de l’imagination humaine et de l’ingéniosité. Personne ne va voir La Joconde pour examiner la beauté de la peinture — ou si on le faisait, on s’en irait désappointé, ayant été bousculé par une foule tendant le cou pour jeter un coup d’œil sur cette œuvre sous-éclairée et de taille médiocre.
Benjamin prétendait que la reproduction de masse émancipait l’art du « rituel de l’authenticité ». Il imaginait que la photographie en couleurs et le film provoqueraient ce changement. Mais il semble que nous ayons finalement substitué un rituel à un autre. Les gens vont maintenant dans les musées non pour être au courant de ce que les artistes ont fait, mais pour se prosterner aux pieds de leurs images familières. Une solennité ecclésiastique règne dans les monuments consacrés à l’art — nous murmurons, nous bougeons avec révérence, nous faisons tout ce que les Parisiens des bruyants Salons du xixe siècle ne faisaient pas: « l’objet d’art, l’œuvre d’art baignent dans une atmosphère de religiosité totalement factice. On parle des œuvres d’art et on les présente comme s’il s’agissait de reliques sacrées ».
Pour l’étudiant en art sérieux, il y a au moins une autre bonne raison de voir l’original; et si vous êtes un passionné de livres d’art, vous l’avez remarqué. Combien de fois ce Titien-ci ressemble-t-il à ce Titien – là ? Dans un livre, l’Assomption est d’une lumière dorée automnale avec des ombres ténébreuses; dans un autre, c’est une lueur laiteuse de printemps qui baigne la foule, et la robe rouge-orange de la Vierge est presque rosâtre. Pour une peinture aux coloris complexes comme la Danaé, deux reproductions ne se ressemblent jamais. Une discussion sérieuse sur la couleur peut-elle se baser seulement sur des reproductions?
Pourtant, la critique d’art, en grande partie, fonctionne nécessairement de cette manière. Tout commentaire écrit sur l’art se fie aux reproductions pour fonder son argumentation182. Dans l’exposé oral, comme dans un cours à l’université, les diapositives en couleurs pourraient être le moyen de montrer l’objet en question. J’ai la chance d’avoir à deux pas de chez moi deux musées — la Tate et la National Gallery — dans lesquels nombre de mes exemples se trouvent, et dont je peux voir les originaux assez aisément. Mais je dois me fier, pour beaucoup de mes recherches, aux images provenant des livres, tout en sachant clairement combien ces images peuvent être indignes de confiance. Suivant John Gage, les limites de la technique de la reproduction en couleurs font « elles-mêmes partie de l’histoire de la couleur dans l’art ».
Combien la difficulté d’écrire cet ouvrage aurait été plus grande pour moi il y a trente ans ! Ma connaissance même limitée des peintures du Prado, à Madrid, me dit que l’exemplaire du catalogue en ma possession, qui date de 1966, donne seulement une impression très schématique des œuvres. La même chose est vraie de la Concise History of Modem Painting de Herbert Read, dont j’ai une édition datant de 1985. Et ce sont deux livres édités par l’un des éditeurs d’art les plus consciencieux, et n’ayant pas l’habitude de regarder à la dépense pour les illustrations.
Aussi, je crois indispensable, dans un survol de l’influence de la chimie sur la couleur dans l’art, de se demander jusqu’où la technonologie chimique peut aller pour capturer l’image sur la page. Ce n’est pas, comme on pourrait s’y attendre et l’espérer, une histoire linéaire d’amélioration graduelle de la qualité; bien sûr, on peut craindre aujourd’hui que les critères de qualité baissent, les considérations économiques de l’édition l’emportant sur la fidélité de la reproduction et la longévité.
En outre, la technologie actuelle transforme la façon dont l’information visuelle est répandue à un point jamais vu depuis l’époque de Gutenberg. J’ai fait quelques recherches d’images de manière entièrement électronique, et je suis conscient qu’une telle déclaration ressemble à celle du scientifique qui, dans les années 1950, disait fièrement : « et mes calculs étaient assistés par un calculateur digital ». Nous avons maintenant une manière totalement nouvelle d’accéder à l’information et de la montrer, et il n’est pas difficile de prédire que beaucoup des fonctions du livre seront bouleversées par l’ordinateur dans les prochaines décades. La manière dont ces changements affecteront la qualité de la reproduction d’art est, en partie, une question de physique et d’ingénierie électronique, mais aussi, en dernier lieu, une question de chimie pour les couleurs brillantes derrière l’écran.
Art pour les masses
Il fut un temps où la seule façon de pouvoir posséder sa propre version d’une peinture était d’avoir une copie peinte pour soi, légalement ou pas. Même au xixe siècle, beaucoup de gens connaissaient les oeuvres des maîtres anciens et modernes par les gravures monochromes. Les oeuvres de Turner, au sommet de sa renommée, étaient fréquemment reproduites de cette manière, et les résultats ressemblent à de fabuleuses reproductions en allumettes de merveilles architecturales: formidablement habiles et se trompant inévitablement de propos. Les re-créations des peintures de Turner, dont le langage est celui de la couleur, de la lumière et de la matière, par un filet de lignes noires et de hachures, suscitent, dans leur folie, une véritable fascination.
Imprimer en se servant d’encres de couleurs était possible depuis que la presse avait été inventée, et la typographie en couleurs était utilisée à l’occasion dans les manuscrits du XVe siècle. Plusieurs couleurs pouvaient être étalées sur la même page en la faisant passer sur des presses chargées de bois taillés pour imprimer des surfaces différentes. Ceci était évidemment une opération encombrante ne pouvant être entreprise à la légère. En 1482, Erhard Ratdolt semble être devenu le premier à maîtriser le problème d’aligner différents bois. Aux XVIe et XVIIe siècles, des images furent grossièrement rendues en deux couleurs — ou plus — de cette manière, et une sorte de clair-obscur primitif put être atteint en sur-imprimant avec des hachures noires ou des ombres découpées (fig. 12], Lucas Cranach fut l’un des premiers d’une longue tradition de grands peintres ayant expérimenté la technologie de l’impression en couleurs: une tradition perpétuée plus tard par Henri de Toulouse-Lautrec, Edvard Munch et Sonia Delaunay. Mais comme moyen de reproduction, la technique du clair-obscur ne pouvait avoir la prétention de donner une représentation plus satisfaisante d’une peinture en couleurs que ne le ferait la délicate gravure d’une plaque de cuivre en noir et blanc.
Les premières tentatives d’impression totalement en couleurs que nous connaissons furent réalisées au XVIIe siècle, par le peintre Jakob Christoph Le Blon, né de parents français à Francfort-sur-le-Main, en 1667. Le Blon partit de l’idée (exposée par Robert Boyle] que toutes les couleurs pouvaient être synthétisées à partir des trois primaires, réputées être le rouge, le jaune et le bleu. Il estima donc qu’en principe, toutes les couleurs pourraient être accessibles à partir de ces trois-là, par surimpression « séparées »: une plaque d’impression différente pour chaque primaire. Chaque plaque déposait une version monochrome partielle de l’image, avec une densité d’encre correspondant à l’intensité de cette primaire dans l’original. Par exemple, les surfaces jaunes étaient reproduites sur la plaque «jaune » mais étaient laissées vierges sur les plaques rouge et bleue. Les parties orange apparaissaient sur les plaques rouges et sur les plaques jaunes, ainsi les deux encres transparentes posées l’une sur l’autre produisaient la couleur secondaire par mélange soustractif.
Comment donc pouvait-on préparer les séparations monochromes? Le Blon n’avait pas le choix et devait le faire à la main et au coup d’œil. De manière étonnante, il entreprit de graver à la main chacune des plaques en partant de son propre jugement sur la quantité de chaque primaire se trouvant sur chaque partie de l’image. On peut comparer cela à une tentative de décomposer une note musicale dans ses fréquences séparées : non seulement pour dire quelles fréquences sont présentes, mais en quelles quantités. Les exemples d’œuvres de le Blon qui nous sont parvenues, comme sa propre composition de Narcissus avec ses chaudes carnations et ses frais feuillages verts, révèlent l’habileté presque miraculeuse du graveur pour démembrer de cette manière les couleurs complexes.
Les plaques de Le Blon étaient gravées par la méthode du mezzotinto [dite « manière noire » en cas d’impression en noir et blanc] inventée au XVIIe à Amsterdam par un officier allemand. La surface d’une plaque de cuivre est rendue totalement rugueuse en se servant d’un outil ressemblant à un burin, appelé berceau [rocker], dont le bout recourbé est incisé d’une série de lignes parallèles provoquant des ébarbages sur le cuivre tendre. Cette surface rugueuse capture et retient l’encre. Des gradations dans l’intensité de l’encre sont réalisées en aplanissant la surface à des degrés divers. Une partie vierge doit être finement polie. La technique tient son nom du fait qu’elle reproduit les tons d’intensité moyenne plus fidèlement que la gravure au trait.
La technique des trois couleurs réclame de bonnes encres pour ¡es trois primaires. Si, par exemple, le rouge est légèrement bleuté, il produira seulement un orange-brun sale lorsqu’il sera imprimé avec du jaune. Mais de telles couleurs « pures » n’étaient pas disponibles à l’époque de Le Blon, et il était obligé d’affronter la difficulté d’une théorie idéale du mélange de couleurs proposée par les scientifiques et de sa réalisation avec les teintes imparfaites que les chimistes mettaient à sa disposition. Sa situation embarrassante provenaient des mêmes considérations qui avaient rendu les primitifs prudents sur les mélanges de pigments: comme ils n’étaient pas « spectralement purs », leur éclat diminuait lorsqu’on les mélangeait.
Les efforts de Le Blon le conduisirent plus loin dans la théorie, et dans les années 1720, Il crut avoir découvert les « lois de la couleur » que certains considéraient perdues depuis l’époque des anciens maîtres. Le Blon présenta ces Idées dans Colorito; or the Harmony of Colouring in Painting; reduced to mechanical practice under Easy Precepts and Infallible Rules [1725], dans lequel il suggère: Les « Règles » étaient fondamentalement le nouveau standard de préparation des couleurs secondaires à partir des primaires: Mais là Le Blon se trouve lui-même forcé d’affronter, du mieux qu’il peut, la distinction jusque-là obscure, des mélanges additifs et sous- tractifs : En dépit des propos de Le Blon sur les « couleurs matérielles utilisées par les peintres », il avait besoin d’encres qui soient translucides, et non pas de peintures opaques. Donc ses colorants étaient plus des teintures, et son procédé d’impression était quelque peu inspiré de l’industrie de l’impression du calicot.
Pour le bleu primaire, Le Blon utilisait le nouveau bleu de Prusse, qui était en vérité une variété trop verte pour l’emploi. Il semble aussi avoir expérimenté l’indigo. Son jaune était une laque jaune foncé. Le rouge était le plus difficile de tous, et il était contraint de concocter un mélange de laque de garance, de carmin et d’un peu de cinabre. En principe, les primaires idéales se combinaient avec le noir; mais, en pratique, de simples mélanges de ceux-ci (et d’autres] pigments primaires tendaient plus vers le brun. Ainsi, Le Blon se trouva lui-même obligé de procéder, à la fin, à des retouches de l’image à la main — en ajoutant du noir par exemple.
Son insistance sur la « facilité » et « l’infaillibilité » de sa technique trahit, par conséquent, un certain désespoir quant à ses défauts. Peut-être même plus ennuyeux que le manque d’encres primaires était le fait que les plaques de cuivre ne survivaient pas à plusieurs impressions et que leurs fins détails devenaient flous. Étant donné l’immense travail et la patience que réclamait la réalisation, c’était un sérieux problème.
Bien que cette méthode ne soit pas parfaite en pratique, Le Blon l’appliqua avec énergie et enthousiasme. Après avoir présenté quelques premiers spécimens du procédé à des personnages éminents d’Amsterdam en 1704, il commença à chercher un mécène. La Hollande se révélant décevante, il espéra avoir plus de chances à Paris en 1705, mais à nouveau sans succès. Ce n’est qu’après sa venue à Londres, en 1719, qu’il persuada un riche dignitaire, le colonel Sir John Guise, de financer l’entreprise. Avec le soutien de Guise, Le Blon avait pu obtenir la permission de Georges Ier de copier certaines des peintures de Kensington Palace. Les deux associés fondèrent, en 1720, une société appelée Picture Office, et commencèrent à produire plusieurs milliers de copies des vingt-cinq peintures qu’ils avaient sélectionnées.
Mais Le Blon n’était pas un homme d’affaires, et très rapidement la société eut des difficultés. En rencontrant l’entrepreneur, Horace Walpole (fils de Sir Robert] ne fut pas impressionné, le décrivant comme « un naïf ou un escroc, je pense plutôt au premier… comme il était très enthousiaste, comme beaucoup d’autres enthousiastes il était, peut-être, l’un autant que l’autre».
Les choses se détériorèrent au point qu’un comité fut désigné pour enquêter sur la situation du Picture Office. Le résultat de l’enquête entraîna le remplacement de Le Blon comme directeur. Cependant, il semblait que les impressions étaient véritablement d’excellente qualité (planche 57], Walpole les qualifiait de « copies très acceptables ». En fait, quelques-unes semblent avoir dépassé les originaux, alors dissimulés sous d’épaisses couches de vernis. À une époque où le public n’était pas habitué à voir de l’art en couleurs en dehors des galeries, cette illusion apparemment peu vraisemblable le devint moins ainsi. Mais quels que soient les mérites du procédé de reproduction, il n’était pas d’un profit suffisant.
Aucunement découragé, Le Blon créa une nouvelle société en 1727 dans le but d’appliquer une autre de ses inventions — une méthode pour reproduire des peintures sous forme de tapisserie — aux cartons de Raphaël d’Hampton Court (qui maintenant se trouvent au Victoria and Albert Muséum de Londres], Il croyait que, dans les tapisseries aussi, des fils rouges, jaunes et bleus suffiraient, s’ils étaient artistiquement combinés, à créer toutes les teintes. Cette aventure, une fois encore, n’aboutit à rien, et Le Blon fut finalement obligé de fuir le pays pour échapper à ses dettes. Il fit d’autres tentatives infructueuses en Hollande et en France, avant de mourir en 1741 dans des conditions misérables.
La méthode de Le Blon lui survécut seulement quelques dizaines d’années. À Paris, Jacques Gautier d’Agoty développa un procédé similaire alors que Le Blon était encore en vie; ils eurent une dispute amère sur la question de l’antériorité. En dépit de cela, Gautier semble avoir acquis les droits du procédé des trois couleurs après la disparition de Le Blon, et prétendit l’avoir perfectionné dans les années qui suivirent. Les exemples qui nous restent de ses efforts ne justifient pas cette prétention, quoique parmi ses innovations, on trouve l’introduction d’une quatrième plaque, noire, évitant les retouches à la main. Les fils de Gautier continuèrent cette activité dans les années 1770 et, dans les années 1780, transmirent la méthode à l’italien Carlo Lasinio, qui la pratiqua avec énergie mais sans grands résultats avant qu’elle ne soit perdue de vue.
Livres de couleur
L’invention de Le Blon était une idée en avance sur son temps, mais à laquelle faisaient défaut les moyens matériels de sa réalisation. Les autres techniques d’impression en couleurs qui se développèrent au XVIIe siècle n’avaient pas de prétention à la production de toutes les couleurs à partir des trois primaires transparentes. À la place, elles étalaient directement les couleurs sélectionnées par l’imprimeur, s’assurant que les surfaces de différentes couleurs ne se chevauchaient pas. Cela signifiait que la gamme de couleurs était généralement très restreinte. La technique la plus simple était la vieille méthode du clair-obscur dans laquelle les bois étaient utilisés pour imprimer des surfaces plates de couleurs ombrées grossièrement avec du noir. Habituellement, seulement une ou deux couleurs étaient appliquées, ainsi les images n’étaient pas tant « des impressions en couleurs » comme nous les appellerions, mais seulement des taches de teintes sourdes, comme du sépia, qui servaient principalement à donner l’impression de relief à la page monochrome.
Les surfaces colorées plates, peu attirantes, de l’impression en clair-obscur pouvaient éviter d’utiliser la technique en « demi- ton », qui était capable de capter les nuances de valeurs ou de tons en variant la densité des lignes ou des points colorées sur le papier blanc. Le principe est exactement le même que celui par lequel une gamme de gris est obtenue dans les images des journaux: lorsque les points sont assez petits, ils paraissent fusionner dans des variations tonales unies. La méthode du mezzotinto utilisée par Le Blon est un procédé de demi-tons pour appliquer des couleurs locales graduées, qui fut plus largement utilisé que ses ambitieux mélanges à trois couleurs.
Le composant de base de l’impression en « demi-ton » est une plaque de métal recouverte d’un champ uniforme de points, de rainures et de stries, qui sont lissés à différents degrés à des endroits différents. Dans la gravure au pointillé, les points sont créés en perçant un film protecteur sur la plaque avec une aiguille et en utilisant de l’acide pour ronger le métal exposé. Les minuscules cavités ainsi produites retiennent l’encre ou la peinture lorsque la plaque est enduite à l’aide d’un rouleau, puis essuyée. Quand la plaque est pressée sur le papier, l’encre pénètre dans le papier. Comme la gravure, cette méthode d’impression est appelée intaglio: l’encre est appliquée sur le papier seulement là où le matériau a été enlevé de la surface de la plaque pour laisser une empreinte.
La gravure au pointillé fut inventée au XVIIe siècle par un orfèvre hollandais nommé Jean Lutma, et développée par le Français Jean-Charles François, dont les efforts furent encouragés par l’Académie des Beaux- Arts; un rappel que l’impression était souhaitable plus pour les beaux- arts que dans un but commercial. Parce qu’une plaque séparée était habituellement requise pour chaque couleur utilisée, la plupart des imprimeurs pouvaient seulement être ennuyés de se servir, ou plus probablement, pouvaient seulement se payer deux ou trois couleurs. L’Anglais William Wynne Ryland qui ouvrit une boutique d’impression à Londres, dans les années 1770, préférait employer une seule plaque, brossée avec la main de différentes couleurs sur des surfaces différentes.
La méthode était rudimentaire, certainement, mais pour un public qui n’avait jamais vu la moindre couleur dans les reproductions d’art, la gravure au pointillé était une belle chose. La demande augmenta, et Ryland serait devenu riche s’il n’avait laissé s’accumuler les énormes factures, satisfaisant plutôt ses goûts de luxe et les demandes extravagantes de ses maîtresses. Ses dépenses étaient si grandes qu’elles le forcèrent, dans un geste désespéré, à contrefaire un billet de banque, une faute capitale qui lui coûta la vie en 1783.
Une autre technique en demi-ton, introduite à la fin du XVIIIe siècle, est l’aquatinte. L’invention est habituellement attribuée au peintre et graveur français Jean-Baptiste Le Prince [1733-1781], mais il pourrait en avoir eu connaissance par quelqu’un d’autre. La plaque de métal est recouverte d’une couche de résine, qui agit comme un film protecteur contre l’acide. Le grain est très fin, ainsi les gravures ressemblent presque à des lavis. Les aquatintes produites en encrant à la main une seule plaque étaient largement utilisées pour les illustrations de livres à la fin du xixe siècle.
La lithographie — littéralement « dessin de pierre » — fut inventée en 1796 par John Aloysius Senefelder à Munich, qui l’utilisa pour reproduire des dessins en couleurs de Dürer. Un bloc de pierre poli, tel le marbre, est marqué avec un crayon gras, puis humidifié avec un rouleau et enduit d’une peinture à base d’huile ou d’une encre, grâce à un autre rouleau. Insoluble dans l’eau, l’encre est repoussée par la pierre humide mais adhère à la marque laissée par le crayon. L’image est ensuite imprimée sur papier.
Cette technique était généralement utilisée dans l’impression en clair-obscur avec des bois, bien que des expériences aient eu lieu sans succès dans les années 1830 pour la développer comme procédé à trois couleurs (des encres convenablement transparentes n’étaient toujours pas disponibles]. Mais, en 1837, le lithographe parisien Godefroy Engelmann adapta la méthode à un procédé à plusieurs plaques, connu sous le nom de chromolithographie, qui était susceptible d’une gamme impressionnante et subtile de couleurs. Pour cette découverte, Engelmann reçut un prix de la Société d’encouragement de l’industrie.
En Angleterre, la technique lithographique eut d’humbles débuts: Thomas De La Rue déposa le brevet d’un procédé à Londres en 1832 pour imprimer des cartes à jouer. Mais certains eurent des ambitions plus grandes. L’architecte dessinateur Owen Jones fit équipe avec la société d’imprimerie de William Day, en 1836, pour produire un livre en couleurs sur le palais de l’Alhambra de Grenade, resplendissant d’encres dorées. La Grammar of Ornament (1856] de Jones devint la bible des décorateurs britanniques.
À ¡’Exposition universelle de 1851, où Jones, Engelmann et d’autres exposèrent leurs œuvres de chromolithographie, les jurés déclarèrent (de manière plutôt optimiste] que la technique était capable de résultats équivalents à une bonne peinture. Les presses lithographiques automatiques commencèrent à remplacer les presses à main dans les années 1850, en utilisant des rouleaux de zinc. En 1852, la société de Day se risqua à produire une reproduction chromolithographique du Vaisseau brûlant aux lumières bleues de Turner, un projet extrêmement ambitieux dont elle s’acquitta de manière apparemment satisfaisante. Le style flou et fluide de Turner réclamait que les imprimeurs, pour la première fois, abandonnent la convention des contours en noir, et reproduisent l’image avec des couleurs pures.
Le désir d’appliquer ces nouvelles techniques aux beaux-arts était partagé par la Société Arundel, fondée en 1849, entre autres par John Ruskin. La Société entreprit de reproduire les fresques primitives italiennes pour des raisons explicitement pédagogiques: elle souhaitait mettre en évidence la revitalisation des arts à la Renaissance. La chromolithographie fut utilisée pour reproduire des œuvres comme le Martyre de saint Sébastien du Pérugin et une Madone à l’Enfant de Bellini. C’était une entreprise formidable; chacune des peintures choisies devait d’abord être copiée à la main par un artiste, avant d’être reproduite sur les plaques lithographiques séparées. Une telle initiative donnait à beaucoup de gens leur première idée de la splendeur des œuvres originales ; et, pour les plus aisés, il y avait la possibilité de posséder leur propre exemplaire.
Moins ambitieuse, peut-être, mais également impressionnante, fut la fameuse reproduction chromolithographique de la peinture de John Everett Millais dans la publicité « Bubble » pour le savon Pears, un tour de force qui lui valut une admiration quelque peu forcée. Parmi les ouvrages illustrés en couleurs à cette époque, il y avait ceux de William Blake, qui était lui-même imprimeur et graveur, aussi bien que poète et peintre. Il les peignait parfois en couleurs à la main, une tâche suprêmement pénible. Mais, au dire de tout le monde, il n’était pas très soigneux, ou peut-être avait-il peu d’intérêt pour les conventions de netteté, qui étaient de rigueur à l’époque.
Un commentateur plus tardif jugea les peintures de Blake comme L’impression en couleurs était si importante à la fin du XVIIIe siècle que, quand la Royal Institution fut fondée à Londres en 1799 par le scientifique Count Rumford, on créa un département pour étudier les besoins scientifiques du métier. Le chef de département était un homme du Yorkshire nommé William Savage, qui mit tout en œuvre pour remédier à la pénurie d’encres de couleur. Ces nouveaux matériaux apparurent dans le chef-d’œuvre de Savage, un livre illustré intitulé Practical Hints on Décorative Printing fl823], qui lui prit huit années de travail. Il ne se servait de rien de plus sophistiqué que de la méthode du clair-obscur avec des bois, mais ils étaient préparés avec tant de soin et de profusion que les résultats étaient parfois ravissants. Certaines des images du livre réclamaient plus de vingt- neuf bois séparés.
L’art de l’impression sur bois fut portée à son zénith par George Baxter [1804-1867], Il utilisait des peintures à l’huile plutôt que des encres, et parvint à un éclat et à une permanence de coloris sans précédent [planche 58], Son Pictorial Album, or Cabinet of Paintings [1836- 1837] fut le premier livre populaire anglais entièrement en couleurs; le premier coffee table book, pourrait-on dire. Cela montrait à quoi on pouvait arriver avec les méthodes de l’époque si elles étaient appliquées avec assez de zèle; suite à la réussite de Baxter, l’impression en couleurs commença à se répandre.
En 1855, les premières illustrations en couleurs apparurent dans un périodique, l’lllustrated London News. Combinant des techniques de bois gravés et d’eaux-fortes, elles n’avaient pas de grands mérites, mais furent suffisamment populaires pour que le journal continue régulièrement à publier des suppléments en couleurs. Et en 1861, le célèbre graveur sur bois londonien Edmund Evans publia Y Art Album, une tentative pour offrir des œuvres d’art en couleurs à un large public. La gravure sur bois était toujours estimée adéquate pour de telles entreprises au début du xxe siècle, lorsque les frères Knoflers de Vienne s’en servirent pour créer des gravures d’art. Les contours brutaux et raides qu’offrait cette méthode étaient adaptés aux desseins des peintres expressionnistes allemands comme Ernst Ludwig Kirchner et Karl Schmidt-Rottluff, qui produisirent de nombreuses gravures sur bois dans les années d’avant-guerre.
Il n’y a plus aucun doute aujourd’hui que de nombreuses reproductions en couleurs des XVIIe et xixesiècles, imprimées à partir de bois, de plaques et de rouleaux, soigneusement produites par une main habile sont des œuvres d’art. Même si, dans les années 1850, une autre solution que ce travail à la main commença à apparaître. Car les techniciens avaient découvert comment mettre de la couleur lumineuse dans les peintures elles-mêmes.
Des lentilles voyant tout
Beaucoup de technologies prospèrent non pas quand les moyens techniques sont disponibles mais quand une avancée conceptuelle libère leur potentiel. Les matériaux et les méthodes de la photographie existaient depuis un siècle avant que l’on ne s’en serve. C’est en 1725 que l’anatomiste allemand Johann Heinrich Schulze découvrit que le noircissement de certains sels était dû à leur exposition au soleil. Il produisit des images, de cette manière, en couvrant une bouteille en verre contenant une solution de chaux et de nitrate d’argent, avec des lettres coupées sur du papier. Le liquide noircit quand il fut exposé aux rayons du soleil, à cause de la formation de métal d’argent à partir des sels d’argent solubles. Les minuscules particules d’argent absorbaient la lumière visible et ainsi apparaissaient noires.
La technologie optique derrière la caméra est encore plus ancienne. La caméra obscura, une chambre noire dans laquelle une vue extérieure est projetée sur un écran à travers un petit orifice, était décrite par l’érudit Maure Alhazen à la fin du Xe siècle. Des versions portables de la dimension d’une boîte de la caméra obscura, équipées d’une lentille, furent inventées vers la fin du XVIe siècle, et devinrent des instruments courants pour les scientifiques étudiant la nature.
Mais jusqu’au début du xixe siècle personne ne pensa à combiner les propriétés créatives d’images de la « caméra » avec le potentiel d’enregistrement des sels d’argent sensibles à la lumière. En 1800, Thomas Wedgwood essaya d’imprimer des images d’une caméra obscura sur du papier enduit de nitrate d’argent. Il parvint à créer des images négatives de « caches » comme des feuilles, des ailes d’insectes et même de peintures, mais ne trouva pas le moyen de conserver l’image en évitant qu’elle noircisse sur le papier une fois exposée à la lumière. Le procédé intéressa le chimiste Humphrey Davy de la Royal Institution qui collabora avec Wedgwood sur cette forme primitive de photographie.
La première photographie négative « fixée » fut prise en 1816 par Joseph Nicéphore Niepce depuis sa fenêtre près de Châlons-sur- Saône, sur du papier enduit de chlorure d’argent, qu’ensuite il fixa partiellement [le rendant insensible à des altérations à venir] avec de l’acide nitrique. En 1826, il prit une photographie réellement positive en se servant d’une caméra pour exposer une fine pellicule de bitume huileux étalé sur une plaque de métal; le bitume durcissait quand il était éclairé et le reste pouvait être enlevé avec de l’huile et du pétrole. Comme le bitume protégeait le métal de l’attaque des acides, ce procédé pouvait être utilisé pour obtenir une plaque de métal gravée pour l’impression. C’était une forme primitive de la technique de la photogravure. Donc, dès le départ, la photographie fut liée à l’impression.
Quatre ans avant sa mort, Niepce collabora avec Louis-Jacques Mandé Daguerre, un dessinateur de théâtre parisien. En 1837, Daguerre fut capable de rendre des photos permanentes sur des plaques de cuivre argenté avec un temps d’exposition d’environ trente minutes. Le lent noircissement des sels d’argent interdisait la prise d’images d’objets mobiles. Les scènes de rue de Daguerre avaient une qualité fantomatique et désertique parce que les piétons se déplaçant sont invisibles à la vue. Samuel Morse, un peintre et inventeur américain que Daguerre invita à voir ses images, les décrivit ainsi: Dans le procédé de Daguerre, la plaque argentée était exposée à la vapeur iodée qui formait une fine couche d’iodure d’argent.
Celle-ci était exposée à la lumière dans l’appareil en présence de vapeur de mercure. Le mercure se fixait dans les régions exposées à la lumière en minuscules gouttelettes qui formaient un amalgame avec l’argent. L’iodure était alors dissous dans un bain fixateur (le sel fixatif, bientôt appelé hyposulfite ou « hypo »]. Le mercure correspondait aux parties lumineuses de l’image, alors que les ombres étaient reproduites dans l’argent en dessous. La plaque développée devait être protégée avec du verre pour empêcher le mercure d’être effacé.
Le gouvernement français acheta les droits de ce procédé à Daguerre et le dévoila en 1839 à une séance conjointe de l’Académie des Sciences et de l’Académie des Beaux-arts. En voyant les résultats, le peintre Paul Delaroche s’exclama: « À partir d’aujourd’hui, la peinture est morte. » (Il est rassurant d’apprendre que cette affirmation, courante aujourd’hui, est vraisemblablement apocryphe.] La photographie, sous la forme de ces daguerréotypes, était considérée non comme un moyen de documentation mais comme un nouveau vecteur pour l’art.
Dans les années 1840, grâce à différentes innovations qui raccourcirent les temps d’exposition, des studios de portraits photographiques commencèrent à apparaître à Londres et à New York. Et de nouvelles sortes de supports photographiques remplacèrent les plaques d’argent ou de mercure, fragiles et encombrantes, de Daguerre. En 1840, l’inventeur anglais William Henry Fox Talbot découvrit le procédé du calotype, dans lequel l’acide gallique était utilisé pour développer l’iodure d’argent contenu dans le papier. (Le révélateur favorise la transformation d’un sel d’argent exposé à la lumière en particules de métal d’argent; le fixateur rend l’image stable à la lumière en enlevant le sel d’argent non exposé.] Le procédé du calotype produisait une image négative dont on pouvait tirer des épreuves positives. En 1844, Fox Talbot publia le premier livre d’illustrations photographiques, The Pencil of Nature, avec les photos collées une à une à leur place. Il avertissait le lecteur que « les planches de ce livre sont gravées uniquement par l’action de la lumière, sans aucune autre aide que le crayon de l’artiste ».
Comme le calotype, le procédé au collodion de Frederick Scott Archer, découvert en 1851, était une technique « humide » dans laquelle le papier photographique était préparé sur place et exposé encore humide. La nitrocellulose (le premier polymère synthétique] dissoute dans l’éther était mélangée à de l’iodure de potassium, puis tous deux étaient versés sur une plaque de verre et sensibilisés à la lumière avec du nitrate d’argent. Une fois exposée, la plaque était développée avec de l’acide gallique ou du sulfate de fer et fixée avec du cyanure d’hypo ou de potassium. Le photographe devait transporter avec lui un petit laboratoire de chimie (sans parler d’une chambre noire portable; fig. 13]. La photographie ne pouvait devenir une activité populaire sans un médium portable, solide et facile à développer.
Au milieu des années 1850, Richard Hill Noms découvrit que la gélatine liquide pouvait être utilisée pour préserver le mélange de collodion préparé comme une émulsion, qui pouvait être préparée à l’avance sur des plaques « sèches ». La gélatine se ramollissait lorsqu’elle était humidifiée, et ainsi le développement pouvait s’effectuer. En 1867, la Dry Plate and Photographie Company de Liverpool vendait des plaques sèches d’émulsion de bromure de collodion/argent préservé avec de l’acide gallo- tannique.
Fox Talbot introduisit une seconde innovation déterminante en 1852. Il inventa une variante du procédé de photogravure primitive de Niepce, dans lequel un film à gélatine durci en proportion à son exposition à la lumière était utilisé comme cache pour graver des plaques à l’eau-forte. En exposant les plaques à travers un tissu noir à mailles, il pouvait produire des images en pointillés qui saisissaient des demi-tons, mieux que celles consistant en surfaces uniformément noires et blanches [exposées et non exposées]. Cette gravure en demi-ton fut améliorée dans les années 1880, en remplaçant le tissu par deux feuilles de verre gravé avec des lignes parallèles se croisant à angle droit.
Les films à la gélatine de Fox Talbot furent adoptés en 1853 par Paul Pretsch de Vienne pour sa méthode « collotype » de gravure photographique. Lorsque la gélatine durcit, elle perd sa capacité d’absorption de l’eau. Ceci permet au film d’être utilisé d’une manière comparable à la lithographie: des encres lithographiques huileuses sont repoussées des parties lisses du film, qui absorbent l’eau et passent aux surfaces durcies. Mais plutôt qu’une division brusque entre les deux, il y a une gradation liée à l’intensité de l’exposition et donc au degré de durcissement. La gravure au collotype peut saisir des demi-tons sans avoir besoin d’un écran de tissu à mailles, et ainsi agit sans les caractéristiques granuleuses de ce dernier. Elle reproduit donc des images d’une excellente fidélité, et on la pratique encore de nos jours pour des gravures de très haute qualité. Cependant, les plaques de collotype s’usent après seulement une centaine d’impressions, si bien que la technique est coûteuse et praticable seulement pour des faibles tirages.
Dans les années 1890, les amateurs de photographies commencèrent à se multiplier. À New York, en 1889, la compagnie photographique de George Eastman acquit un brevet pour un film photographique flexible à base de celluloïd. Le film pouvait être facilement rangé dans un rouleau, et Eastman inventa un appareil, le Kodak, qui l’abritait. Le développement ne pouvait être effectué que par l’Eastman Company, et l’appareil lui- même devait être envoyé, avec le film exposé, à la société pour en avoir des tirages. Il était retourné prêt à servir équipé d’un nouveau film. « Vous pressez le bouton, nous faisons le reste », proclamait la publicité.
La photographie était-elle un art en elle-même, ou simplement un moyen de reproduction et de documentation? Nombre des premiers photographes étaient peintres aussi, quoique souvent plus remarqués derrière l’objectif qu’à leur chevalet. Durant les années 1840, le paysagiste écossais David Octavius Hill et son collaborateur technique Robert Adamson utilisaient le procédé du calotype pour prendre des images remarquables qui, quoique destinées à servir de référence aux peintures de Hill, reçurent des critiques louangeuses en tant que telles. Dans les années 1850, l’artiste français Gustave Le Gray créa la Société française de Photographie afin de promouvoir la nouvelle technologie comme une forme d’art. Au début du XXe siècle, des sociétés similaires existaient à Londres et à New York.
À cause des contrastes de tons crus produits dans les premières photographies, les peintres s’en servirent comme d’une source de références pour trouver une nouvelle manière de décrire le monde — tout à fait en désaccord avec les pratiques académiques de clair-obscur. Manet et Degas étudièrent la photographie dans les années 1860, et le caractère immédiat de l’Olympia (1863) de Manet, qui choqua tellement les sensibilités traditionnelles, exploite un style de lumière typiquement photographique. Pour le peintre et écrivain Eugène Fromentin, la franchise brutale de cette lumière faisait craindre le déclin moral de la peinture: « si claire, si explicite, si formelle, si crue ».
Dans les années 1920, des artistes comme le surréaliste Man Ray et le peintre constructiviste hongrois Laszlo Moholy-Nagy montrèrent qu’en manipulant le procédé photographique, on pouvait produire des images aussi frappantes et imaginatives que celles nées du pinceau. Cependant, c’était la véracité de la photographie spontanée qui donnait beaucoup de sa force artistique au médium. Dans de bonnes mains, elle pouvait produire des visions qui n’étaient pas seulement à couper le souffle, belles, perturbantes ou choquantes, mais qui avaient réellement existé à un instant précis. Les photographies de style documentaire d’Henri Cartier-Bresson et de Robert Capa chevauchent cette irrésistible frontière entre le reportage et l’art, où la photographie semble posséder une force de changement social que la peinture ne pourra jamais avoir. Walter Benjamin suggère que l’art dans lequel « l’authentique n’a plus de signification, devient inévitablement politique ». Pour la photographie et le cinéma, cela a sûrement été le cas.
Mon intention, ici, n’est pas de retracer l’histoire de la photographie, mais de chercher son influence sur la reproduction de la peinture. Des entrepreneurs s’en servirent rapidement dans ce but. Les frères Leopoldo, Giuseppe et Romualdo Alinari de Florence, par exemple, créèrent en 1852 un atelier de photographie, consacré non seulement aux portraits, mais aussi aux monochromes reproduisant des œuvres d’art et d’architecture. Il était cependant difficile de voir comment la photographie pourrait jamais satisfaire les amateurs d’art tant qu’on ne pourrait leur fournir que des épreuves sépia et grises.
Le ruban en tartan de Maxwell
La photographie en couleurs fut une invention curieusement précoce. Voyant les premières images photographiques piégées sur le verre des daguerréotypes ou volées à l’argent sombre du papier calotype de Fox Talbot, les spectateurs eurent très envie de recréer le monde que leurs yeux enregistraient. Et ainsi des peintres colorèrent à la main ces premières photos. En 1859, le fabricant d’estampes Georges Baxter déposa le brevet de photos en couleurs utilisant la technique des bois gravés combinés.
Ce n’était cependant qu’une façon plus efficace d’ajouter de « fausses couleurs » après que l’image avait été développée. Il aurait été bien mieux de créer des plaques d’impression en couleurs directement à partir de la pose photographique. À la fin des années 1850, un certain Burnett de l’Edinburgh Photographie Society fit la suggestion, rétrospectivement évidente, que la photogravure, ou toute autre méthode de gravure photographique, pourrait aboutir à ceci par le simple blanchiment à la main des surfaces de la planche d’impression où la couleur n’était pas désirée. Les gravures multicolores pourraient être produites par l’accumulation de pièces colorées séparément, de la même manière qu’étaient réalisées les gravures polychromes faites à la main. Le procédé du calo- type pour préparer les plaques dans ce but, devint populaire.
Faire des plaques photographiquement était certainement plus facile que de les graver à la main. Mais encore avait-on besoin d’une plaque différente pour chaque couleur de l’image. Une méthode à trois couleurs qui aboutirait à une image tout en couleurs, à partir des trois primaires, représenterait une grande économie. Pour arriver à cela, on avait besoin, en premier lieu, d’un procédé permettant d’exposer les plaques photographiques d’une manière sensible à la lumière pour séparer les couleurs primaires.
Les travaux du physicien James Clerk Maxwell sur l’optique de la couleur et les primaires additives, ainsi que ses connaissances de la théorie des trois couleurs de la vision de Thomas Young, lui donnèrent une notion claire de la manière dont une image en couleurs pouvait ainsi être obtenue à partir de séparations monochromes. En 1857, il écrivait: Ses expériences aboutirent à la fin des années 1850. Dans la lumière extérieure naturelle, lui et son assistant Thomas Sutton exposèrent des plaques photographiques au collodion d’un nœud fait de ruban de tartans de différentes couleurs, épinglé à un velours noir. En plaçant des filtres de couleur entre l’objet et la plaque, ils obtinrent des négatifs qui enregistraient la lumière de chacune des primaires additives prises individuellement. Par exemple, les parties rouges du ruban, qui absorbaient la lumière bleue et la verte, n’apparaissaient pas dans les expositions à travers les filtres bleus et verts.
Ces filtres étaient des flacons de verre contenant des solutions colorées. Quelqu’un venant du monde de la fabrication de la couleur aurait sûrement utilisé des teintes standard. Mais, en tant que scientifique, Maxwell était plus familier des couleurs du laboratoire chimique académique : le bleu roi du sulfate de cuivre ammoniacal, le vert du chlorure de cuivre, le rouge de l’hyposulfite de fer.
Pour reconstruire l’image en pleine couleur à partir des séparations négatives, Maxwell projetait de la lumière colorée à travers chacune d’entre elles et surimposait les images projetées sur un écran. Il révéla ses résultats dans une conférence, en 1861, à la Royal Institution. En dépit du succès retentissant de sa démonstration191, Maxwell était conscient de ses limites. Il savait que l’émulsion photographique courante qu’i employait était moins sensible à la lumière rouge et à la lumière verte qu à la bleue, et c’est pourquoi l’image reconstruite manquait de vérité : En fait, l’émulsion répondait si faiblement à la lumière rouge qu’elle aurait à peine enregistré la séparation rouge. Mais les études modernes ont révélé que, pour le bonheur de Maxwell, de la lumière ultraviolette était aussi réfléchie depuis les parties rouges de son ruban en tartan, et que ceci plutôt était capable de transformer le sel d’argent en métal d’argent.
En 1907, les plaques autochromes des frères Auguste et Louis Lumière, les inventeurs du cinématographe, eurent plus de succès commercial comme moyens de reproduire les images en couleurs. Ces plaques étaient recouvertes de minuscules grains de fécule de pomme de terre teintés en rouge, en vert et en bleu, sur lesquels était étalée l’émulsion sensible à la lumière. Les poses étaient prises à travers la couche teinte qui agissait comme un filtre de couleur. Après développement, un transparent positif était préparé à partir de ce négatif dans lequel de petits points de lumière dans les couleurs primaires se transmettaient à travers les grains de fécule, combinés de façon optique pour produire une image en couleurs comme les pixels d’un écran de télévision.
Les frères Lumière établirent les principes du système auto- chrome plusieurs années avant de pouvoir le mettre en pratique. Ils furent gênés par le problème que Maxwell avait identifié: les émulsions disponibles n’étaient pas « panchromatiques », c’est-à-dire également sensibles à toutes les longueurs d’onde de la lumière visible. Ce n’est qu’avec l’invention de nouvelles teintures sensibles au rouge par les chimistes de IG Farben en 1905-1906, que l’absorption de la lumière rouge par des émulsions photographiques put être augmentée pour produire des plaques vraiment panchromatiques.
L’Autochrome est, dans une perspective historique, un système particulier. Il représente un moyen de sensibiliser sélectivement l’émulsion photographique à la lumière de couleurs particulières en installant une sorte d’écran pointilliste de filtres colorés in situ, en face du film. Mais, en 1873, le scientifique allemand Hermann Wilhelm Vogel avait déjà proposé une meilleure manière d’éviter la nécessité des filtres liquides de lumière de Maxwell. Il inventa des émulsions photographiques qui étaient elles- mêmes assombries par seulement une des trois primaires, en ajoutant aux émulsions des colorants qui absorbaient seulement la lumière rouge, verte ou bleue. La couleur de ces teintures devait être complémentaire de la couleur à laquelle elles sensibilisaient les plaques; une teinture rouge sensibilisait une plaque non pas à la lumière rouge (qu’elle réfléchit ou transmet] mais au vert (qu’elle absorbe].
En fait, le sensibilisateur idéal pour le vert refléterait et la lumière rouge et la lumière bleue, et ainsi apparaîtrait de couleur pourpre — la couleur connue comme le magenta — plus que comme du rouge pur. De même, le sensibilisateur bleu reflète les lumières rouge et verte, qui se combinent additivement au jaune. Et le sensibilisateur rouge réfléchit la verte et la bleue, ayant ainsi une apparence turquoise que les imprimeurs appellent cyan. Les sensibilisateurs idéaux absorberaient, en d’autres mots, environ un tiers du spectre de la lumière blanche et en refléterait les deux tiers: le cyan (« blanc moins rouge »], le jaune (« blanc moins bleu »] et le magenta (« blanc moins vert »].
Vogel employa les composés de bleu naphtol ou de cyanine pour la plaque sensible au rouge, et l’éosine rose pour la plaque verte. Initialement, il ne considérait pas comme essentiel d’ajouter un sensibilisateur (coloré en jaune]pour la séparation du bleu, puisque le bromure d’argent dans l’émulsion est sensible avant tout à la lumière bleue. Mais, plus tard, il se servit de fluorescéine jaune-vert comme sensibilisateur bleu. Toutes ces couleurs, on peut le noter, sont des teintures de goudron de houille très récemment apparues dans les années 1870 Vogel s’intéressait à l’usage de ces séparations pour préparer les plaques d’impression à trois couleurs — ce qui est la manière dont la photographie couleurs, en fin de compte, fournira des reproductions au grand public.
Mais son approche de sensibiliser des émulsions à des couleurs particulières utilisant des teintures fut aussi adoptée pour fabriquer des diachromies et des gravures positives en couleurs — ce qui, dans les années 1960, a abouti à la grande consommation pour l’amateur de photographie en couleurs.
L’étape suivante dans cette direction fut l’invention, en 1911, par le chimiste allemand Rudolf Fischer, d’un film qui éliminait le besoin peu commode des trois séparations de couleur. Dans le film de Fisher, les trois émulsions sensibilisées à la teinte ne sont pas divisées en plaques séparées mais sont surimposées en couches sur un simple substrat [fig. 14], Tout film photographique moderne est basé sur ce système. La manière dont le film est transformé en un négatif de vraie couleur à partir duquel des épreuves positives peuvent être préparées, est assez différente aujourd’hui de la manière dont Fischer le faisait; mais les principes sont en grande partie les mêmes.
L’objectif est de convertir une surface d’émulsion sombre, où les grains d’argent ont précipité, en une surface de couleur translucide de la teinte appropriée. Des agents de pontage sont utilisés pour déposer dans ces espaces des teintures complémentaires de la couleur à laquelle la couche est sensibilisée. Par exemple, là où la couche sensibilisée au bleu est devenue sombre, l’agent de pontage dépose une teinture jaune sur les particules d’argent. Les particules d’argent précipitées et le sel d’argent non exposé sont ensuite chimiquement enlevés de l’émulsion, créant un négatif.
Les sociétés photographiques comme AGFA et Kodak se développèrent rapidement au début du siècle, bénéficiant de la demande de photographie en couleurs de la part des agences publicitaires, des galeries d’art et de l’industrie (AGFA, il faut le rappeler, commença par être un fabricant de teintures basé à Berlin], Dans les années 1930, les deux sociétés lancèrent les films couleurs, Agfacolor et Kodachrome, et dans les décades suivantes, elles commercialisèrent des techniques permettant d’obtenir des épreuves positives en couleurs à partir des négatifs (fig. 14], Pour alléger les défauts les plus Insignes des matériaux, le film photographique moderne est devenu quelque chose comme un patchwork. Parce que la conversion du sel d’argent en argent est particulièrement sensible au rayonnement haute fréquence (soit de la lumière bleue], les couches sensibles rouge et verte, qui se trouvent en dessous du bleu, doivent être protégées de toute lumière bleue étrangère pouvant passer à travers la couche bleue, par l’intervention d’un filtre teinté en jaune.
Plus problématique est le fait que les teintures sont inévitablement des primaires imparfaites: la teinte cyan absorbe un peu de gris et de bleu, et le magenta un peu de bleu. Cela signifie que le cyan dans le négatif communique une nuance rosâtre au positif, et que le magenta est altéré par du jaune. Pour contrer cela, des teintures additionnelles pâles sont ajoutées au cyan et au magenta dans le négatif afin de corriger l’équilibre de la couleur. Idéalement, les teintures devraient avoir une bande étroite d’absorption dans leurs gammes de longueur d’onde respectives, sans aucun chevauchement entre elles. De cette manière, par exemple, la lumière verte ne contaminerait pas la séparation bleue.
Mais la physique de l’absorption de la lumière ne travaille pas de cette manière: il y a toujours une hausse ou une baisse plus ou moins douce dans l’absorption lorsque la longueur d’onde change [fig. 15). De considérables efforts ont été faits pour trouver des teintures ayant des caractéristiques aussi proches que possible de l’idéal — celles utilisées dans l’industrie textile ne sont pas conçues pour satisfaire des contraintes aussi étroites. Des efforts vers une synthèse rationnelle de la couleur, initiée par Otto Witt au xixesiècle [voir p. 213], sont devenus d’une importance cruciale pour la fidélité de la photographie en couleurs.
Foi en l’encre
Quoique James Clerk Maxwell se soit lui-même enfermé dans la reconstruction additive de ses images à trois couleurs par projection, nul besoin d’être un grand génie pour comprendre que ses séparations photographiques pouvaient être utilisées pour préparer des plaques destinées à l’impression à trois couleurs, par le moyen des techniques existantes de photogravure ou de photolithographie. L’idée vint à plusieurs personnes au début des années 1860, non sans faire de l’antériorité un sujet à contentieux. En 1862, le Français Louis Ducos du Hauron proposait que les plaques d’impression puissent être fabriquées à partir de photographies exposées à travers du verre coloré. Et, en 1865, un Anglais, nommé Henry Collen, décrivait un concept similaire dans une lettre au British Journal of Photography, peut-être sans avoir eu connaissance des travaux de Maxwell.
Ceci le contraignait à commencer par une réinvention de la photographie en couleurs: Mais le crédit d’avoir mis ces idées en pratique doit revenir au baron Ransonnet qui, en 1865, à Vienne entreprit de se servir du principe des trois couleurs pour la photolithographie. Il collabora avec le lithographe viennois Johann Haupt afin de tirer des gravures d’un temple chinois, que Ransonnet avait photographié en tant que membre de l’expédition de l’Austrian Impérial East Asian. Haupt trouva nécessaire, pour obtenir des résultats satisfaisants, d’ajouter deux plaques supplémentaires destinées au noir et au brun.
Les émulsions photographiques sensibles à la teinte de Vogel rendaient plus simple la préparation des plaques d’impression de sélections des couleurs, en en éliminant des filtres. Chaque plaque était encrée de la même couleur que la teinte sensible en question: en général, jaune, magenta et cyan, plus une séparation noire pour l’accentuation. La plaque préparée à partir de l’émulsion sensible au vert, par exemple, était recouverte d’une encre magenta.
Le point capital, comme Vogel le vit, est que les encres doivent absorber la lumière précisément de la même manière que les sensibilisateurs de teinte. Sans cela, la recombinaison des couleurs ne peut espérer capturer avec fidélité les coloris de la scène originale. Par exemple, si une encre rougeâtre est utilisée à la place du magenta, elle absorbe la lumière bleue là où, dans l’impression finale, elle devrait la réfléchir.
Idéalement, dit Vogel, les colorants devraient avoir la même teinte dans les encres que dans le sensibilisateur. C’était une injonction implicite aux fabricants chimiques et photographiques d’assortir leurs produits les uns avec les autres. Mais ce n’était pas faisable; pour des raisons chimiques et économiques, toutes les teintures ne faisaient pas des encres viables. En d’autres mots, à l’ère de la photographie, exactement comme à l’époque de la gravure à la main, le succès de la gravure à trois couleurs était une question de matériaux.
Le résultat fut, comme souvent, un compromis: on devait fabriquer avec les encres disponibles. Frederick Ives [qui introduisit la méthode en demi-ton de Fox Talbot dans la gravure photographique à trois couleurs à la fin des années 1870] proposa en 1888 que le bleu de Prusse [qui est verdâtre), l’éosine rouge [qui est bleutée] et un « jaune brillant » non spécifié soient utilisés. Mais le photographe E.J. Wall écrivait en 1925: « des encres d’impression qui se conformeraient le mieux aux exigences théoriques strictes […] représenteraient la plus grande avancée […] Des encres théoriquement parfaites sont encore un vœu pieux».
En fait, des encres « théoriquement parfaites » ne peuvent exister. Comme pour les teintures sensibilisatrices dans le film photographique, les encres idéales d’impression à trois couleurs idéales absorberaient un tiers du spectre visible dans des bandes ne se chevauchant pas [fig. 15). Mais la physique de l’absorption de la lumière ne le permet pas : les encres d’impression existantes ont des bandes d’absorption aux extrémités courbes qui empiètent sur le territoire de l’une et de l’autre. Cela limite leur capacité de rendre ses couleurs réelles avec précision quand elles sont superposées.
On peut juger par soi-même, à partir de n’importe quelle reproduction en couleurs d’un vieux livre, comment avec efficacité — ou pas ! — des encres d’impression s’en sont sorties malgré ces défauts. Pour ceux qui sont trop jeunes pour avoir des souvenirs de première main, il est difficile d’échapper à l’impression que les événements du monde dans les années suivant la Seconde Guerre mondiale se déroulèrent dans une lueur excessive de Technicolor aux lèvres rouges rubis et aux ciels bleus phtalocyanines; exactement comme la Première Guerre mondiale semble s’être déroulée en monochrome.
Le degré de fidélité à l’original d’une impression est toujours déterminé par la qualité des encres. Elles sont les blocs de construction chromatiques à partir desquels on doit essayer de recréer chaque couleur existante, et il ne peut jamais s’agir que d’une approximation. Le vermillon, par exemple, a sa teinte unique, sa manière caractéristique de pincer les nombreuses cordes du spectre. Imiter celle-ci en se servant de cyan, de jaune et de magenta — chacune « pince » son propre mélange d’harmonies — équivaut à une tentative de reproduire un son de trompette en mélangeant, dans des proportions différentes, les notes produites par un piano, une flûte et un tuba. On peut atteindre le même résultat avec un trio d’instruments différents, et obtenir une approximation plus ou moins fidèle. Donc, la reproduction, dans un livre illustré, du riche vermillon d’un triptyque médiéval, dépend de manière déterminante du choix des encres [entre autres) par l’imprimeur. La seule chose que nous puissions tenir comme assurée est que cette impression ne sera jamais identique à ce que l’on voit lorsque l’on se trouve face à la peinture elle-même.
Soucieux d’éloigner de telles inquiétudes, le magazine britannique Colour rapportait, en 1920, le témoignage de plusieurs « grands artistes » sur l’exactitude de leurs reproductions. Néanmoins, jusqu’aux années 1950, les historiens d’art n’acceptaient qu’à contrecœur les photographies en couleurs — même les impressions photographiques, sans parler des reproductions dans les livres — comme des moyens valables d’enregistrer des images. Et, jusque dans les années 1960, selon l’historien de l’art américain Edgar Wind, la reproduction photographique en couleurs de peintures était encore si primitive qu’il valait mieux se servir d’images en noir et blanc. Il écrivait: À juger par quelques livres de son époque, on ne peut lui donner tort. John Gage remarquait que l’usage des diapositives, dans les conférences sur l’art à Cambridge, étaient l’exception plutôt que la norme.
Couleur digitale
Les principes restent alors que les technologies changent. L’impression en couleurs moderne est presque invariablement pratiquée à partir d’une image électronique. Cela ne nécessite aucune « épreuve » que l’on puisse avoir en main et examiner visuellement entre l’étape de la numérisation électronique de l’original, et l’impression de la reproduction avec des encres de couleur [pas de plaques lithographiques, ni de négatifs photographiques]. Même si la photographie est utilisée, cela peut être d’une façon qui convertisse la lumière réfléchie directement en une matrice de données numériques enregistrées magnétiquement dans une caméra digitale, plutôt d’une façon qui laisse une empreinte sur l’émulsion photographique.
Et cependant, à la fin, la reproduction est toujours effectuée comme Le Blon le faisait: par mélange soustractif et optique, avec un ajout de noir pour le contraste. Le logiciel doit effectuer des opérations délicates pour convertir l’image numérisée en indications, en ordres de mouvements qui recréent les valeurs colorées par la méthode en demi-teinte, imitant avec l’électronique digitale ce que Fox Talbot faisait avec un morceau de tulle noir. La méthode des trois couleurs, de pointillée en demi-teintes, reste la plus efficace manière de poser la couleur exacte sur la page.
Les systèmes électroniques permettent un grand degré de contrôle de la reproduction des couleurs, mais ce n’est pas la même chose que de dire qu’ils permettent une exactitude parfaite. Ils peuvent être très précis, mais ne le sont pas de manière routinière, et le processus digital introduit des complications qui lui sont propres. Pour convertir une image en couleurs — que ce soit une peinture originale ou une photographie de celle-ci — sous une forme électronique, un scanner contient des dispositifs qui produisent un courant électrique en rapport avec la quantité de lumière qui tombe sur eux. Des filtres de couleur séparent la lumière incidente en éléments rouge, bleu et vert.
Pour mémoriser l’image sous forme numérique, celle-ci est fragmentée en une grille de minuscules points, chacun d’entre eux se voyant attribué une couleur unique. La finesse de cette grille détermine en dernier lieu la résolution — le degré de détail — qui peut être atteinte dans une version imprimée de l’image électroniquement conservée. Plus fine est la grille, meilleure est la résolution — mais aussi plus d’espace mémoire est nécessaire pour stocker l’image. En général, l’image sera conservée sur une grille plus fine que celle correspondant à la « taille du grain » de l’impression finale en demi-teinte. Il n’est pas rare, par exemple, que l’image scannée soit fragmentée en plusieurs milliers de points par centimètre, alors que l’impression à une résolution d’environ 100 points par centimètre est suffisante sauf pour un travail d’extrême qualité.
Avant l’impression, une appréciation de la fidélité et de l’équilibre de la couleur d’une image numérisée sera faite en l’examinant sur un écran de contrôle. L’image conservée électroniquement est peinte dans les couleurs des grains de substances fluorescentes de l’écran de l’ordinateur. Chaque point de la grille ou pixel de l’écran contient des grains de trois substances fluorescentes différentes. Quand elles sont frappés par le faisceau d’électrons projeté sur l’écran depuis l’arrière du moniteur, les substances fluorescentes émettent de la lumière d’une couleur particulière: l’une luit en rouge, l’autre en bleu et l’autre en vert. Le faisceau d’électrons est balayé d’arrière en avant à travers l’écran, si rapidement que l’œil enregistre chaque point lumineux de manière continue.
Les substances fluorescentes, donc, donnent corps à un autre système de primaires qui peut être légèrement différent de celui des filtres de couleur du scanner aussi bien que différent du jaune/cyan/magenta des encres d’impression. L’ordinateur doit savoir comment interchanger son cadre de références de couleurs entre ces différents systèmes. Mais quelle que soit la méthode pour reconstituer des couleurs à partir des trois primaires, soit additive soit soustractive, elle perdra inévitablement certaines couleurs.
L’espace de couleur accessible par le mélange additif des trois couleurs peut être représenté par une surface triangulaire sur le diagramme CIE (voir p. 50] où chaque couleur est disposée à l’un des angles [fig. 16a). [Mais il faut rappeler que ceci ne montre pas des valeurs de couleur différentes, ainsi un brun est équivalent à un jaune.) Parce que l’espace complet des couleurs est limité non par des frontières droites, mais par des courbes, aucun triangle de primaire ne peut l’entourer entièrement. La série de couleurs qu’il est possible d’obtenir du mélange d’un certain ensemble de primaires est appelée la gamme des couleurs.
Ainsi, que doit-on faire d’une combinaison de lumières rouge, bleue et verte enregistrée par le scanner et que le système de primaires dans la « reproduction » — soit les substances fluorescentes de l’écran, soit les encres d’imprimerie — n’est pas capable de reproduire ? Il y a deux manières courantes pour l’ordinateur de manipuler des couleurs tombant en dehors de la gamme. Le plus simple est de les avancer à la limite la plus proche de la gamme: pour se rapprocher d’une couleur quelconque, on ne peut pas la rendre avec la plus proche possible. Cela signifie que deux zones de couleur qui sont visuellement distinctes dans l’image originale peuvent devenir identiques dans la reproduction. Une autre solution qui évite cette conséquence est de compresser régulièrement la gamme entière de couleur de l’image, jusqu’à ce que les points de la grille entrent à l’intérieur de la gamme (fig. 16b). Cela déplace toutes les couleurs légèrement dans toute l’image, mais maintient un équilibre qui approche l’original au plus près.
La gamme de couleurs des substances fluorescentes de l’écran est déterminée par les matériaux à partir desquelles elles ont été fabriquées. On peut imaginer que les substances fluorescentes idéales pour un écran tout couleur correspondraient aux couleurs localisées aussi loin que possible dans les angles du diagramme CIE en forme de langue, pour contenir autant d’espace de couleur que possible. Mais, en fait, il vaut mieux ne pas se risquer trop loin dans ces angles totalement saturés, parce que cela impliquerait de se servir de substances fluorescentes rouges et bleues qui émettent aux limites de la gamme visible. À ces extrémités, une lumière de très haute intensité est nécessaire pour produire une sensation appréciable de luminosité.
Il est techniquement difficile d’extraire autant de luminosité des substances fluorescentes. Ainsi, pour cette raison et pour d’autres, les substances fluorescentes considérées comme « idéales » ont une gamme de couleur plus restreinte [fig. 16a). De même, il est difficile de trouver des matériaux qui satisfassent cet idéal: la substance fluorescente vert canonique [zinc ou sulfure de cadmium] ne peut pas reproduire des verts très saturés.
Ainsi, même sur les écrans d’ordinateur, où l’art est de plus en plus vu, manipulé et même créé, les limites du matériel restreignent les possibilités colorimétriques. Comme des nouvelles technologies d’écran deviennent disponibles, en particulier les systèmes à écrans plats basés sur des affichages de cristaux liquides ou sur des diodes émettrices de lumière, de nouvelles couches de complexité seront ajoutées à ces limites. Il n’est absolument pas évident que les nouvelles technologies augmentent la gamme de couleurs des images sur écran, peut-être même au contraire.
En général, les substances fluorescentes rouges, vertes et bleues des écrans de contrôle offrent quelque chose comme 17 millions de combinaisons différentes de couleurs. Mais, comme d’habitude, la palette d’une image conservée est beaucoup plus restreinte, l’image peut être conservée en utilisant seulement une modeste somme de mémoire. La palette, généralement, contient 256 couleurs, chacune composée d’une combinaison spécifique de rouge, de vert et de bleu auxquelles les teintes de l’image scannée sera comparée, via une « table de recherche de couleurs » [colour look-up table] ou « dut ». L’image emmagasinée est par conséquent susceptible d’avoir une gamme de couleurs plus étroite que l’original: on doit repeindre l’image avec une palette de 256 couleurs qui ne peuvent être mélangées. Mais si le dut [c’est-à-dire, la palette digitale] est choisie pour aller avec les couleurs de l’original, IL y aura une telle diversité que l’œil sera à peine capable de détecter une différence. D’un autre côté, un dut pauvrement assorti peut produire une image avec une tonalité déformée [planche 59).
Optimiser le dut est un aspect crucial de l’appariement de la couleur. Cela peut se faire de diverses manières sur des systèmes d’ordinateur différents, c’est une des raisons pour lesquelles la gamme de couleurs d’une image peut être altérée si elle est scannée sur un système et vue, ou imprimée, sur un autre. Des différences entre moniteurs peuvent aussi nuire à l’équilibre, à cause des variations en luminosité des substances fluorescentes. Pour ces raisons, une image peut être éclairée ou assombrie lors du transfert d’une machine à l’autre: celles scannées sur IBM-PC tendent à paraître trop brillantes quand on les déplace sur des systèmes Apple Mac et Unix, et par conséquent le transfert dans l’autre sens donne des images plus sombres.
Pour imprimer l’image scannée, l’ordinateur doit convertir une grille codée de différentes intensités de lumières rouges, bleues et vertes, en instructions pour déposer les quatre encres [jaune, magenta, cyar noire) sur une surface donnée, dans les proportions correctes et se chevauchant pour générer le même effet visuel que la lumière rouge, verte et bleue réfléchie à partir de la surface de l’original. Le calcul est compliqué par plusieurs facteurs — par exemple, les propriétés du papier [sa blancheur ou son grain) affecteront l’apparence de n’importe quelle combinaison d’encres. En pratique, ces calculs prendraient trop de temps pour être performants en temps réel, si bien qu’ils sont préétablis pour une gamme entière de combinaisons différentes de rouge/bleu et vert, prenant en compte les qualités des encres d’impression et du papier. Alors tout ce que l’ordinateur a à faire est de consulter dans une table en mémoire les réponses pour chaque grain de l’Image quadrillé.
Pour une impression à une large échelle, comme pour ce livre, les images stockées électroniquement seront physiquement incorporées aux plaques d’impression ou aux rouleaux, de manière à ce qu’elles puissent être Imprimées mécaniquement. Pour appliquer l’encre au papier, la plupart des procédés développés au xixe siècle sont toujours utilisés. La lithographie avec des rouleaux modelés aux surfaces attirant l’encre ou la repoussant est le plus répandu de ceux-ci; elle est effectuée par le biais de la technique offset dans laquelle les encres sont d’abord transférées des plaques à un blanchet de caoutchouc qui est ensuite pressé contre le papier. Les méthodes de la taille-douce et de la gravure en relief [où les encres sont respectivement tenues en négatif ou transportées sur les surfaces en relief des plaques] continuent à avoir leur utilité. Et, plutôt que de se servir de planches d’impression, Il peut être moins coûteux et plus pratique, pour des travaux d’impression à petite échelle, d’être menés par « impression directe de l’image » [direct imaging printing), procédé où la reproduction s’effectue directement depuis les indications numériques électroniques utilisant des systèmes à jet d’encre.
Mais, à la fin, quelle est la qualité des reproductions? La gamme sur la page imprimée est toujours délimitée par l’étendue sur laquelle les encres sont de bonnes primaires; et des encres théoriquement parfaites sont toujours un vœu pieux. Parce que le magenta absorbe plutôt trop de bleu, et les cyans trop de bleu et de vert, Il peut être difficile de reproduire avec exactitude les bleus, verts, cyan et magenta de saturation basse [paraissant encrassés]. Et une reproduction à trois couleurs peut seulement rendre avec succès les couleurs de haute saturation dans la gamme du rouge au jaune. La gamme peut être encore plus limitée par la nature du papier — le papier journal, par exemple, tue les couleurs à haute saturation, ce qui explique que les journaux impriment leurs magazines illustrés sur du papier de meilleure qualité. La gamme peut être élargie en se servant d’encres supplémentaires comme des rouges, des verts et des bleus plus foncés. Cela augmente les coûts d’impression et ne peut être employé que pour les tirages les plus forts.
L’ordinateur dans l’art
Exactement comme des méthodes de gravure — bois gravé et gravure sur linoléum — ont été utilisées comme véhicules d’expression artistique de plein droit, l’âge digital offre une nouvelle voie de manipulation des lignes et des couleurs pour les artistes. L’art sur ordinateur est un médium si nouveau que l’on ne sait pas encore si on doit le congédier comme marotte ou voir en lui l’avenir de l’art visuel. Cependant, je ne peux imaginer que la technologie digitale ne réussisse pas à être valorisée en tant que moyen d’expression créatif, une fois qu’une génération d’artistes aura été plus habituée à tenir une souris qu’un pinceau. Aucun grand peintre digital n’a émergé jusqu’ici pour rivaliser avec ceux qui travaillent avec le produit salissant qui sort des tubes que l’on presse, mais les visionnaires électroniques n’ont après tout leur boîte de peintures que depuis une vingtaine d’années.
L’usage des ordinateurs en art a commencé dans les années 1960, alors que la technologie était encore si nouvelle et mystérieuse que l’art graphique qu’elle générait bénéficiait d’un prestige par simple association. Les œuvres monochromes faites par ordinateur étaient exposées dans les galeries d’art; et même si elles n’avaient pas plus de mérite que la musique sur ordinateur qui atteignait les salles de concert, c’était un départ. Le peintre américain Robert Rauschenberg fut l’un des premiers artistes de renommée à voir la chose venir; en 1967, il s’associa avec le physicien Billy Kluver des Bell Laboratories pour créer une initiative appelée Experiments in Art and Technology.
Étant donné l’absence de couleur dans ces premières tentatives, il est à peine surprenant que l’art sur ordinateur des années 1960 et 1970 ait concentré ses efforts sur la ligne et le volume, c’est-à-dire sur la construction de l’espace. Ces considérations sont évidentes dans les œuvres sur ordinateur de Frieder Nake et de Manfred Mohr. Mais le danger d’une approche logarithmique de l’art est apparente dans la quête du philosophe allemand Max Bense, dans les années 1960, pour identifier les lois exactes que l’ordinateur peut explorer et utiliser pour produire des images « esthétiquement correctes ». Il faut se rappeler les tentatives des scientifiques pour imposer des règles strictes de couleur dans la peinture, et « corriger » les œuvres qui y contreviennent.
Pour que l’art sur ordinateur se répande et prospère, les trois principaux critères étaient des prix bas, l’interactivité et la couleur. Tout cela arriva dans les années 1980 quand Apple inventa l’ordinateur personnel bon marché Macintosh avec son logiciel graphique interactif MacPaint. [En dépit du nom attirant, celui-ci n’était initialement capable de fonctionner qu’en noir et blanc.] Quand le graphisme en couleur devint plus sophistiqué, des peintres s’activèrent pour explorer la nouvelle technologie. David Hockney se servit d’ordinateurs dans des œuvres de photocollages, cependant qu’Andy Warhol acheta un ordinateur Amiga pour expérimenter des combinaisons de couleurs dans ses impressions sur écran de soie.
Parce que la technologie de l’ordinateur est une cible très mouvante, un instantané n’aura pas un intérêt très durable. L’artiste a maintenant une toile virtuelle sur laquelle des marques peuvent être faites qui ressemblent aux touches du pinceau, aux lignes du crayon ou du pastel, du liquide giclant et ainsi de suite [chacun possède quelque chose comme 17 millions de couleurs]. Les toiles peuvent être corrigées en un instant, ouvertes ou abandonnées sans que cela ne coûte rien. Mais savoir si l’imitation de la peinture manuelle est la meilleure manière d’exploiter ce nouveau médium, quand les possibilités de l’interaction, de l’animation, du collage et des références intercroisées sont si grandes, reste une question ouverte. Le plus gros problème de l’ordinateur actuellement est sa versatilité : une gamme trop grande d’options risque d’étouffer l’art, comme les coloristes de la Renaissance le savaient déjà.
De plus, il n’y a aucune notion acceptable d’authenticité et d’originalité pour une œuvre d’art créée digitalement. Chaque épreuve est-elle une œuvre originale? Si ce n’est pas le cas, où se trouve exactement l’original? Certains artistes sur ordinateur règlent ce problème en faisant des tirages limités [Manfred Mohr ne fait qu’une seule impression de ses œuvres]. Bien sûr, en un sens, le même problème se pose aux photographes d’art; mais, au moins, il y a toujours un négatif original. Comme Internet, fier de sa culture du libre accès pour tous, permet très facilement la dissémination d’images digitales, la question de « l’authenticité » dans l’art sur ordinateur — et de ses ramifications commerciales — est vouée à devenir de plus en plus complexe.
Le fait que l’art, comme Benjamin l’avait prévu, se libère du rituel n’est pas encore advenu, en partie parce que la photographie n’a jamais réellement acquis le même statut artistique que la peinture ou la sculpture. Peut-être que ce sera l’ordinateur, et non pas l’appareil photo, qui provoquera réellement cette émancipation.
OÙ EST LE PROBLÈME ?
Il n’y a pas de doute que la plupart des artistes, morts ou vivants, seraient (et souvent ont été] mortifiés de voir ce que sont devenues leurs œuvres en reproduction. Mais nous ne devons pas considérer comme allant de soi qu’il en soit ainsi. Il y a un sens pour une reproduction travaillée à devenir une œuvre d’art en elle-même, ses couleurs étant choisies pour cela; même si elle ne reproduit pas exactement l’original, elle s’harmonise effectivement. C’est évident dans les impressions en trois couleurs de Le Blon, gravées à la main avec une habileté et une sensibilité absolument remarquables. Un cas à part est la valeur artistique intrinsèque de la gravure monochrome qui, au xixe siècle, s’est efforcée de transmettre l’essence d’une grande peinture. La technologie enlève une grande partie du travail matériel, mais elle nécessite une maîtrise de l’œil humain pour rendre justice à une image.
Peut-être que c’est ce que le peintre américain Georgia O’Keefe a ressenti lorsque certaines de ses œuvres ont été préparées pour l’impression par Viking Press en 1976. Elle était une artiste d’une grande sensibilité aux nuances de couleur, mais elle indiqua toutefois à l’imprimeur « qu’il n’était pas très important que la couleur soit absolument parfaite, si le tableau est bon une fois l’impression achevée».
Vidéo : Capturer la couleur :comment l’art apparaît en reproduction
Vidéo démonstrative pour tout savoir sur : Capturer la couleur :comment l’art apparaît en reproduction
https://youtube.com/watch?v=GXNKGvu3uv4