(Fisheye #61) Il est passionnant d’assister à l’installation d’une nouvelle forme de production visuelle. Un an après l’émergence des images générées par IA, l’idée que l’on se fait de cette nouvelle technologie se précise, recomposée par les usages et le débat public. D’emblée, la génération d’images présentait des caractéristiques paradoxales. Issu d’une technologie inédite qui inverse la fonction des algorithmes de reconnaissance de formes et permet de produire des motifs à partir de mots, le «prompt art» s’appuie sur le recyclage de larges ensembles de données visuelles. Pourtant, les images générées ne sont pas des copies: ce sont des synthèses statistiques, qui peuvent être considérées comme originales, et confèrent par conséquent la qualité d’auteur à leur producteur. Cette dimension créative a permis à la génération d’images d’échapper au débat propre à l’intelligence artificielle du remplacement de l’activité humaine par des robots. En revanche, l’interrogation classique de toute nouvelle forme d’automatisation comme menace pour les producteurs existants a conduit à des choix de modération et d’auto-régulation dans les domaines de l’illustration. Mais la préoccupation majeure du débat public a été celle du risque de confusion avec les formats documentaires, en raison de l’aspect photoréaliste des nouvelles images.
Ces craintes n’ont à vrai dire trouvé que peu d’aliments. D’une part parce que les propositions d’images générées liées à l’actualité sont restées peu nombreuses. En second lieu parce que, parmi celles-ci, rares ont été les cas de confusion avérée. Une image d’une personne âgée blessée par la police au cours de manifestations a été brièvement prise pour une photo de reportage, mais il ne s’agissait que d’une décontextualisation accidentelle d’une production satirique. De façon générale, le caractère fantaisiste de la plupart des illustrations d’actualité, souvent consacrées à des personnalités célèbres, comme Donald Trump, Emmanuel Macron ou le pape François, était clairement identifiable, en raison de l’invraisemblance de la situation et du style lisse de l’image. On a également pu noter la remise en question de véritables photos de reportage dont la composition pouvait sembler trop parfaite, comme la vue d’une compagnie de CRS massée devant le Conseil constitutionnel (photo: Stéphane Mahé), ou encore la place de la Concorde vide à l’occasion des cérémonies du 8 mai (photo: Denis Allard).
Ces soupçons sans fondement témoignent d’un moment de panique dans l’accueil des images générées. Cette réaction est probablement celle qui éclaire le mieux la place de cette iconographie au sein de la culture visuelle. Pour le comprendre, il faut remonter au tournant majeur de la mise en place d’une esthétique documentaire, appuyée sur la photographie et cinéma. La référence impérative au réel que procurent les technologies d’enregistrement optique est la condition du développement explosif des usages visuels dans les médias d’information, à partir du début du XXe siècle. Passer d’une iconographie illusionniste à la valeur de vérité du document photographique a été un bouleversement sans précédent. La portée de ce tournant peut se vérifier par la contamination des productions fictionnelles par les images d’enregistrement. Après l’essor du récit cinématographique, l’illustration publicitaire passe à son tour du support graphique à la photographie dans les années 1960. Si la théorie de ces productions hybrides reste à approfondir, il semble bien qu’elles cherchent à profiter de la valeur de vérité procurée par la caution documentaire.
Cinéma, publicité, photo de stock: tous ces formats pourraient à bon droit subir le procès de la fiction combinée au photoréalisme. Dans les faits, l’esthétique documentaire s’est imposée au cours du XXe siècle comme le modèle dominant du rapport à l’image. Entre impressionnisme, cubisme et surréalisme, les arts graphiques eux-mêmes ont dû s’adapter à cette hégémonie, en donnant la première place à l’invention formelle et à l’interprétation personnelle de l’artiste. Dans cette histoire longue, les images générées marquent le retour de l’image composée, dont la lecture et les significations diffèrent fondamentalement du document visuel. Pour ces raisons, l’espace dans lequel s’est installé le nouveau médium n’est pas prioritairement l’image d’actualité, mais le vaste territoire de l’illustration. Plutôt que de dépendre du réel, les graphistes qui expérimentent la génération d’images s’inscrivent volontiers dans l’héritage du cinéma de (science-)fiction. L’une des capacités les plus exploitées des IA est la fusion des motifs ou des univers. Renouant avec le principe de la composition d’animaux fabuleux par l’association de différentes espèces, les images générées n’en finissent pas de créer des chimères. Cette pratique ne doit pas être lue comme la confrontation de deux esthétiques rivales, mais plutôt comme un rééquilibrage de la culture visuelle par un retour en force de l’imaginaire.
15 réflexions au sujet de « IA, art des chimères »
Toujours un plaisir à lire vos prises de positions par rapport aux évolutions de la photographie et ses nouvelles pratiques. Je vous invite à lire mon texte à propos du même sujet publié dans mon blog : http://du-photographique.blogspot.com/2023/05/qui-est-ton-pere.html
La photographie et son rapport impératif au réel nous a fait tomber dans le piège paréidolique. Toute image non pas réaliste, ni même hyperréaliste, mais photoréaliste, c’est-à-dire ayant les caractéristiques esthétiques de la photographie, ou plutôt des modes, styles ou techniques photographiques, est prise pour une photographie, pour un enregistrement, bien que partiel et partial, du réel. Parce que ce qui est vu de l’image ressemble à un réel photographié, alors ce qui est vu de l’image est pris pour le réel.
L’imagerie de synthèse a exploité ce domaine. Elle s’est d’ailleurs, beaucoup trop à mon avis, cantonnée à n’être qu’une photographie de synthèse au lieu d »exploiter ce qui lui est propre: l’absence des contraintes physiques du réel. Des gens d’image de talent ont toutefois nourri notre imaginaire à satiété, principalement dans le domaine de l’image animée.
L’imagerie générée est effectivement tout autre. Bien qu’étant souvent photoréaliste, elle n’est pas du domaine photographique car le dispositif est foncièrement différent: nulle notion de scène, de caméra, d’obturateur, de perspective, de focale, de lumière, de profondeur de champ, de flare, de filé, etc. Elle ne fait, pour l’heure, qu’exploiter le piège parédolique photoréaliste. Parions qu’elle saura se dégager de l’imaginaire photographique, de même que la photographie s’est libérée de l’imaginaire picturale. D’ailleurs, l’avènement de la photographie libéra la peinture de sa charge de représentation du réel. Peut-être que l’avènement de l’imagerie générée permettra de même à la photographie.
Quant à savoir si le producteur d’une image générée est un auteur, je pense qu’il nous faut encore y réfléchir. Si l’on prend les modèles de la peinture et de la photographique, les techniques ont influencé les peintres et photographes. Le développement des outils a permis d’explorer et de créer des images différentes que celles faites antérieurement à ce développement. L’exemple flagrant est le passage de la chambre photographique (à plaques) à l’appareil petit format (à pellicule 135). Voir à ce propos la leçon de Rodtchenko dans sa lettre à Kouchner en 1928. Mais les images ne sont pas contenues dans l’appareil. Elles ne préexistent pas dans la machine, même comme possibilité, avant la prise de vue. L’auteur est véritablement celui qui appuie sur le déclencheur. (Sauf selon une approche poétique de l’acte créateur).
Pour l’image générée, il y a l’opérateur final qui demande à l’algorithme de créer une image à partir de mots, et il y a le codeur qui a défini l’algorithme. L’auteur est le codeur car de lui dépend l’esthétique de l’image, esthétique photoréaliste principalement. L’imaginaire graphique n’est pas du côté de l’opérateur final. Celui-ci n’a fait qu’assembler ou plutôt cristalliser par des mots des images proprement virtuelles, c’est-à-dire qui sont dans état de simple possibilité. Mais ce champ des possibles est déjà défini, et donc limité, par le codeur. À la limite sont-ils peut-être co-auteurs, bien que le codeur est rendu invisible sous un nom commercial d’IA et de l’entreprise qui l’emploie.
On pourrait dire que toutes les images existent dans l’algorithme de l’IA, de la même manière que tous les états existent simultanément dans un système quantique (superposition d’états), et que c’est en tentant de savoir ce qu’elles sont (les images) selon un certain point de vue (les mots génératifs) qu’elles nous apparaissent telles que nous les voyons, de même qu’un état du système, parmi d’autres, nous apparait seulement lors de la mesure cet état. Donc, pour la question d’auteur, il faut attendre un développement des algorithmes s’éloignant du piège paréidolique dans lequel sont prisonnier les codeurs. (À moins que cela soit déjà le cas et que je ne le sache pas)
Enfin, pour l’anecdote, j’ai réussi, mais ce fut laborieux, à faire dessiner un mouton, selon ce que voulait le Petit Prince de St-Exupéry, à ChatGPT 3.5.
Comme la photographie a libéré la peinture de l’obsession de la vraisemblance, il me semble que le technicien-opérateur A.I. , car il n’est pas photographe, va désormais prendre la place des photographes de produits. Tous ceux qui réalisent les illustrations des pages publicitaires, les fonds pour papier peints, décors de cinéma, les affiches de cinéma…Toutes images qui n’est ni à caractère scientifique, documentaire ou journalistique va être délégué au service « AI ». Qui va dépenser une fortune pour avoir une image qui ne coûterait que quelques minutes réalisées par un opérateur sans grande compétence ? Faudrait-il « mentionner » le nom de ce technicien comme auteur, bien évidement. L’auteur du programme informatique, est-il lui aussi co-auteur ? Non, car il est assimilable au fabricant d’un appareil photo, quoi que l’on dise, a une grande influence sur le résultat final, un objectif de grande qualité, une chambre grand format, un film très fin ont une répercussion importante sur l’image finale et pourtant on n’a jamais vu les marques de ses produits associé au au nom de l’auteur d’une oeuvre.
L’auteur de l’IA ne me semble pas assimilable au fabricant d’un appareil photo car dans l’appareil photo il n’y a aucune image potentielle, proprement virtuelle, qui n’apparaitrait qu’au déclenchement (sauf à considérer poétiquement le processus comme Michel-Ange le faisait pour la sculpture en estimant que la statue était déjà à l’intérieur du bloc de marbre et que le travail du sculpteur était de soustraire la pierre en trop), alors que dans l’image générée oui, il y a multitude d’images potentielles envisagées « en creux » par l’auteur de l’algorithme de l’IA et dont l’une ou l’autre sera cristallisée et mise à la vue par quelques mots choisis.
Coupez Internet et l’application ne fonctionnera plus. L’algorithme ne contient aucune image, il est le moteur d’une application qui n’a aucun réservoir d’éléments, aucun répertoire d’images. Quand on écrit un prompt, l’application ne va pas constituer l’image d’après des morceaux contenus dans l’application, mais il va les chercher dans le web. La preuve, aucune application de conception d’images par une A.I. ne peut fonctionner sans une connexion internet. C’est pour cela que j’assimile l’application de conception d’images par AI à un appareil photo. On dirige son Leica vers un sujet qui existe dans la vraie vie pour le photographier. Avec Dall 2, on pose un prompt, un ensemble de directives semblables a ce que fait le photographe, identification du sujet, choix du fond, des couleur, taille relative du sujet, choix du point de vue. L’application va chercher des éléments selon cette liste de critères, puis construit l’image finale. D’ailleurs, la ressemblance ne s’arrête pas là. Un bon photographe, dès qu’il met la main sur un bon sujet, va procéder a une série de prise de vues afin d’avoir plusieurs variantes…C’est exactement ce que proposent les applications à l’utilisateur. Demain, si les banques d’images fermeront leur banque d’images, ou que leur service soient payant, les applications AI seront contraintes soit d’être payante à leur tour soit de devoir puiser dans l’ordinateur de l’utilisateur, à moins qu’il alimente son réservoir avec plusieurs millions d’images. La chaîne constituée par : le photographe – l’appareil photo – le sujet est, selon moi en tout moins semblable au procédé AI avec : L’opérateur le générateur d’image A.I. – Les banque d’images.
faute de frappe dans ma dernière réponse : La chaîne constituée par : le photographe – l’appareil photo – le sujet est, selon moi en tout point semblable au procédé AI avec : L’opérateur – le générateur d’image A.I. – Les banque d’images.
C’est sans doute encore un peu tôt pour deviner ce que seront les nouvelles pratiques et quelles seront leurs effets sur notre rapport à l’image réaliste. Lorsque les premiers logiciels de traitement d’images sont apparus, les photographes ont d’abord joué à mettre des vaches sur les toits et à réaliser toutes sortes de collages improbables qualifiés de surréaliste. Et puis le traitement numérique des images est devenu invisible mais essentiel à la photographie.
Je suis un très mauvais prévisionniste, mais j’imagine mal la publicité ne pas adopter massivement cette nouvelle technologie. C’est un peu comme si le fantasme d’un grand nombre de directeurs artistique devenait réalité. Pas de limite économique aux univers qu’ils souhaitent créer et pas d’intermédiaire entre leur création et l’image finale.
Je ne vois pas non plus ce qui empêcherait la circulation massive de ces images dans l’actualité qu’il s’agisse d’un mensonge éhonté pour une puissance étrangère ou d’arrangements avec la réalité comme ceux qui sont déjà pratiqués aujourd’hui par tous ceux qui ont les moyens de contrôler leur image publique.
La presse sera peut-être contrainte d’ajouter une mention genre « image générée par I. A. », tout comme aujourd’hui la mention photographie retouchée «lorsque l’apparence corporelle des mannequins a été modifiée par un logiciel de traitement d’image, pour affiner ou épaissir leur silhouette» est obligatoire.
Et probablement, comme pour ces images, sans que cela ne freine leur usage ou n’en modifie la perception par les lecteurs.
« La référence impérative au réel que procurent les technologies d’enregistrement optique est la condition du développement explosif des usages visuels dans les médias d’information, à partir du début du XXe siècle. »
Au XXe siècle, le marché fait de cette contrainte une qualité parce que la société était fascinée par ses » écrans où tout ce que l’image renfermait se trouve reproduit jusque dans les plus minutieux détails, avec une exactitude, avec une finesse incroyable. » (Arago à l’académie des sciences le 7/01/1839).
Mais le traitement numérique des images à ouvert la voie à L’IA des le début du XXIeme siècle me semble-t-il. On est toujours, si on le souhaite, dans la reproduction des plus minutieux détails, la finesse est plus incroyable que jamais, mais l’exactitude n’est plus nécessairement une qualité. D’abord La référence impérative au réel que procurent les technologies d’enregistrement optique est la condition du développement explosif des usages visuels dans les médias d’information, à partir du début du XXe siècle. que l’enregistrement photographique peut être trompeur. Mais aussi parce que lorsqu’un faux est utilisé sur Internet, une image dont la légende est volontairement erronée ou qui a été retouchée pour en transformer la réception, elle n’est plus nécessairement considérée comme inexacte. Elle pourra être même revendiquée comme « elle aurait pu être vraie » et à ce titre plus exacte que l’original.
L’I.A. permet de réconcilier réalisme, réalité et idéologie.
Désolé mais il manque un bout à mon commentaire précédent qui en devient encore plus incompréhensible :)
« La référence impérative au réel que procurent les technologies d’enregistrement optique est la condition du développement explosif des usages visuels dans les médias d’information, à partir du début du XXe siècle. »
Au XXe siècle, le marché fait de cette contrainte une qualité parce que la société était fascinée par ses » écrans où tout ce que l’image renfermait se trouve reproduit jusque dans les plus minutieux détails, avec une exactitude, avec une finesse incroyable. » (Arago à l’académie des sciences le 7/01/1839).
Mais le traitement numérique des images à ouvert la voie à L’IA des le début du XXIeme siècle me semble-t-il.
On est toujours, si on le souhaite, dans la reproduction des plus minutieux détails, la finesse est plus incroyable que jamais, mais l’exactitude n’est plus nécessairement une qualité. D’abord parce que la reproduction photographique peut-être trompeuse, mais aussi parce que lorsqu’un faux est utilisé sur Internet, une image dont la légende est volontairement erronée ou qui a été retouchée pour en transformer la réception, elle n’est plus nécessairement considérée comme inexacte. Elle pourra être même revendiquée comme « elle aurait pu être vraie » et à ce titre plus exacte que l’original.
L’I.A. permet de réconcilier réalisme, réalité et idéologie.
Ça fait plaisir de voir un débat animé sur ce blog! Merci aux intervenants pour leurs commentaires! Je réponds et prolonge sur quelques points.
@Marcol: Contrairement à ce qu’on pense, et à mon humble avis, le réalisme de la photographie n’est PAS une propriété technique. C’est le résultat d’une construction culturelle historiquement située. La meilleure preuve, c’est qu’on a utilisé 1/2 siècle plus tard une variante de cette technologie à des fins essentiellement fictionnelles. Rien de ce qu’enregistre une caméra qui filme une fiction n’est «réel»: le pirate n’est pas un vrai pirate, mais un acteur, les costumes et les décors sont reconstitués et fragmentaires, les paroles qu’ils prononcent ont été écrites par des scénaristes, les prises sont sélectionnées et montées, on ajoute de la musique, etc., etc. Une illustration publicitaire ou une photo de stock présentent des caractéristiques similaires. C’est la raison pour laquelle la théorie photographique évite d’en parler. Ce biais a pour conséquence de considérer a priori le photoréalisme comme documentaire – mais il s’agit plutôt d’une forme de paresse que d’une approche correcte.
Sur le plan technique, les images générées ne sont rien d’autre qu’une application d’aide au dessin, qui ne comportent par définition aucune contrainte référentielle (et qui n’obligent aucunement à recourir au photoréalisme, qui n’est qu’une possibilité stylistique parmi d’autres). Mais la bonne remarque à faire ici est que les bases de données qui les nourrissent sont bel et bien constituées pour une part majeure de la production illusionniste des mises en scène publicitaires, photos retouchées, fictions cinématographiques, etc…
Sur le caractère de recyclage de données de l’IA: on peut considérer que l’algorithme effectue une opération comparable à celle de tout producteur, qui ne créé jamais à partir de rien, mais travaille à partir de sa culture visuelle, stockée dans sa mémoire, et qui comprend elle aussi stéréotypes, références stylistiques, biais culturels, etc… L’approche de l’algorithme est statistique, alors que l’approche humaine est préférentielle, mais le rapport à un stock préalable est bien une condition de la création.
@Hamideddine Bouali: Tous les traits que vous décrivez en les associant à l’usage des IA existent déjà dans l’édition et la presse pour les illustrations bas de gamme. On ne cite jamais l’auteur d’une photo de stock, mais plutôt la banque d’images propriétaire du copyright: Getty, Shutterstock, etc. Il est clair que les usages des images générées vont surtout s’exercer, pour des raisons économiques, dans ces registres. Evitons donc d’opposer une pratique élitaire en faisant semblant de croire qu’elle serait réservée aux graphistes ou au photographes, pour stigmatiser de mauvaises pratiques qui relèveraient exclusivement de l’IA. Mieux vaut parler de l’économie réelle des images – qui s’est toujours étendue du côté des pratiques pauvres.
@Thierry Dehesdin: Il est tout à fait juste de noter que nous n’observons pour l’instant que des pratiques expérimentales, préalables à la mise en place de l’économie à venir des images générées. Je pense toutefois que la dimension imaginaire constitue aujourd’hui un champ économiquement intéressant pour une iconographie qui a de toutes façons déjà pris ses distances avec la référence documentaire – souvent manipulée à mauvais escient pour produire de simples « effets de réel », comme les directs télévisés sur le seuil des ministères. La coupure du lien «technique» avec le réel pourrait à cet égard rebattre les cartes de l’approche théorique (et ce que que montrent bien ces commentaires, c’est à quel point l’idée qu’on se fait d’une pratique influe sur sa compréhension), nous verrons bien, mais c’est plutôt de ce côté-là que je mettrai mes paris…
Loin de moi l’idée de hiérarchiser les gens de l’image, c’est plutôt comme vous l’avez bien mentionné, l’économie qui cherche à rentabiliser, à faire des bénéfices et vaincre la concurrence, qui va favoriser la production d’images générées par une AI, plus simple, bon marché et plus rapide que la photographie conventionnelle, dans certaines categories ! C’est un peu comme l’arrivée du numérique dans le monde de la production des dessins animés…L’armée de techniciens employés par Walt Disney, concepteurs, dessinateurs, coloristes, techniciens du banc titre… Qui concevaient une « Blanche neige » dessin par dessin, ce qui demandait des années de travail, ont été remplacé il y a un demi siècle par quelques techniciens qui arrivaient à un résultat, au moins pareil, en relativement moins de temps avec un cout moindre…. C’est un constat, conséquence directe du progrès des moyens de production et la loi du marché. Vous dites que l' » On ne cite jamais l’auteur d’une photo de stock, mais plutôt la banque d’images propriétaire du copyright: Getty, Shutterstock, etc », de même que les applications A.I. génèrent des images en allant glaner çà et là des morceaux d’images sans jamais mentionner leur origine. Merci Mr Gunthert pour l’espace que vous nous offrez pour évoquer ce sujet de très grande importance dont ne mesure pas encore l’ampleur, puisque les ingénieurs sont en train d’améliorer leurs algorithmes.
@Hamideddine Bouali
Que la technique ait une influence sur le résultat final c’est évident. L’appareil photo est un outil que le photographe utilise pour créer une image. Mais est-ce que l’IA n’est qu’un outil? Est-ce que l’algorithme de génération d’image n’est qu’un outil? Est-ce que l’algorithme, inséré dans une application, serait comme une image latente, donc créée, que l’opérateur final développerait selon le révélateur choisi que sont les mots du prompt?
Pour ce que j’en ai compris, l’algorithme apprend en compulsant une grand quantité d’images, mais une quantité finie, puis est autonome lors de la génération d’images. Je suis curieux de connaitre votre source concernant le fait que sans Internet l’algorithme ne fonctionnerait pas. C’est un domaine dont je n’ai pas toutes les clés et j’apprécierai d’en savoir plus. Toujours est-il, pour ce que j’en comprends, que l’algorithme doive se nourrir d’images trouvées ici (dans la mémoire, base de données sur un serveur, mise à disposition de l’application) ou ailleurs (dans le cloud pour faire simple) lors de la génération d’une nouvelle image, l’algorithme par sa définition computationnelle, ou « créatrice », donc orientée par le codeur, et par la base de données, finie et circonscrite, aussi par le codeur (ou l’équipe de codage), mise à sa disposition, il ne pourra générer qu’un nombre fini d’images, même si particulièrement grand (il faudrait demander à un mathématicien ce qui caractérise un nombre énormément grand mais pas infini) et que toutes ces images sont alors potentielles, « latentes ». De la même manière que tout être pensant n’imagine qu’avec ce qu’il sait (sa mémoire), son potentiel créatif est limité, même s’il peut nous sembler particulièrement important quand nous observons la création d’un être particulièrement doué.
La chaine opérateur-outils-scène se retrouve en photographie et dans l’ « imagénérée », mais aussi en peinture et dans tout processus de représentation, du moins graphique. Il faut donc voir ce qui distingue la photographie de l’imagénérée: ce que j’ai exposé précédemment.
@Dehesdin Thierry
J’espère que le probable avénement massif de l’imagénérée nous permettra de sortir du piège du « ça a été » photographique où toute image paréidolique photoréaliste est prise pour le réel. Ainsi il n’y aura plus besoin de spécifier si l’image a été retouchée ou générée; par défaut elle sera enfin comprise comme une représentation, à tout le moins une représentation de l’acte du photographe et de ce qui le meut, voire un témoignage d’une réalité « qui aurait pu être » et non comme une simple empreinte.
@André Gunthert
Bien sûr que le réalisme n’est pas une propriété technique et que c’est une construction culturelle. Toutefois, de la diffusion par les images photographiques des artefacts esthétiques de la photographie, artefacts émanant de la technique et du dispositif (flare, filé, profondeur de champ, bokhe, grain, imperfectitude des scènes, etc.), a émergé un imaginaire socio-culturel où ce qui à l’apparence d’une photographie, par ses artefacts, est prise pour l’empreinte d’un réalité. Le photoréalisme n’est pas documentaire, considérer le contraire c’est prendre des vessies pour des lanternes, ce que j’espère ne pas faire à mon insu. Reste que l’usage du photoréalisme est une possibilité stylistique bluffante, pour la meilleure comme pour la pire des finalités sociétales.
Tout cela dit, cette réflexion commune est passionnante et c’est heureux de pouvoir la mener dans votre carnet.
« le réalisme de la photographie n’est PAS une propriété technique. C’est le résultat d’une construction culturelle historiquement située. »
C’est bizarre de dire ça, car le réalisme de la photo vient du caractère mécanique de sa production, où le geste du peintre a été évacué, remplacé par la chimie et la physique. C’est vrai que la creation n’a pas été evacuée, les belles photos de Nadar en témoignent, et les photos composées voire truquées n’ont pas attendu photoshop. Après la photo l’IA va un pas plus loin et évacue même la physique et la chimie ! Et les remplace par quoi ? Par… du “matériel culturel”? Ces formes évocatrices dont l’éloquence a été construite par des millénaires de cultures ? IA, mécanique anthropophage ?
@Laurent Fournier: C’est une thèse. On peut la laisser de côté, ça n’a pas beaucoup d’importance. Si on raisonne dans un cadre théorique classique, où le réalisme de la photographie réside dans un rapport impératif avec le réel, alors il n’y a aucune raison de considérer les images générées, qui sont produites par synthèse statistique, comme de la photographie. Il s’agit plutôt d’un système de dessin assisté, qui peut reproduire n’importe quel style, y compris le style photoréaliste – mais avec la particularité que ce style ne constitue plus un garant d’un rapport au référent, comme c’était le cas (théoriquement) avec les technologies d’enregistrement optiques. Les applications de l’IA relèvent de l’illustration: ses qualités comme ses défauts sont ni plus ni moins celles de l’illustration (graphique) classique.
Après, pour les spécialistes, une question intéressante est que l’outil photographique a aussi été utilisé depuis longtemps à des fins d’illustration, sans rapport documentaire avec le réel: c’est par exemple typiquement le cas de la photo de stock (http://imagesociale.fr/10776). Il y a donc plusieurs pratiques photographiques, et celle qui alimente aujourd’hui en bonne partie la synthèse des IA est l’imagerie non-documentaire (image graphique, fiction ciné-photographique, image retouchée, etc.)
Oui c’est très clair, et parfaitement convaincant, mais l’attitude « rien de nouveau sous le soleil » a aussi ses limites. Lucien Sfez a bien montré (un peu trop « longuement » peut-être mais on n’a rien sans rien) comment le paradigme (but et méthode) de transparence totale sur lequel l’informatique est construite, a mis au monde l’opacité la plus radicale qui ait jamais existé, et qu’il appelle le tautisme. Prof. Patrick Greussay, co-auteur du langage LeLisp, était d’accord avec moi (conversation privée) que les ordinateurs reposent sur le contraire exact de la transparence, et produisent une sorte d’opacité synthétique, d’une qualité si radicale qu’elle n’a jamais existé auparavant, et contre laquelle le programmeur lutte en permanence. En somme, le « tautisme » de Sfez, vu d’un autre angle.
Aujourd’hui l’IA déploie dans notre environnement et projette sur tout un chacun, qu’on le veuille ou non, cette opacité radicale que seuls ceux qui avaient une interaction personnelle forte avec les ordinateurs pouvaient percevoir il y a 30 ans.
Les commentaires sont fermés.