L’imagination (de l’) artificielle
Gregory Chatonsky
Nr 08 . 3 juin 2019
Table des matières
« Tout se passe comme si, dans cet ensemble d’images que j’appelle l’univers,
rien ne se pouvait produire de réellement nouveau que par l’intermédiaire
de certaines images particulières, dont le type m’est fourni par mon corps. »
Henri Bergson[1]
Autant l’annoncer tout de suite, le présent texte est programmatique. Il ne s’agira pas ici de livrer les résultats d’une recherche-création déjà aboutie, à supposer qu’une telle chose puisse même exister, mais de partager les prolégomènes d’une étude à venir dont l’objectif sera de proposer une définition du concept d’imagination artificielle (ImA) et d’explorer les formes esthétiques de celles-ci. Mon ambition est donc limitée : problématiser l’ImA, lancer des pistes, ouvrir un champ, témoigner d’une impulsion. Les lacunes seront donc nombreuses, non seulement au regard du caractère préparatoire de ce texte, mais aussi par l’étendue et la nouveauté du champ de l’ImA.
Le contexte de l’ImA est déterminé par le récit contemporain de la Silicon Valley. Nous savons, de Bernard Stiegler à Jeremy Rifkin, que l’économie des médias de masse consistait au siècle dernier en une capture de l’attention, du fameux « temps de cerveau disponible[1] ». Cette capture modifie en profondeur la perception et les processus cognitifs parce qu’elle ne vient pas seulement après coup, une fois que le flux de conscience est constitué, elle en structure la durée en lui proposant des objets. Depuis 2015, le GAFA (Google, Apple, Facebook, Amazon) développe l’imaginaire d’une intelligence artificielle (IA) ambivalente, tout à la fois promesse et danger selon une logique du pharmakon. Si l’usage des réseaux récursifs de neurones artificiels (RNN) n’est pas nouveau, il est entré dans une phase de popularisation qui dépasse largement le cadre d’un usage instrumental pour affecter l’imaginaire populaire et sa capacité de projection dans le futur. C’est pourquoi l’IA est à mi-chemin entre le récit de science-fiction et le projet technologique, économique et politique à court terme.
Qu’on ne s’y trompe pas, cette popularisation est le résultat d’une stratégie pour faire adopter ces technologies. Cette stratégie s’éloigne du simple argument commercial de type publicitaire, qui serait peu convaincant, en déployant une ambivalence affective : l’IA peut nous libérer ou nous aliéner plus encore, de sorte que les acteurs du GAFA se réunissent en comité pour élaborer des règles éthiques selon une logique les plaçant des deux côtés du tribunal[2]. La construction de cette alternative permet à chacun de faire sien le débat sur l’IA et d’ainsi en intérioriser plus profondément les termes, fut-ce pour s’y opposer. Il y a donc à côté des technologies matérielles toute une structure idéologique qui envahit les discours comme les imaginaires, et qui est inséparable de leur effectivité.
Quel est donc l’enjeu spécifique de l’ImA qui le différencie de l’IA ? Si le discours médiatique de l’IA s’est principalement développé autour d’une compétition entre l’être humain et la machine dont le jeu d’échecs est l’image principale depuis les années 40[3], depuis d’autres discours et d’autres images sont apparus provenant de startups telles que Vicarious ou de chercheurs comme Hiroharu Kato et Tatsuya Harada[4]. La machine serait à présent capable de produire en quantité illimitée des textes, des images, des vidéos, des sons et même des hallucinations. En somme, elle pourrait prendre en charge l’ensemble de la production culturelle d’une manière fort différente de ce qui a eu cours pendant l’industrialisation, puisqu’elle ne serait plus limitée à une reproduction à l’identique, selon la logique du moule, elle pourrait produire des objets suffisamment singuliers pour être nouveaux et identiques pour être crédibles. Cette capacité productive post-industrielle s’ouvre dans un contexte particulier qui est celui de la globalisation du Web 2.0, demandant à chaque internaute de fournir des médias afin de nourrir le réseau. C’est précisément au moment où le nombre d’images, de textes et de sons explose littéralement sur Internet qu’une nouvelle capacité d’explosion quantitative vient jusqu’à déborder l’origine anthropologique de ces médias. L’accélération du Web 2.0 semble devoir être supplantée, et comme nous le verrons utilisée, par une accélération des neurones artificiels.
Si nous définissons l’imagination comme la capacité à produire des images alors force est de constater que la double accélération amène le jeu entre l’être humain et la machine sur une scène qui dépasse le conflit traditionnel entre deux solitudes : le génie du maître d’échecs contre l’ordinateur, pour un théâtre plus global entre l’ensemble de l’espèce humaine et des processeurs mis en réseau. La production d’images doit alors s’entendre en trois sens qu’il faudra garder indissociables : images mentales, images sur un support matériel et images du discours. Dans le dispositif de l’ImA, il faudra s’intéresser à l’articulation entre son imagination, par exemple dans la science-fiction, les images qu’elle est capable de produire et les discours technophiles ou technophobes, aussi réversibles soient-ils, qui en promeuvent d’une façon ou d’une autre l’advenue. Nous passons dès lors de la capture de l’attention à la capture de l’imagination.
La structure stratégique de cette dernière est beaucoup plus complexe parce qu’elle entrelace réflexivement ces différents niveaux d’images. Notre hypothèse, que nous ne ferons ici qu’effleurer, c’est que l’ImA affecte jusqu’aux conditions de possibilités de l’imagination et que loin d’être reproductive, en mimant une faculté humaine, elle est productive et performe la prétendue origine humaine de l’imagination. Elle doit s’entendre en même temps comme imagination artificielle de la machine et imagination à propos de la machine. L’ImA est aussi un imaginaire de l’ImA selon une logique hyperstitionnelle[5]. En ce sens, l’ImA serait l’imagination transcendantale, une image avant toutes les images possibles, la sienne propre comprise.
De l’intelligence à l’imagination
Si l’ImA est une descendante de l’IA et partage avec elle certaines caractéristiques, elle ne se limite pas aux activités rationnelles dont le calcul serait le paradigme. Elle étend le champ de l’artificiel à la production du nouveau et constitue pour ainsi dire une intensification des problématiques de la période précédente. On retrouve dans l’imagination de type 3 (les discours), la même dramatisation que pour l’IA : la machine pourrait bel et bien nous remplacer en se dotant de capacités qui étaient auparavant considérées comme proprement humaines. À partir de là, on déclenche un interminable conflit entre les humanismes qui estiment que l’anthropologique est irréductible au technologique, et les technologistes qui jugent que si ce décentrement blesse notre ego ce n’est là que superstition. Deux réalismes s’opposent, le premier pense que l’attribut intelligence (ou imagination) adhère à son support anthropologique et lui est inhérent, le second qu’un attribut peut changer de support (ou de corps), théorie que l’on retrouve dans le singularisme de Ray Kurzweil[6]. Or, si nous revenons aux termes du débat sur l’intelligence ouvert par la cybernétique, nous comprenons que le conflit actuel est un leurre et ne parle pas de ce dont il croit parler. La question « Les machines sont-elles intelligentes ? » revient-elle à se demander si elles sont capables d’intelligence, c’est-à-dire qu’être intelligent est identique à avoir l’intelligence ? Premièrement, selon Turing définir l’intelligence n’a pas beaucoup d’intérêt :
« Je ne pourrai pas dire grand-chose d’autre que c’est une sorte de bourdonnement qui a lieu dans ma tête. Mais je ne crois pas du tout que nous ayons besoin de nous accorder sur une définition. Ce qui est important c’est de tracer une ligne entre les propriétés du cerveau ou de l’homme qui nous intéressent et celles qui ne nous intéressent pas. […] Je voudrais suggérer une sorte de test que l’on puisse appliquer aux machines[7]. »
Ce test bien connu se fonde sur une machine qui n’est pas matérielle. Elle ne pourra jamais exister, car elle est avant tout un pari qui débute par la réduction de l’intelligence à une preuve, c’est-à-dire à une perception convaincante de celle-ci dans l’esprit d’une personne dont on présuppose l’intelligence (ce qui lui permet d’être l’auteur d’une comparaison). La machine n’est pas intelligente, elle n’a pas d’intelligence. Elle peut malgré tout faire preuve d’intelligence, car la preuve n’est pas interne à l’objet observé (une machine), mais est une expression relationnelle qui suppose un observateur qui affirme ou infirme. On ne saurait selon Turing essentialiser l’intelligence, car son réalisme est strictement relationnel. Le test de Turing consiste pour un interrogateur à déterminer à l’aveugle, lors d’un échange de question-réponse qui est l’être humain et qui est la machine. Par là, on transforme la question « Les machines peuvent-elles penser ? » en « Puis-je distinguer la nature de deux entités si leurs formes matérielles, leurs corps, sont occultées ? ». L’intelligence ne concerne donc plus celui auquel on l’attribue, mais celui qui l’attribue et plus précisément encore l’espacement (en tant qu’absence du corps) entre l’attribué et l’attributeur, car en adressant aux machines la question de leur intelligence on présuppose toujours qu’on l’est soi-même.
En refusant de donner une définition de l’intelligence, Turing suit la méthode formaliste des mathématiques modernes qui ne s’occupe plus de définir les éléments, mais seulement les relations entre ceux-ci. Ce n’est pas parce qu’elle est intelligente que la machine peut imiter un être humain, c’est parce qu’elle imite qu’elle est intelligente, intelligence qui est le fruit d’un jeu relationnel :
« Les machines ne peuvent-elles pas effectuer quelque chose qui pourrait être décrit comme de la pensée, mais qui soit au fond très différent de ce qu’un homme fait ? Cette objection est très forte, mais, cependant, nous pouvons au moins dire que si une machine peut être construite pour jouer le jeu de l’imitation de façon satisfaisante, cette objection n’a pas à nous troubler[8]. »
Le cerveau du cerveau
Sans aller plus avant et sans même développer la seconde version du test de Turing qui est une étonnante imitation d’imitation tentant de donner toute sa place à la machine[9], il importe de comprendre que les premiers cybernéticiens ne sous-estimèrent pas que des causes différentes pouvaient bien donner l’effet d’intelligence. Identité de résultat n’est pas identité de cause, car on peut simuler. La fonction n’est donc pas première, elle est un effet qui émerge d’un type concret d’organisation matérielle. L’un des modèles qui peut nous permettre de comprendre plus profondément la relationnalité de l’ImA est celui des lecteurs neurologiques.
[Figure 1]
L’exposition Télofossiles au Musée d’art contemporain de Taipei[10] se concluait par une installation, Suspension of attention (2012), où le visiteur pouvait mettre un casque électroencéphalographique (EEG) et déplacer, grâce à ses ondes cérébrales, une lourde porte de métal. Elle avançait s’il se concentrait (ondes bêta avec des fréquences supérieures à 12 Hz qui apparaissent en période d’activité intense) et elle reculait s’il se relaxait (ondes alpha dont les fréquences sont comprises entre 8,5 et 12 Hz qui caractérisent un état de conscience apaisé). Ce dispositif obligeait à adopter un certain comportement consistant en l’alternance entre deux états mentaux contradictoires afin de provoquer des états physiques : je dois reculer la porte pour l’avancer et réciproquement. Au premier abord, l’installation pourrait sembler jouer d’un sentiment de toute-puissance télékinétique, mais de façon insidieuse la logique se renverse, car c’est bien le dispositif qui m’oblige à adopter des états mentaux.
Pierre Cassou-Noguès met au jour un paradoxe : le cérébroscope suppose que les états cérébraux et mentaux sont non seulement corrélés, mais encore qu’ils représentent la même chose sous deux aspects différents. Or, la vérification de cette corrélation ne peut qu’être le fait du sujet lui-même puisque le mental relève d’une expérience privative. On doit bien lui demander si les résultats de l’EEG correspondent à son expérience. Or, il lui est impossible de faire l’inventaire exact de ce qu’il a dans la tête ou d’être sûr que son récit n’a pas été reconstruit après coup : « Ce n’est pas seulement que nous pensons à une multitude de choses, c’est qu’il n’est nullement clair que l’ensemble de ce que nous y avons soit bien défini et que nous puissions dire sans arbitraire si telle idée y est ou non[11]. » Est-il possible de penser et d’exprimer cette pensée, sans que cette expression influe le contenu du récit ? « Songeons aussi à cette question rituelle des amants allongés dans l’obscurité : “À quoi tu penses ?” Ils n’ont plus besoin de se la poser et peuvent rester silencieux. Il leur suffit d’attraper le BR [brain reader] sur la table de nuit[12]. » Ce lecteur aurait par là même une influence sur la communication et sur le langage, sur la pensée donc en tant que corrélat entre les deux, et retournerait finalement ses présupposés sur son opérativité même. Ceci veut dire que nous ne lirions pas le même type de pensée avec cette technique parce qu’elle transformerait la conception même que nous avons de la pensée en tant que réflexivité et intersubjectivité qui ne seraient plus ce dont le sujet a l’expérience, mais ce qui ressort de la corrélation entre la détection technique et l’aperception humaine. La pensée est toujours pensée de la pensée. L’imagination est toujours imagination de l’imagination et c’est pour cela que l’imaginaire de la machine doit se penser en un double sens.
« Il suffit, pour que la machine fonctionne, que nous puissions nous conformer à ses diagnostics ; que le sujet dont la machine affirme qu’il est amoureux se comporte en conséquence ; ou, finalement, que le sujet soit convaincu du bon fonctionnement de la machine, à tel point qu’il se comporte en amoureux lorsque le BR le lui indique[13]. »
On comprend dès lors que la lecture du cerveau n’est pas une expérience première, mais une construction performative produite par la relationnalité à un appareillage technique. Il devient strictement impossible de mettre d’un côté l’humain et de le distinguer de la technique parce que l’humain est autant le produit du technologique que ce dernier est produit par l’humain : ce sont des milieux associés. Le pari de Turing relève très précisément de cette logique.
Deep dream
Cette interprétation des lecteurs neurologiques ouvre un modèle plus général d’anthropotechnologie qui loin d’identifier les deux pôles, permet de penser leur appareillement, un parallélisme où les éléments se suivent sans jamais se toucher ni se confondre. Cette zone grise entre l’être humain et la machine est rendue possible du fait que « l’intelligence [et l’imagination] n’a pas d‘être et ne peut du même coup appartenir à qui que ce soit[14]. » Progressivement, le concept d’ImA se précise : il met en relation un humain, un artefact et une projection de l’un à l’autre qui par feed-back modifie rétroactivement les termes de la relation et c’est cette boucle même qui produit l’imaginaire. L’ImA c’est bien l’artifice qui imagine et l’artifice qui est imaginé, tout à la fois sujet et objet. Cette double posture peut être rapprochée du paradoxe soulevé par Deleuze :
« Si bien que la spontanéité dont j’ai conscience dans le Je pense ne peut pas être comprise comme l’attribut d’un être substantiel et spontané, mais seulement comme l’affection d’un moi passif qui sent que sa propre pensée, sa propre intelligence, ce par quoi il dit JE, s’exerce en lui et sur lui, non pas par lui. Commence alors une longue histoire inépuisable : JE est un autre, ou le paradoxe du sens intime[15]. »
L’ImA ne saurait être considérée comme la simulation de l’imagination humaine, car non seulement la définition de celle-ci resterait présupposée, mais encore la notion même de simulation, en tant que mimésis, serait occultée dans sa problématicité, et il faut bien souligner l’imprécision des conditions de possibilités dans nombre de recherches actuelles[16]. L’ImA est production d’images selon la triple polarité précédemment développée et c’est en cette capacité que se trouve la clé de son succès populaire.
[Figure 2]
Il serait fastidieux de lister l’ensemble des réseaux récursifs de neurones (RNN) qui semblent s’appliquer à tous les secteurs de l’activité de production imaginaire[17]. On peut en revanche développer la genèse de leur récente popularisation, car celle-ci correspond au modèle que nous proposons. Les RNN sont la forme technologique dominante de l’ImA. Pendant l’été 2015, différents programmes capables de produire des images ont été popularisés. Le 17 juin, Google publie un article, Inceptionism (Mordvintsev et al.). Le 18 juin, c’est au tour de chercheurs de Facebook de développer un modèle de génération d’images (Denton et al.). Un mois plus tard, ils publient sur le site Github, le code source d’Eyescream capable, à partir d’images analysées sur le Web, de générer d’autres images de type photographique. Le 12 août, Google fait de même avec Deepdream[18]. L’engouement pour ce dernier logiciel fut aussi surprenant qu’immédiat, de nombreux internautes furent fascinés par ces images à l’origine quelconque (des visages, des paysages, des pizzas) qui, passées à la moulinette du logiciel, faisaient apparaître comme par magie d’autres images (des chiens et des poissons). Elles ressemblaient à des hallucinations sous LSD ou psilocybe, une forme s’y transformant en une autre. Le réseau de neurones cherche à découvrir dans l’image des motifs (patterns) ressemblant à une banque d’images et, par itérations, il accentue cette proximité.
Le succès public de cette application peut être interprété au regard de son titre, Deep Dream. Le rêve de cette machine consiste ici à halluciner l’image, à voir dans une image d’autres images antérieurement mémorisées, donc à hanter une image par des apparitions jusqu’à ouvrir un monde en flux où chaque chose semble se fondre en autre chose. En voyant les rêves de la machine, nous imaginons la machine rêver. Qu’est-ce qui fascine les êtres humains dans la possibilité d’une machine qui rêve ? Pourquoi souhaitons-nous voir ce que verrait celle-ci si elle était plongée dans le sommeil ? Pour quelles raisons sommes-nous attirés par l’observation de cette solitude[19] ? Quelle est cette répétition de l’imagination, cette image d’image ? Pour quelles raisons stratégiques Google, une entreprise cotée en Bourse, promeut-il avec un tel enthousiasme l’imaginaire psychédélique du rêve des machines ?
Deep Dream procède d’une capture qui est paradigmatique du dispositif neurotechnologique dans lequel celui qui rêve et celui qui observe le rêveur ne cessent d’échanger leur rôle. Or cet échange continuel est proche de l’expérience artistique quand, dans un musée par exemple, nous regardons les tableaux et les personnes qui les regardent, comme si par là nous nous fournissions une image de nous-mêmes en train d’observer les deux, projetés et tout à la fois détachés de nous-mêmes, excentrés. Lorsque nous parlons de l’imagination de la machine, nous commençons à douter que nous imaginions même. En acceptant la possibilité que la machine puisse imaginer, nous nous ouvrons à la possibilité que notre imagination est un effet de surface.
[Figure 3]
Memories center (2014-2015) est une machine qui rêve sans interruption, mais elle n’est pas elle-même le sujet de « son » rêve, elle ne rêve que de notre projection en elle. L’installation est composée d’une sculpture représentant au centre de la salle un data center et d’un triple dispositif de vidéoprojection. Le programme génère, à partir d’une base de données de 20 000 rêves rassemblés à l’Université de Californie par Adam Schneider et G. William Domhoff, de nouveaux rêves grâce à des chaînes de Markov. Tout se passe comme si la machine s’inspirait de nos rêves pour en produire d’autres leur ressemblant sans leur être identiques. Le logiciel détecte dans ces nouveaux rêves des séquences potentielles de mots-clés, et va ensuite chercher dans différents sites (Flickr, Instagram, Tumblr) des images taguées leur correspondant. Il affiche trois de ces images, une par projecteur, en les traitant avec un filtre habituellement utilisé pour la détection de formes en vision artificielle. Une voix de synthèse féminine prononce alors le rêve.
Nous nous sommes tous amusés à chercher une image avec un mot sur Google et à observer le décalage entre les deux, une image ne pouvant jamais « être » un mot. Cette défaillance dans la traduction a un effet surprenant, nous sommes sensibles aux raisons de ce décalage, nous imaginons des raisons pour lesquelles telle image a été nommée, de la sorte, et peut-être cette interrogation est-elle fondatrice d’une certaine imagination contemporaine. Le rêve « de la » machine, puisque c’est nous qui la rêvons autant qu’elle nous rêve, est ici précisément fondé sur ces dérapages, sur ces failles de la traduction généralisée des codes numériques dénués de sens[20]. Le rêve permet justement ces incidents parce que ceux-ci sont acceptés d’avance, une incohérence est interprétée comme un sens latent à découvrir. Par là même, il y a une relation structurelle entre le mode de fonctionnement du logiciel informatique et l’imagination humaine. Dans les deux cas, mais selon des modalités différentes, ce sont des images d’images. La machine produit obstinément des rêves à partir de nos rêves, comme nous nous procurons une certaine image de la machine en observant son fonctionnement.
La paréidolie est un phénomène psychologique où un stimulus est reconnu comme quelque chose qui n’est pas là. Sa forme la plus célèbre est le test de Rorschach. Ainsi, lorsque nous voyons des visages ou des animaux dans les nuages, nous hallucinons une présence tout en étant parfaitement conscients, et même heureux, du statut de ceux-ci. Nous nous réjouissons de cette faille dans notre perception parce qu’alors nous voyons fonctionner celle-ci à sa propre limite. À la différence de la métaphore, la paréidolie est asémantique et n’est pas une représentation. Si je vois quelque chose à la place d’autre chose, c’est seulement parce que des motifs se ressemblent.
Deep Dream est la rencontre entre la contingence de la programmation informatique et la contingence anthropologique de l’imagination, c’est-à-dire de ce qui fait image. Ces deux contingences sont fort différentes. L’une est fondée sur des signes dénués de sens et des variables, l’autre sur des possibles. Or cette rencontre est elle-même performative, elle produit un nouvel imaginaire qui détermine tout aussi bien nos esprits que les technologies. Un réseau de neurones tente de reconnaître dans les motifs d’une image quelconque des images qu’il a en mémoire. Il injecte alors ces images et ainsi de suite jusqu’à recouvrir l’image initiale de celles qu’il a en mémoire. Il hallucine sa mémoire parce qu’il cherche d’avance, dans la décomposition de l’image en motifs, cette convergence.
Derrière la promesse d’une accélération sans précédent de la créativité, l’ImA, se cache sans doute une autre accélération dont nous pouvons trouver la trace dans le fonctionnement le plus banal d’un ordinateur : la variable en relation avec le possible. Car l’imagination fait référence à un monde possible qui pourrait être, ne pas être ou être autrement. Il y a là quelque chose d’une suspension de la nécessité ontologique qui adopte une forme singulière avec l’ordinateur. En effet, le fonctionnement minimal d’un programme est la variable de type n+1 qui permet de donner un comportement tout en faisant en sorte que ses étapes concrètes soient inanticipables. Ce comportement peut être défini comme une infinitude, au double sens d’infini et de finitude dans la mesure même où la variable du programme informatique produit une variation du résultat (par exemple un pixel qui se déplace à l’écran) et a pour résultante une esthétique réflexive de la variabilité par laquelle nous acceptons le changement continu des formes.
Dans Revenances (1999), installation de réalité virtuelle réalisée avec Reynald Drouhin, le visiteur se déplace dans des espaces filaires représentant des appartements fantomatiques. Lorsqu’il sort d’une de ces pièces, il tombe aléatoirement dans un autre espace. La topologie de Revenances est une tour, mais l’ordre des étages n’est pas défini à l’avance et un même étage peut se retrouver à deux endroits différents. C’est grâce à une variable de type (random * le nombre d’espaces) que l’on produit une variation de la position des espaces et qu’on induit une perception de cette variabilité. Ou encore Transmission (2011), un logiciel qui va chercher des sentiments sur Twitter, qui les lit en voix de synthèse et qui produit selon ceux-ci un paysage dans lequel on peut se déplacer. La variation est ici le fruit de la rencontre entre les données du Web et un espace en 3D.
[Figure 4]
C’est la convergence entre les RNN et les données massives (big data) qui permet d’atteindre une hyperproduction, c’est-à-dire une quantité exponentielle qui dépasse les capacités de perception de l’être humain. Par là même, on rejoue sur la scène technologique la question du sublime burkien et kantien, car par un tel dépassement on rend possible l’aperception de l’exercice de notre perception, de notre entendement et de notre raison. On se place résolument du côté de la limite et on ne perçoit plus que cela. Alors que la production industrielle produisait beaucoup d’objets suivant le même modèle, l’hyperproduction produit des séries quasi infinies d’objets différents. Ainsi le projet de recherche-création Capture (2009) consiste en un groupe de rock si productif que personne ne peut tout entendre. Fondé sur des technologies génératives et sur des détournements de flux du Web, Capture produit sans cesse de nouveaux fichiers comprenant des musiques, des images, des vidéos, des produits dérivés de toutes sortes. Par exemple, une musique pop est générée sur un modèle morphologique, on lui associe une voix chantée de type Vocaloid qui va chercher sur Twitter les occurrences de « I’m alone ». Certains mots-clés sont choisis dans ces phrases permettant de faire des requêtes sur YouTube en vue de chercher automatiquement des vidéos qui permettront d’illustrer la musique. Cette illustration sera imparfaite parce qu’il y a souvent une inadéquation entre les mots-clés et les images. C’est précisément ces défaillances qui permettront au spectateur de combler des lacunes par son imaginaire.
On peut se questionner sur la nature de ces objets en nombre illimité et différents les uns des autres. Le consumérisme du siècle dernier n’était-il pas fondé sur la comparaison des objets identiques ? Ne désirais-je pas ce que l’autre avait ? L’articulation entre les désirs et les objets n’est-elle pas bouleversée si les objets sont tous différents les uns des autres, cette différence fut-elle mineure ? Que devient mon désir-objet s’il est seul ? Lorsqu’une personne écoute sur Internet, une musique de Capture, cette dernière est automatiquement effacée après, faisant de l’auditeur l’unique récepteur de cette chanson particulière, le menant à devenir son unique diffuseur à venir.
[Figure 5]
Quelle est la signification de la relation entre données massives et réseaux de neurones artificiels dans la constitution de l’imagination ? On ne peut ici que signaler un étrange imaginaire d’époque : c’est au moment où nous accumulons un nombre insensé de données provenant d’anonymes, accumulation qui change la notion même d’archives et d’historicité, que nous doublons cette quantité transfinie, en tant qu’elle grandie plus vite que notre capacité à la consulter, par une autre quantité, celle de l’ImA qui a la capacité à produire toujours plus d’images. Ainsi, It’s not really you (2016) est une série d’images produite par un procédé d’impression 2.5D permettant d’avoir le relief simulé d’une peinture. Les images proviennent d’un RNN qui a appris à peindre grâce à plusieurs milliers de peintures provenant de toutes les périodes historiques. Si le résultat est résolument abstrait, la genèse de ces images ne correspond pas aux modalités de la modernité, mais répond à une problématique contemporaine du remplacement de l’imaginaire humain par l’ImA. Un autre réseau de RNN est utilisé pour donner un titre à ces images en les comparant à des millions d’images sur Internet : « Pizza sitting on a rock », « Cake decorated with flowers », « Train cake ». Si le RNN est ainsi amené à décrire son propre travail, c’est qu’il se dédouble et qu’il inclue dans ses procédures techniques la récursivité qui fut à l’œuvre dès la cybernétique. On passe alors insensiblement de l’abstraction au Surréalisme. On traverse des étapes historiques non par le temps, mais par les couches logicielles. La récursivité informatique permet qu’un fichier soit modifié automatiquement, qu’un son soit traduit en image, une image en texte, selon une logique dénuée de sens. La machine peut se nourrir d’elle-même, de sorte qu’un seul fichier peut en produire une infinité selon une accélération hyperproductive sans précédent.
L’imagination sans nous
En guise de temporaire conclusion de ce tour d’horizon de l’ImA, j’aimerais souligner l’impérieuse nécessité dans laquelle nous sommes placés de la conceptualiser de façon critique. En effet, elle devient un discours dominant des entreprises de la Silicon Valley qui souhaitent accélérer la créativité sous une forme disruptive et qui forment par là même un horizon politique impensé. La créativité ainsi comprise devient un mélange entre les figures de l’entrepreneur et l’artiste qui sont tous deux apparus au XIXe siècle. Cette critique se doit d’articuler de la manière la plus rigoureuse possible les concepts, les discours et les images selon le plan d’une compréhension donnant à cette question toute sa profondeur historiale : revenir à la cybernétique, analyser l’émergence des données massives et de la privatisation de la vie privée, comprendre la pulsion qui se trame derrière les discours de l’innovation technologique. L’ImA est indissociablement imagination sur la machine et imagination de la machine qui nous excentre de nous-mêmes.
[Figure 6]
Lorsque nous regardons les vidéos diffusées par l’entreprise Boston Dynamics sur YouTube, nous voyons un robot quadrupède agile et tout à la fois maladroit. Un homme s’avance et lui décoche une série de coups de pied. À chaque fois le robot-chien se relève, inlassablement, obstinément. Nous sommes émus par cette répétition parce qu’alors nous ressentons en même temps une certaine empathie, presque une bienveillance, et un certain sadisme. Fragilité et force de la machine et de l’être humain, tout à la fois, qui font émerger une affectivité grise et indistincte entre les deux.
[Figure 7]
Ce doublement de la relation est au cœur de l’installation Deep Matter (2016) où une imprimante 3D s’observe elle-même. Un premier objet 3D est imprimé après avoir été tiré au sort sur le site Google Warehouse. Une caméra observe cette impression et envoie l’image à un RNN qui tente de la décrire. Il n’aperçoit qu’un objet partiellement terminé et fait donc des erreurs d’interprétation : une fourmi est interprétée comme étant une tortue. Le deuxième objet imprimé sera donc une tortue. La tortue deviendra autre chose et ainsi de suite. La mutation continue indéfiniment jusqu’à épuisement de la matière. Tout se passe comme si la machine s’auto-interprétait et par ce dédoublement introduisait une différence, une défaillance source de lacune et d’imaginaire pour nous. Car lorsque nous observons cette machine fonctionner, nous essayons de comprendre les raisons de ses erreurs d’interprétation, nous nous mettons à sa place. C’est parce qu’elle est solitaire et comme retournée vers elle-même que nous la regardons comme si nous fixions une intériorité, sans doute différente de la nôtre, mais renfermant en elle le secret de notre propre dissemblance.
Face aux discours dominants de l’ImA qui relèvent le plus souvent d’une emphase totalisante pour une société plus innovante, plus créative, plus riche, plus développée, nous devons revenir au questionnement que suscite l’imagination : qu’est-ce qu’une image ? À qui est-elle destinée ? Suis-je bien sûr que je l’ai imaginée ? Est-elle jamais produite, exprimée, ou ne cesse-t-elle pas de se développer dans ses lacunes et ses manques ? Qui imagine au juste ? Par une telle problématisation, une émotion apparaît : l’imagination de l’imagination.
Bibliographie
Bergson Henri, Matière et mémoire, Paris, Presses Universitaires de France, 2008.
Bourassa Renée et Poissant Louise (dir.), Avatars, personnages et acteurs virtuels. Montréal, PUQ, 2013. Burgess Matt, « Facebook, Google, Microsoft, IBM and Amazon partner to solve AI’s ethical problem », Wired.eu [en ligne], 27 janvier 2017. Disponible sur : http://www.wired.co.uk/article/ai-partnership-facebook-google-deepmind.
Cassou-Nogues Pierre, Lire le cerveau?: Neuro/science/fiction, Paris, Seuil, 2012.
Copeland Jack, « A Lecture and Two Radio. Broadcast by Alan Turing », in Furukawa Koichi, Michie Donald et Muggleton Stephen (dir.), Machine Intelligence 15, Intelligent Agents, New York, Oxford University Press, 2000, p. 445-477.
Deleuze Gilles, Différence et Répétition, Paris, Presses Universitaires de France, 1968.
Kurzweil Raymond, Humanité 2.0: la bible du changement, Paris, M21 éditions, 2007.
Malabou, Catherine, Métamorphoses de l’intelligence : Que faire de leur cerveau bleu ?, Paris, PUF, 2017.
Meillassoux Quentin, « Répétition, itération, réitération Une analyse spéculative du signe dépourvu de sens. » Conférence du 23 février 2011, Ecole Normale Supérieure de Paris, disponible à cette adresse: http://www.diffusion.ens.fr/index.php?res=conf&idconf=3053 .
Turing Alan Mathison, Computing machinery and intelligence, Oxford, Mind, 1950.
Turing Alan Mathison, Proposal for Development in the Mathematical Division of an Automatic Computing Engine (ace), 1946.
[1] On doit l’expression à Patrick Le Lay qui en 2004, alors Président-directeur général de TF1, qualifiait en ces termes ce que la chaîne vendait à ses annonceurs.
[2] Matt Burgess, « Facebook, Google, Microsoft, IBM and Amazon partner to solve AI’s ethical problem », Wired.eu [en ligne], 27 janvier 2017. Disponible sur : http://www.wired.co.uk/article/ai-partnership-facebook-google-deepmind
[3] Alan M. Turing, Proposal for Development in the Mathematical Division of an Automatic Computing Engine (ace), 1946. Cf. Report to the Executive Committee of the National Physical Laboratory.
[4] Visual Language Modeling on CNN Image Representations, https://arxiv.org/abs/1511.02872. Pour un tour d’horizon on se reportera à Computers at the dawn of creativity, disponible à : http://psych.utoronto.ca/users/reingold/courses/ai/cache/ai_creativity.html
[5] Cf http://merliquify.com/blog/articles/hyperstition/
[6] Ray Kurzweil, Humanité 2.0: la bible du changement, Paris, M21 éditions, 2007.
[7] Jack Copeland, « A Lecture and Two Radio. Broadcast by Alan Turing », in K. Furukawa, D. Michie et S. Muggleton (dir.), Machine Intelligence 15, Intelligent Agents, New York, Oxford University Press, 2000, p. 445-477.
[8] Alan M. Turing, Computing machinery and intelligence, Oxford, Mind, 1950, vol. 49, p. 435.
[9] Ibid., p. 442.
[10] « Gregory Chatonsky — Télofossiles I », exposition au MOCA de Taipei, 02/2013-04/2014.
[11] Pierre Cassou-Nogues, Lire le cerveau?: Neuro/science/fiction, Paris, Seuil, 2012, p. 50.
[12] Ibid., p. 102-103.
[13] Ibid., p. 135.
[14] Catherine Malabou, Métamorphoses de l’intelligence : Que faire de leur cerveau bleu ?, Paris, PUF, 2017, p.173.
[15] Gilles Deleuze, Différence et Répétition, Paris, Presses Universitaires de France, 1968, p. 116.
[16] On se reportera à : « Using an artificial imagination for texture retrieval », 19th International Conference on Pattern Recognition, December 2008, ou à An Artificial Imagination for Interactive Search, Springer Berlin Heidelberg, 2007, p. 19–28.
[17] On se reportera au site http://www.creativeai.net pour avoir un aperçu des recherches actuelles.
[18] Cf https://github.com/google/deepdream
[19] Ce motif de la solitude machinique est récurrent dans la communication ambivalente des entreprises qui développent les RNN. Voir par exemple: http://sciencepost.fr/2016/11/deux-ia-ont-communique-langue-indechiffrable-lhomme/. Pour une analyse de l’affectivité solitaire se reporter à Chatonsky G., La solitude des machines, in Bourassa R. et Poissant L. (dir.), Avatars, personnages et acteurs virtuels. Montréal, PUQ, 2013.
[20] Quentin Meillassoux, « Répétition, itération, réitération Une analyse spéculative du signe dépourvu de sens. » Conférence du 23 février 2011, Ecole Normale Supérieure de Paris, disponible à cette adresse: http://www.diffusion.ens.fr/index.php?res=conf&idconf=3053
[1] Henri Bergson, Matière et mémoire, Paris, Presses Universitaires de France, 2008, p. 12.
Citer cet article
Gregory Chatonsky, « L’imagination (de l’) artificielle », [Plastik] : Créations, cerveaux, infinis #08 [en ligne], mis en ligne le 3 juin 2019, consulté le 21 novembre 2024. URL : https://plastik.univ-paris1.fr/2019/06/03/limagination-de-l-artificielle/