En Réalités : Stratification, indexation et disjonction dans la représentation

Stratification, indexation et disjonction dans la représentation

La forme est une des préoccupations aussi élémentaire que majeure des arts plastiques, au même titre que la formalisation l’est pour l’informatique et plus largement pour les modèles scientifiques. Aussi trivial que ce constat puisse paraître, il est à l’origine d’une des difficultés de rencontre entre ces champs disciplinaires. La forme plastique et l’expérience esthétique qui en découle relèvent d’une malléabilité et d’une incertitude qui les rendent difficilement convertibles en principes modélisables, quantifiables, calculables. La “reproductibilité” de l'expérience reste tout aussi incertaine. Même le sens ne peut être assuré : c’est ici la polysémie qui prévaut pour une interprétation ouverte : nous sommes loin de la communication et de toute velléité de “message” convertible en information. Dès lors, comment produire des œuvres avec des dispositifs techniques qui nécessitent la prise en charge d’une logique formelle assurant la possibilité du calcul, des techniques où le langage, pour devenir opératoire, rencontre l’algorithmie : les technologies informatiques ? Postulant sur l’émergence d’une informatique quantique dans les prochaines décennies, comment celle-ci pourrait-elle faire évoluer ce rapport entre art et informatique, forme et formalisation ?

Pour “faire faire” à l’ordinateur, que ce soit en temps réel ou différé, il faut qu’il y ait interfaçage, c’est-à-dire un protocole opératoire qui permet une forme de dialogue et qui traduira in fine nos actes en informations interprétables par la machine, en commandes formalisées. Entre l’homme et la machine, un niveau de représentation est ainsi partagé : c’est un champ à la fois commun mais aussi divisé, interprété différemment par l’un et par l’autre. Traité par la machine, il s’agit ici d’“ordre” et non de “sens”. Organisée - sous forme d'image par exemple - cette représentation peut faire sens pour l’homme apte à l’interpréter. Selon qu'elle est prise en charge par la machine ou l'homme, la représentation est considérée, respectivement, comme information ou signification, ou, plus largement, pour ce dernier, comme expérience perceptive pouvant être signifiante selon une interprétation. Avec cette “double face”, la représentation est comprise différemment par les deux univers tout en leur étant commune et même en les indexant l'un sur l'autre. Entre interprétation et information, l'opération relie l'ensemble et engage une dynamique qui en permettra l'expérience.

Mais, à ce niveau de représentation partagé, en répondent d’autres relevant davantage du seul acteur humain ou machinique. Pour satisfaire aux nécessités perceptives de l'homme ou opératives de la machine, la représentation est stratifiée. Si elle est visible à un certain niveau, par exemple sous forme d'image, la représentation doit en même temps être adaptée aux conditions techniques de la machine : elle répond au principe de « compilation généralisée » énoncé par Jean-Pierre Desclés.{{Jean-Pierre Desclés, Cognition, compilation et langage, in Gérard Chazal et Marie-Noëlle Terrasse (coord. par), Philosophie du langage et informatique, Ed. Hermès, Paris, 1996, p.105.}} Si les données ne sont pas conformes, il faut les analyser et les traduire pour les normaliser, les convertir en un même code compatible avec le calcul, les numériser. Toute opération ne peut se faire qu'au prix de la traduction des instructions et des données, opérateurs et opérandes, dans un système de signes non ambigu. Au plus près du calcul, dans la machine, le code binaire n'est plus facilement compréhensible et manipulable par l'homme. Pour en arriver à cette codification, la traduction se fait progressivement. Dès lors qu'une première conversion est effectuée dans un langage non ambigu, on passe d'un niveau de représentation à un autre ; on adopte le « principe de la compilation généralisée : pour manipuler du symbolique complexe et rendre des opérations symboliques effectuables par des organes matériels, il faut engendrer des représentations intermédiaires par un processus de compilation de façon à obtenir des représentations directement compatibles avec la structure physique des organes de traitement ».{{Jean-Pierre Desclés, Ibidem.}}

Nos actes de commande ou de contrôle destinés à la machine vont ainsi subir plusieurs traductions, en cascade, avant d’être rendus effectifs par ce dispositif technique. L’ergonomie - comme dans les sciences de l’Interaction homme-machine, IHM - devrait nous inciter à chercher un continuum physique et sémantique dans ce rapport de l’homme à la machine. Pourtant, notre démarche artistique nous amène, au contraire, à penser la zone de partage, d’interfaçage, comme le lieu d’un rapport de forces, voire d’une disjonction. Notre approche est “différentielle” : comment mettre en rapport deux mondes fondamentalement différents ? Et cette mise en rapport est cruciale, c’est elle qui va conditionner toute expérience esthétique, particulièrement lorsque les dispositifs en question sont interactifs, que ce rapport s’effectue par le biais d’opérations conjointes du public et du dispositif. C’est ce rapport de forces qui peut-être mis en œuvre et même “mis en scène” selon un principe agonistique pour que le différentiel devienne productif aussi bien sur le plan esthétique qu’opératoire.

Si c’est d’abord à l’endroit de la représentation partagée entre l’homme et la machine que peut se jouer ce rapport de forces, il faut aussi envisager celui-ci plus en profondeur, c’est-à-dire en tentant de prendre en compte cet important paradigme de la stratification de la représentation qui dépasse le seul domaine informatique et, en retour, qui engage l’informatique vers d’autres dimensions, tel le “pervasive computing”.{{Difficilement traduisible en français, ce terme définit une informatique diffuse qui, par le biais de la miniaturisation et des réseaux, se propage à travers les objets, les environnements et même les corps en les interconnectant via les nouvelles et futures normes d'internet. Voir à ce titre la session "Pervasive art" organisé durant le colloque Mobilisable à l'École nationale supérieure des arts décoratifs en nov. 2008 : mobilisable.net/2008/?page_id=5}} La mise en conditions puis en actions de rapports de forces doit pouvoir s’exercer en prenant pleinement en compte plusieurs niveaux de représentation et la manière dont ceux-ci s’agencent, se répondent, sont indexés les uns sur les autres.{{Sur ce point, voir Samuel Bianchini, Œuvre variable. Configurer, conditionner, programmer l'image, à paraître in Art++, sous la dir. de David-Olivier Lartigaud, Ed. HYX, Orléans}} Mais, cette prise en considération d’un rapport de forces opérant à la fois frontalement et transversalement, à “la perpendiculaire” de la représentation, butera toujours sur une formalisation, in fine, binaire.

Si l’incompatibilité fondamentale de l’expérience esthétique et du traitement de l’information - par la machine informatique actuelle - nécessite de penser le différent autant que le partage, peut-on alors imaginer une autre informatique qui permettrait de reconsidérer cette incompatibilité et de créer de nouvelles formes de rapports : une informatique quantique ? Pour cela, et en particulier en contexte artistique, il nous faut revenir sur des éléments de définition.

À l'aube du XXème siècle, un nouveau modèle physique va naître qui va bouleverser la conception que les hommes ont de la nature. Par modèle, on entend non seulement les équations mathématiques qui permettent de prédire les phénomènes physiques, mais également un jeu d'explications. En effet, « Prédire n'est pas expliquer » comme le souligne René Thom dans son ouvrage du même nom. Or, à la fin du XIXème siècle, les équations utilisées produisaient des courbes continues. La nature, le mouvement des corps matériels, le temps et la matière étaient donc supposés être continus. C'est la conception de ce qu'on appelle la physique classique et qui a été fondée par les travaux de Newton. La physique quantique, lorsqu'elle s'est imposée, a montré qu'au contraire, à l'échelle des particules élémentaires, la matière et son comportement étaient en quelque sorte« émiettés» dans une multitude de valeurs, selon l'expression de Max Planck pour décrire les nouvelles formules découvertes par Heisenberg. Certains phénomènes ne s’expliquent alors qu’en supposant que les particules se trouvent dans plusieurs états à la fois, ce qui est impensable à notre échelle.

Parallèlement et de manière tout-à-fait indépendante, la logique va subir une transformation radicale à la suite des travaux de George Boole au milieu de XIXème siècle. Il est en effet devenu manifeste que les processus de la pensée peuvent faire l'objet d'un calcul arithmétique en combinant les valeurs de vérités des propositions énoncées. Ces valeurs de vérités sont limitées à 0 (faux) et 1 (vrai).{{Pourquoi 0 et 1 ? Dans son livre "Les lois de la pensée" paru en 1854, George Boole reprend et achève le projet de Leibniz de mettre au point un principe de calcul sur les valeurs de vérité des propositions. Les prémisses de l'informatique ont alors vu le jour. Elles reposent sur l'expression d'une tautologie dans un système de notation arithmétique. En effet : Si x représente l'ensemble des "choses blanches". Et y "les moutons", xy représentera "les moutons blancs". yx représentera aussi "les moutons blancs". On peut donc écrire xy=yx (xx représentera "les moutons qui sont des moutons". On peut donc écrire xx=x Mais Boole change alors son système de notation et écrit : x2=x Il émet l'hypothèse que le langage que recherchait Leibniz est l'arithmétique des nombres, à condition de se limiter aux nombres qui obéissent à l'équation précédente, c'est-à-dire 0 et 1. Encore faut-il trouver une interprétation à 0 et 1: 0 a la propriété d'être tel que 0x=0 pour tout x, de la même manière que, quels que soient les attributs qu'on prête au néant, on obtient toujours le néant. 0 peut donc être interprété comme ce qui n'existe pas. 1 a la propriété d'être tel que 1x=x pour tout x. 1 se comporte donc comme la totalité de ce qui existe. Nota : En réalité les choses sont un peu plus subtiles et Boole consacre de nombreuses pages à faire la bascule entre les couples "néant-univers du discours" et "faux-vrai". Enfin, par simple calcul, il est possible de retrouver le principe du tiers exclus. En effet, x2=x peut aussi s'écrire x - x2=0 ; soit x(1-x)=0 : une chose ne peut pas être elle-même et tout sauf elle-même.}} L'informatique voit alors le jour et connaîtra de véritables développements suite aux travaux de Chruch et Turing au milieu du XXème siècle sur la notion de « calculabilité » et de calcul universel. L'implémentation matérielle de ces principes logiques se fait dans des objets physiques – les composants électroniques - qui se comportent à notre échelle selon les lois de la physique classique, c'est-à-dire dont on est certain que, soit ils sont dans un état, soit ils n'y sont pas, mais qu'ils ne peuvent pas à la fois « être » et « ne pas être ». Autrement dit ce comportement est conforme aux deux valeurs de vérités 0 et 1.

Dans quinze ans environ, l'élément de base de l'information, le bit, pourra être inscrit dans la matière à l'échelle de l'atome des particules. À cette échelle, les lois de la physique classique ne sont plus valables, et il faut appliquer celles de la physique quantique : superposition d'états, probabilités, etc. La logique booléenne doit-elle être remise en question dans l'éventualité de la construction de calculateurs quantiques ? Que signifie « programmer » dans le cas des ordinateurs quantiques ? Et, avec ces systèmes, quels types de propositions logiques peuvent-elles être exprimées ?

De nombreuses démarches scientifiques tentent de remplacer la logique booléenne par des logiques dites « non-classiques», et plus précisément non bi-valentes. Or, l’aspect polysémique voire paradoxal qui caractérise, entre autres, la démarche artistique pourrait se voir « amputé » lorsqu'il doit intégrer des logiques informatiques basées uniquement sur deux valeurs : le vrai et le faux. Soit on adopte un principe de rapport de forces prenant en compte cette disjonction fondamentale compensée par un interfaçage, soit on accepte la stratégie réductionniste au profit de la machine.

Le tiers exclus, autrement dit l'impossibilité de manipuler à la fois ces deux valeurs (vrai et faux), interdit la conception de systèmes polysémiques, voire absolument paradoxaux, si familiers pour une démarche artistique. On peut simuler de tels systèmes dans le temps, mais pas les implémenter directement. Une nouvelle manière de programmer, telle que celle proposée par les calculateurs quantiques pourrait ainsi être très féconde dans la mise en œuvre de projets artistiques.

En Réalités. I am a bugged program

 

En Réalités. I am a bugged program. Samuel Bianchini et Sylvie Tissot, Programme sur ordinateur avec quatre écrans. Exposition The Frog Princess, Galerie Jozsa, Bruxelles, mai 2009

En Réalités - I am a bugged program est une installation qui met en œuvre un ordinateur ayant pour tâche d’exécuter un programme bogué. Sous les yeux du public, le programme tente d’écrire ce qu’il est : « I’m a bugged program ». Cette situation paradoxale à plus d’un titre est reconduite au sein même du programme : celui-ci, amené à “évaluer” régulièrement une proposition indécidable, est ainsi confronté à une situation rendant impossible la suite de son déroulement, l’obligeant à sans cesse récidiver. À la manière du paradoxe du menteur, chaque échec condamne sa réussite opératoire mais valide en partie ce qu’il énonce. Différentes vérités qui valent suivant le niveau de réalité auquel on les considère. Cette stratification de la réalité est représentée ici par quatre affichages simultanés de ce programme, dont la synchronisation rend perceptible leur source commune. Ainsi, sont donnés à voir, en train de s’écrire sur quatre écrans, le texte en langage naturel, le script (langage d’informaticien) de ce programme, le code binaire (« langage machine ») qui en est déduit et la représentation quantique qui peut symboliser la valeur de vérité du paradoxe. À la différence de ses congénères, cette dernière propose une alternative au tout ou rien binaire pour prendre en compte des états intermédiaires, des zones d’incertitude permettant, peut-être, de résoudre certaines formes d’indécision.

Jouant avec des processus informatiques élémentaires tout en les déjouant, cette installation rend perceptibles et même sensibles les formes temporelles qui habitent ces dispositifs aujourd'hui quotidiens et renoue avec certains pans de l'histoire de l'art travaillant sur l'énonciation et ses représentations, en premier lieu, l'Art conceptuel.

Abstract (English)

In Realities. Stratification, indexation and disjunction in representation

Form is one of the most elementary as well as major concerns for the visual arts, as much as formalisation is for computing and on a wider scale for scientific models. As trivial a fact as this may seem, it is at the origin of one of the difficulties these disciplinary fields have to confront. The plastic form and the aesthetic experience which results from it reveal a malleability and an uncertainty which make them not easily convertible into modelisable, quantifiable, calculable principles. Even the meaning cannot be assured: this is the polysemy which prevails for open interpretation: we are far from communication and of any inclination towards a “message” that can be converted into information. Consequently, how can one produce artworks with technical devices which depend on a formal logic ensuring the possibility of calculation, techniques or language, that can become operational, and encounter algorithms?: with computer technology? Postulating on the emergence of quantic computing in coming decades, how could this help the relationship between art and computing, form and formalisation, to evolve? To satisfy the perceptive requirements of man and the operatives of the machine with computing devices, representation is laminated. Our artistic approach leads us to think of the zone of splitting, of interfacing, the common stratum, as the place of a power struggle. If the fundamental incompatibility of aesthetic experience and the current principles of the treatment of information require one to think in terms of the different as much as of the division, then can one imagine that quantum computing might offer other prospects for man-machine relations. These prospects, which depend on quantum physics not reducing matter to stabilised and discrete values, would make it possible to reconsider the Boolean logic of computing in favour of the design of polysemic systems, even absolutely paradoxical, which are so familiar to the artistic approach.