1. V. Flusser, Pour une philosophie de la photographie, op. cit., p. 36↩︎

  2. Ibid., p. 29↩︎

  3. Ibid., p. 30↩︎

  4. Ibid., p. 32↩︎

  5. Citation de Robbie Barrat S. Kloetzli, « « Infinite Skulls » : l’expo qui fait dialoguer art et intelligence artificielle », sur « Infinite Skulls » : l’expo qui fait dialoguer art et intelligence artificielle, s. d. (en ligne : https://usbeketrica.com/article/infinite-skulls-expo-dialogue-art-ia ; consulté le 10 décembre 2019)↩︎

  6. E. Gombrich, Histoire de l’Art, op. cit., p. 604↩︎

Algorithme et appareil photographique usent de la métaphore de la boite noire pour concevoir leurs système et fonctionnement. Ainsi Vilém Flusser définit les boites noires comme modèle de l’appareil photographique :

Pour le photographe c’est justement le noir de la boite qui constitue le motif à photographier. Même si, dans sa quête de possibilités il se perd à l’intérieur de son appareil, il peut maitriser la boite. Car il sait comment alimenter l’appareil (il connait l’input de la boite), et sait également comment l’amener à cracher des photographies (il connait l’output de la boite). Aussi l’appareil fait ce que le photographe exige de lui, bien que ce dernier ne sache pas ce qui se passe à l’intérieur de l’appareil : le fonctionnaire est maitre de l’appareil. Voilà ce qui caractérise le fonctionnement de tout appareil : le fonctionnaire est maitre de l’appareil grâce au contrôle qu’il exerce sur ces faces extérieures (sur l’input et sur l’output), et l’appareil est maitre du fonctionnaire du fait de l’opacité de son intérieur1.

Par cette définition Vilém Flusser indique une différence de relation entre l’objet et son utilisateur qu’il s’agissent d’un outil ou d’un appareil. Pour lui l’appareil se définit par l’opacité de son intérieur donc par sa complexité. Il définit deux relations distinctes entre le fonctionnaire et l’appareil, le fonctionnaire contrôlant l’appareil en lui présentant des entrées (ou inputs) et en anticipant les sorties (ou outputs) — par l’expérience du fonctionnement de l’appareil ou par la maitrise de la science découlant de l’appareil. Vilém Flusser indique une différence fondamentale entre l’outil et l’appareil. Ainsi « Les outils au sens usuel arrachent des objets à la nature pour les placer (stellen) (pour les fabriquer — herstellen) là où se trouve l’homme2 ». Pour Flusser l’outil déplace et transforme des objets, pour qu’ils aient des fonctions propres à l’homme, contrairement aux appareils. « Les outils au sens usuel sont des prolongements d’organe humain […] ils s’étendent au sein de la nature3 », ajoute-t-il. C’est en cela que se distingue de l’appareil : « Les appareils […] n’accomplissent aucun travail en ce sens. Leur intention n’est pas de transformer le monde, mais de transformer la signification du monde4 ».

Pourtant, Robbie Barrat dans Infinite Skull (2018) considère ces algorithmes comme des outils créatifs et non pas comme de véritables appareils : « La machine n’est pas créative, c’est un outil. L’art repose dans le choix5 », précise-t-il. Est-ce qu’il voit ces algorithmes comme outils, car il les maitrise si bien qu’il s’agit pour lui d’un prolongement de son corps, ou est-il dans l’illusion d’une maitrise ? Est-ce aussi, comme nous le verrons, parce qu’il a le « dernier mot » sur l’objet ; qu’il sélectionne les pistes créatives, qu’il est le dernier maillon discriminant du processus génératif ?
Mais L’outil pas forcément une maitrise complète, car l’accident peut persister. Le geste peut même être volontairement accidentel comme avec les techniques de dripping de Jackson Pollock. La maitrise parfaite de l’outil peut correspondre plus à de l’artisanat qu’à de l’art. Ernst Gombrich explique ainsi que les expressionnistes abstraits « […] étaient convaincus de la nécessité de s’abandonner à l’impulsion naturelle6 ».

  1. A. Rouillé, La photographie, op. cit., p. 398↩︎

  2. Ibid., p. 399↩︎

  3. É. Sadin, L’humanité Augmentée, l’administration numérique du monde, Édition l’Échappée, Paris, s. d., p. 45↩︎

  4. Traduction : Vous avez une idée de ce qui sortira, mais vous ne pouvez pas en être sûr Limites et potentiels de l’intelligence artificielle — Forum Vertigo 2020 (2/5), op. cit.1:30↩︎

  5. C’est le processus complet de regarder quelque chose pousser [...] de l’Homme imposer sur quelque chose de sauvage Id.1:31↩︎

  6. S. Galleries, Pierre Huyghe in conversation with Hans Ulrich Obrist, 17 octobre 2018, PT01H12M33S (en ligne : https://vimeo.com/295551032 ; consulté le 4 mars 2021)59:00↩︎

  7. A. MASURE, « Pour un design alternatif de l’IA ? | Anthony Masure », sur Anthony Masure | Enseignant-chercheur en design, s. d. (en ligne : https://www.anthonymasure.com/articles/2020-04-design-alternatif-ia ; consulté le 8 février 2021)↩︎

Les algorithmes d’intelligence artificielle tout comme les appareils photographiques fonctionnent comme des boites noires. Mais s’agit-il du même genre de « boite noire » ? Les photographes n’ont en effet pas d’accès direct à l’empreinte. Ainsi Rouillé explique : « un cliché est toujours donné en différé, en retard. Car le déclenchement de l’obturateur ne débouche pas sur quelque chose de visible, mais sur rien ou presque : une image latente, invisible. Une promesse d’image7 ». Tout comme dans l’usage de l’informatique il y a une distance avec l’opération par le retard : « […] le photographe ne découvre qu’à posteriori — retard — ce qui a été capté8 ». Éric Sadin explique « [la computation automatisée] instaure une distance faisant “mouliner” des codes binaires durant la réalisation d’une tâche9 ». Il faut cependant nuancer ce propos, si à ses débuts la photographie pouvait être très empirique, les théories ont pris le pas : on retrouve beaucoup moins d’aléatoires que dans les usages algorithmiques. De plus, la distance entre la captation et le rendu est réduite par l’essor des technologies numériques.

Anna Ridler indique : « you have an idea of what will come out, but you’re not really sure10 » lorsqu’elle expérimente avec un réseau de neurones antagoniste génératif pour l’élaboration de Mosaic Virus (2019). On retrouve donc cette notion d’appareil distinct de l’outil. Elle reprend la métaphore du jardin pour définir ce processus : « it’s a whole process of watching something grow […] Human imposing of something wild11 » ; la notion de « sauvage » est intéressante, car elle renvoie aussi au vivant. Pierre Huyghe dans son projet UUmwelt (2018) rapproche l’algorithme du monde vivant — suivant la notion d’umwelt (environnement) de Jakob von Uexküll. Hans Ulrich Obrist explique : « In the golden book […]: it says: “I came all the way from Birmingham and [bob?] ignored me12 » — les spectateurs sont aussi dans un imaginaire du vivant. Aussi Douglas Edric Stanley renvoie l’algorithme à la notion de l’animal : « C’est plutôt comme élever un animal, parce que le programme se comporte bizarrement et que vous n’avez guère d’autre choix que d’accepter cette situation13 ».

  1. Traduction : Le plus j’en apprend sur les réseaux de neurones et la computer vision, le plus je me questionne sur leur relation à la biologie. « NNN / Next Generation: AI meets human creativity in Sofia Crespo’s Neural Zoo », sur Next Nature Network, s. d. (en ligne : https://nextnature.net/magazine/story/2020/interview-sofia-crespo ; consulté le 27 juin 2021)↩︎

  2. G. Agamben, Qu’est-ce qu’un dispositif, M. Rueff (trad.), Payot&Rivages, Paris, 2014, p. 32↩︎

  3. Ibid., p. 19↩︎

  4. A. Masure, « Résister aux boîtes noires. Design et intelligences artificielles », op. cit., p. 32↩︎

  5. F. Migayrou et al., Neurones, les intelligences simulées, Mutation Création, Orléans, Hyx, 2020, p. 62↩︎

  6. D. Cardon, J.-P. Cointet et A. Mazières, « La revanche des neurones », op. cit., p. 16↩︎

  7. J.-P. Changeux, Raison et Plaisir, Odile Jacob, Paris, 1994, p. 18↩︎

  8. David Louapre est un docteur en physique et vulgarisateur scientifique sur sa chaîne Youtube Science étonnante D. Louapre, Le deep learning — Science étonnante #27, s. d., 20:06 (en ligne : https://www.youtube.com/watch?v=trWrEWfhTVg ; consulté le 28 novembre 2019)8:50↩︎

Sofia Crespo, interviewée pour son projet Neural Zoo, explique : « Naturally, the more I learned about neural networks and computer vision, the more questions I began asking about their relationship to biology14 » — ainsi elle voit un lien entre ces deux domaines qui à priori n’ont rien en commun. Pour elle, la distinction entre la nature et la technologie peut disparaître dans le futur. Ces comparaisons montrent une forme de contradiction avec la notion de dispositif défini par Giorgio Agamben : « Il y a donc deux classes : les êtres vivants (ou les substances) et les dispositifs15 ». Le dispositif est « la manière dont sont disposées les pièces d’une machine ou d’un mécanisme, et, par extension le mécanisme lui-même16 » selon une de ces définitions. Donc, pourquoi parler d’une machine qui vit ?

Le brouillage entre le vivant et le mécanisme est en réalité intégrante aux notions de Trans humanisme — qui s’est développé dès les premières recherches en IA. « La cybernétique de Wiener reprend l’idée du mathématicien Von Neumann qu’une machine (qu’un ordinateur) puisse être comparable au cerveau humain via la métaphore de la boite noire17 ». Ainsi pour les premiers cybernéticiens : « Le premier modèle d’un réseau neuronal artificiel avait été présenté par Warren MacCulloch et Walter Pitts au symposium Hixon en 1948, un neurone axiomatisé conçu comme un calculateur basé sur la logique booléenne. Le cerveau est alors considéré comme un réseau idéalisé de neurones formels18 » — puis ce modèle se complexifie avec « [le] passage en 1970 de la dichotomie vrai/faux, trop rigide, vers fructueux/stérile19 » — c’est-à-dire proposer un modèle comprenant de la nuance avec des valeurs graduelles au lieu d’un système binaire. La cybernétique s’inspire donc des neurosciences pour proposer son modèle de réseaux de neurones ; mais le neurone artificiel reste cependant bien distinct du fonctionnement cérébral. Ainsi Jean Pierre Changeux, neurobiologiste, écrit : « Comme l’a montré le Suédois Hökfelt, plusieurs d’entre eux [les neuromédiateurs] peuvent coexister dans un même neurone, accroissant de ce fait la palette de signaux dont la cellule nerveuse dispose dans ses communications20 » — donc à priori le modèle artificiel ne comprend absolument pas de subtilité liée aux neurotransmetteurs. Pour David Louapre : « Ce n’est pas de faire un modèle de notre cerveau, c’est juste une construction mathématique qui s’en inspire21 ».

  1. V. Flusser, Pour une philosophie de la photographie, op. cit., p. 101↩︎

  2. Id.↩︎

  3. É. Sadin, L’humanité Augmentée, l’administration numérique du monde, op. cit., p. 145↩︎

  4. C. Malabou, Métamorphose de l’intelligence, que faire de leur cerveau bleu, op. cit., p. 29↩︎

  5. Ibid., p. 11↩︎

  6. A. Masure, « Résister aux boîtes noires. Design et intelligences artificielles », op. cit., p. 45↩︎

  7. Id.↩︎

Flusser explique que ces appareils sont « anthropomorphe22[s] », car calqués sur une intention humaine. Cependant ils ne sont pas surhumain mais plutôt sous-humain « — ce sont des simulations exsangues et simplificatrices de processus humain de pensée23 »

Pour Éric Sadin :

Parler de machine qui vit et pense, ou encore auto-reproductrice (Von Neumann), c’est d’un anthropocentrisme enfantin. Déclarer que la machine est dotée d’une surrationnalité « affirmant la puissance d’une pensée créatrice de ses propres normes, à la lettre fondatrice d’un nouveau monde plein de bruit et de sens » (Beane), c’est tomber dans la fantasmagorie : c’est précisément considérer encore des aspects de la technique (principalement les ordinateurs) et les pousser à l’extrême comme si c’était cela qui était le réel24.

C’est une posture auparavant tenue par Catherine Malabou, mais dont les évolutions en sciences cognitives (l’épigénétisme25) et en sciences informatiques ont reformulé sa vision : « J’ai longtemps pensé que la plasticité neuronale interdisait toute comparaison entre le cerveau “naturel” et la machine. Or les dernières avancées de l’Intelligence artificielle, avec le développement des puces “synaptiques” en particulier, ont rendu cette position plus que fragile26 ». Anthony Masure essaie de déconstruire cette notion d’une IA comme outil strict ou comme entité autonome. Il désigne deux mythes à déconstruire : « […] que l’artiste (ou le designer) aurait le contrôle total sur sa production27 » et « […] que la machine serait totalement autonome28. » On se retrouve dans un système d’interaction entre l’artiste et la machine et dans une démarche très itérative et empirique.

  1. Harrison Kinsley est un vidéaste anglo-saxon de vulgarisation en programmation, notamment en machine learning. Il est l’auteur du livre Neural Networks From Scratch (2020) H. Kinsley, « Python Programming Tutorials », s. d. (en ligne : https://pythonprogramming.net/deep-dream-python-playing-neural-network-tensorflow/ ; consulté le 24 janvier 2021)↩︎

  2. A. Mordvintsev, C. Olah et M. Tyka, « Inceptionism: Going Deeper into Neural Networks », sur Google AI Blog, s. d. (en ligne : http://ai.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html ; consulté le 6 novembre 2020)↩︎

  3. V. Flusser, Pour une philosophie de la photographie, op. cit., p. 35↩︎

  4. W. Benjamin, L’œuvre d’art à l’époque de sa reproduction mécanisée, op. cit., chap. VII↩︎

  5. V. Flusser, Pour une philosophie de la photographie, op. cit., p. 100↩︎

La démarche empirique n’est pas uniquement liée au « statut » des artistes qui détournent ces technologies à leur fin. Harrison Kinsley, lors de son tutoriel sur l’application d’un filtre deepdream indique en commentaire :

layer 1: wavy

layer 2: lines

layer 3: boxes

layer 4: circles?

layer 6: dogs, bears, cute animals.

layer 7: faces, buildings

layer 8: fish begin to appear, frogs/reptilian eyes.

layer 10: Monkies, lizards, snakes, duck29

Il indique sous forme de pseudocode les différents rendus possibles par le modèle : le layer (— calque, couche) étant un paramètre réglable lors de la phase de prédiction de l’algorithme. Dans le billet de blog rédigé par les chercheurs de Google sur le deepdream, on retrouve des descriptions d’éléments caractéristiques générés depuis une image de nuage : « The Dog-Fish », « The Pig-Snail » ou encore « Admiral Dog30! ».

On retrouve bien l’aspect expérimental : les descriptions de Google sont farfelues, et Kinsley n’est pas sûr du rendu du layer 4 qu’il note avec un point d’interrogation. Le lien avec l’appareil flusserien apparait évident : avec certains input : l’image, les paramètres, le fonctionnaire a une vague idée du résultat, mais il demeure une zone d’ombre sur l’output final. Il faut cependant bien distinguer le résultat de la boite noire. Un fonctionnaire — un photographe — par sa dextérité et son expertise — connait le résultat, il n’y plus vraiment de « zone d’ombre ».
Il y a une différence fondamentale dans la construction de la boite noire flusserienne qui est associée est un procédé mécanique complexe à la boite noire cybernétique qui est associée à une construction « synaptique ».

Pour Flusser, la relation homme-appareil dépasse largement celle de l’outil qui n’est qu’un prolongement du corps, il écrit : « Voilà une fonction d’un nouveau genre, où l’homme n’est ni constante ni variable, mais où l’homme et l’appareil se confondent pour ne faire plus qu’un31 » — la relation homme-appareil est donc une forme de collaboration entremêlée.
Plus encore qu’une collaboration, l’usage de la technique produit une plus grande distance avec l’homme : « […] la première [la pratique magique] engageant l’homme autant que possible, la seconde [la technique mécanique] le moins possible32 », ainsi Benjamin exprime une distanciation de plus en plus forte de l’engagement de l’homme à travers la technique mécanique : dont le zénith serait atteint par l’usage d’intelligence artificielle — pour laquelle les décisions sont autonomes. Vilém Flusser appuie cette exclusion de l’homme dans la technique : « Les appareils ont été inventés pour fonctionner automatiquement […]. Mettre l’homme hors-circuit : telle est l’intention qui les a produits33 ».

La métaphore de la boite noire met en exergue le caractère ambigu et imprévisible que peut avoir l’algorithme. Mais il faut cependant comprendre que les algorithmes de deep learning peuvent produire des objets extrêmement différents ; il faut étudier ces potentialités des algorithmes pour pouvoir en comprendre la portée.