1. Limites et potentiels de l’intelligence artificielle — Forum Vertigo 2020 (2/5), op. cit.1:34:00↩︎

  2. Caredda, « Obvious : “C’est l’algorithme qui identifie une nouvelle esthétique” », sur Artistikrezo, 3 décembre 2020 (en ligne : https://www.artistikrezo.com/art/obvious-cest-lalgorithme-qui-identifie-une-nouvelle-esthetique.html ; consulté le 21 mars 2021)↩︎

  3. Muda, Vera Molnar talks about randomness, op. cit.↩︎

  4. D. Cardon, J.-P. Cointet et A. Mazières, « La revanche des neurones », op. cit., p. 24↩︎

Ronan Barrot expliqua lors de la table ronde Vertigo : « Est-ce que j’invente un truc, c’est un nouveau mouvement ? Là n’est pas la question. Le but est de jouer et de déjouer1 ». Parler de mouvement, c’est réduire ses pratiques à une unité. Or ces pratiques sont si différentes dans leur intention qu’il parait absurde de parler de « GANisme2 ».
Ce sont bel et bien diverses formes dans la technique qui intéressent les artistes : la volonté de s’affranchir de l’image fixe pour Barrat, de la linéarité du médium vidéo pour Huyghe, d’avoir une nouvelle esthétique formelle pour le Collectif Obvious ou pour Mario Klingermann.
Vera Molnár explique : « C’est un paradoxe, les gens qui au début ont hurlé, que l’emploi de l’ordinateur déshumanise l’art, c’est le contraire, car c’est grâce à cette technologie que l’on arrive à approcher de très près de ce que l’on a imaginé, autrement on ne l’aurait peut-être pas trouvé3 » — donc l’usage d’algorithmes serait une façon d’étendre une production au-delà d’une imagination trop étriquée ? On retrouve, souvent une référence à l’ancien : dans Mosaïc Virus ou infinite skulls, on retrouve la forme de la vanité. Dans waste Land of Biggan, le « même culturel ». Chez le collectif Obvious, l’esthétique de la touche et le sujet du portrait — dans une logique formelle proche du pictorialisme — dont la référence à l’ancien permet « d’institutionnaliser », de « légitimer » leur pratique.

Les modèles sont nourris d’images photographiques, donc les modèles tentent de les répliquer dans des formes uncanny. Ce qui a permis de dépasser la Uncanny Valley provient d’une amélioration des modèles et des bases de données : ainsi Dominique Cardon cite Ian Goodfellow qui explique que la structure des modèles double tous les 2,4 ans4. Mais avec des modèles encore plus profonds est-ce que l’on n’atteindrait pas les limites de ce qu’il est possible de réaliser par le deep learning ? En effet avec une structure doublant tous les deux ans la puissance de calcul requise augmente de façon exponentielle, dépassant ainsi la loi de Moore. Des processeurs graphiques employés pour les réseaux de convolution en 2010, on est passé à des processeurs spécialisés, par exemple les Tensor Processing Unit (ou TPU) développées par Google, accessible uniquement par le cloud. Plus encore, l’augmentation des profondeurs de réseaux induit un accroissement des données pour nourrir ces algorithmes. On va peut-être se retrouver avec les limitations de Yan Lecun dans les années 1990 : des bases de données et des capacités de calcul trop limitées par rapport aux tailles des réseaux de neurones.

La typologie de Klingermann découpe l’esthétique suivant les techniques, or il oblitère que plusieurs pratiques différentes peuvent user de la même technique : on obtient des rendus de deepfake complètement différent suivant la volonté des auteurs, les GAN peuvent rendre des images proches de « bruit » (UUmwelt) ou au contraire reproduisant plus fidèlement de nouvelle images (Infinite skulls).

  1. Limites et potentiels de l’intelligence artificielle — Forum Vertigo 2020 (2/5), op. cit.42:00↩︎

  2. M. Foucault, Surveiller et Punir, Naissance de la Prison, Éditions Gallimard, Paris, 1975, p. 201↩︎

  3. Ibid., p. 202↩︎

  4. Id.↩︎

La division qu’il opère se compose aussi en périodes ; une progression technique corroborant à des changements esthétiques. Or des esthétiques se réitèrent, peu importe les périodes, le même de #Putin M to the B, produit une esthétique clairement visible, mais il opère en même temps que d’autre deepfake bien plus convaincant. Cette division des parties est donc bien plus hybride, Mario Klingermann lui-même utilise différents algorithmes de ces différentes catégories pour produire un « pipeline », comme dans Neural Decay (2017) : « […] is the result of different models layered in a pipeline […] where each model makes a lot of mistakes and misinterpretation, but it introduces the accident into the art, where you lose your control5 ». Cette explosion des méthodes de machine learning et de deep learning fut initiée par le changement de paradigme opéré après les performances du réseau de convolution SuperVision lors de la compétition de reconnaissance d’images ILSVRC2012 (Large Scale Visual Recognition Challenge 2012). Ainsi le développement de ce domaine est intimement lié aux systèmes de reconnaissance d’images. Dans ce cadre elle présente une forme de prolongement du panoptique qu’explique Foucault dans Surveiller et punir. Elle prend ainsi ses racines dans la forme du Panopticon de Bentham que Foucault décrit :

Le Panopticon de Bentham est la figure architecturale de cette composition. On en connait le principe : à la périphérie un bâtiment en anneau ; au centre, une tour ; celle-ci est percée de larges fenêtres qui ouvrent sur la face intérieure de l’anneau ; le bâtiment périphérique est divisé en cellules, dont chacune traverse toute l’épaisseur du bâtiment ; elles ont deux fenêtres, l’une vers l’intérieur, correspondant aux fenêtres de la tour ; l’autre, donnant sur l’extérieur, permet à la lumière de traverser la cellule de part en part. Il suffit alors de placer un surveillant dans la tour centrale6.

Ainsi cette forme, contrairement au cachot, rend l’individu visible et vulnérable ; « La visibilité est un piège7 ». Ainsi il précise :

La foule, masse compacte, lieu d’échanges multiples, individualités qui se fondent, effet collectif, est abolie au profit d’une collection d’individualités séparées. Du point de vue du gardien, elle est remplacée par une multiplicité dénombrable et contrôlable ; du point de vue des détenus, par une solitude séquestrée et regardée8.

  1. Ibid., p. 203↩︎

  2. K. Crawford, Atlas of AI, op. cit., p. 61↩︎

  3. M. Foucault, Surveiller et Punir, Naissance de la Prison, op. cit., p. 205↩︎

  4. H. Poulain et J. Goetz, « Au-delà du clic », dans l’émission Invisibles - Les travailleurs du clic, no 4, s. d. (en ligne : https://www.france.tv/slash/invisibles/saison-1/1274819-au-dela-du-clic.html ; consulté le 17 février 2020)2:30↩︎

  5. Traduction : Le département de la santé et des services à la personne utilise Palantir pour détecter les fraudes médicales. Le FBI l’utilise dans ces enquêtes criminelles. Le département de la sécurité intérieur le déploie pour surveiller les voyageurs aériens et pour garder un œil sur les immigrants K. Crawford, Atlas of AI, op. cit., p. 195↩︎

  6. Traduction : L’intelligence artificielle n’est pas une objective, universelle ou neutre technique de calcul faisant des déterminations sans directives humaines. Ces systèmes sont intégrés dans des mondes sociaux, culturels et économiques, produit par des humains, des institutions et des impératifs qui déterminent ce qu’ils font et comment le faire. Ibid., p. 211↩︎

Le développement de la reconnaissance d’image correspond au passage de la foule à une collection d’individualité. L’algorithme sépare sans avoir besoin d’isoler. Il devient un outil de contrôle total. Bentham explique, selon Foucault, que pour que ce système fonctionne il faut justement que « […] le pouvoir devait être visible et invérifiable9 » — les détenus ne doivent jamais savoir s’ils sont actuellement observés. Kate Crawford explique ainsi que l’on associe le panoptique au monde carcéral alors qu’en réalité, Bentham, son inventeur le voyait comme un système déclinable au travail10. Foucault étaye : « chez les ouvriers, noter les aptitudes de chacun, comparer le temps qu’il mette à faire un ouvrage, et s’ils sont payés à la journée, calculer leur salaire en conséquence11 ». Ainsi ce système de surveillance constant par l’employeur se retrouve dans des entreprises pour induire des injonctions à l’efficacité. Les performances supposées des employés sont calculées par des algorithmes et développent une autre forme de métiers qu’Antonio Casilli définit comme « piéçards des temps modernes12 ». Mais elle se décline à des niveaux étatiques avec notamment le système de crédit social chinois. L’intelligence artificielle s’ancre aussi dans des démocraties ; ainsi Kate Crawford explique :

The US Department of Health and Human Services uses Palantir to detect Medical Fraud. The FBI uses it in criminal probes, The department of Homeland Security deploys it to screen air traveler and keep tabs on immigrant13

Kate Crawford conclut Atlas of AI expliquant que, la prédiction, l’output de tout modèle, est le fruit d’une détermination :

Artificial intelligence is not an objective, universal, or neutral computational technique that makes determination without human direction. Its systems are embedded in social, cultural, and economic world shaped by humans, institutions, and imperatives that determine what they do and how they do it14

Rien n’est objectif dans une prédiction d’un modèle. Comment alors anticiper le futur avec ces technologies ? elles seront intégrées dans tous les pans de la société, elles vont les structurer — les déterminer.