Ronan Barrot expliqua lors de la table ronde Vertigo :
« Est-ce que j’invente un truc, c’est un nouveau mouvement ? Là n’est
pas la question. Le but est de jouer et de déjouer1 ».
Parler de mouvement, c’est réduire ses pratiques à une unité.
Or ces pratiques sont si différentes dans leur intention qu’il parait
absurde de parler de « GANisme2 ».
Ce sont bel et bien diverses formes dans la technique qui intéressent
les artistes : la volonté de s’affranchir de l’image fixe pour Barrat,
de la linéarité du médium vidéo pour Huyghe, d’avoir une nouvelle
esthétique formelle pour le Collectif Obvious ou pour Mario
Klingermann.
Vera Molnár explique : « C’est un paradoxe, les gens qui au début ont
hurlé, que l’emploi de l’ordinateur déshumanise l’art, c’est le
contraire, car c’est grâce à cette technologie que l’on arrive à
approcher de très près de ce que l’on a imaginé, autrement on ne
l’aurait peut-être pas trouvé3 » — donc l’usage
d’algorithmes serait une façon d’étendre une production au-delà d’une
imagination trop étriquée ? On retrouve, souvent une référence à
l’ancien : dans Mosaïc Virus ou infinite skulls, on
retrouve la forme de la vanité. Dans waste Land of Biggan, le
« même culturel ». Chez le collectif Obvious, l’esthétique de la touche
et le sujet du portrait — dans une logique formelle proche du
pictorialisme — dont la référence à l’ancien permet
« d’institutionnaliser », de « légitimer » leur pratique.
Les modèles sont nourris d’images photographiques, donc les modèles tentent de les répliquer dans des formes uncanny. Ce qui a permis de dépasser la Uncanny Valley provient d’une amélioration des modèles et des bases de données : ainsi Dominique Cardon cite Ian Goodfellow qui explique que la structure des modèles double tous les 2,4 ans4. Mais avec des modèles encore plus profonds est-ce que l’on n’atteindrait pas les limites de ce qu’il est possible de réaliser par le deep learning ? En effet avec une structure doublant tous les deux ans la puissance de calcul requise augmente de façon exponentielle, dépassant ainsi la loi de Moore. Des processeurs graphiques employés pour les réseaux de convolution en 2010, on est passé à des processeurs spécialisés, par exemple les Tensor Processing Unit (ou TPU) développées par Google, accessible uniquement par le cloud. Plus encore, l’augmentation des profondeurs de réseaux induit un accroissement des données pour nourrir ces algorithmes. On va peut-être se retrouver avec les limitations de Yan Lecun dans les années 1990 : des bases de données et des capacités de calcul trop limitées par rapport aux tailles des réseaux de neurones.
La typologie de Klingermann découpe l’esthétique suivant les techniques, or il oblitère que plusieurs pratiques différentes peuvent user de la même technique : on obtient des rendus de deepfake complètement différent suivant la volonté des auteurs, les GAN peuvent rendre des images proches de « bruit » (UUmwelt) ou au contraire reproduisant plus fidèlement de nouvelle images (Infinite skulls).