
Photo : permission de | courtesy of the artist & Metro Pictures, New York
L’automatisation de l’empathie
La plupart des résultats algorithmiques retranscrits par Paglen sont douteux d’un point de vue ou d’un autre. Dans un cas, l’algorithme a déterminé que l’éventualité que Steyerl soit un homme était de 59,58 % et une femme, de 40,42 %. Pareille interprétation montre que ces algorithmes ne font que calculer des probabilités à partir de catégories rigides, alors qu’une bonne part de la recherche sur le genre évoque le caractère fluide de celui-ci, ce qui contredit certainement l’existence d’un lien définitif entre l’expression faciale et le sexe d’une personne. Sur d’autres photos, l’algorithme a classé dans des catégories entièrement distinctes des expressions que l’œil humain aurait perçues comme traduisant des émotions similaires. Il a déterminé, par exemple, que le fait de rouler les yeux vers l’arrière dénote chez Steyerl un état situé quelque part entre la « neutralité » et la « tristesse ». Le point à retenir, cependant, n’est pas que ces jugements sont erronés en apparence. Ce que cherche plutôt à montrer Paglen, c’est que les manières de « voir » des systèmes computationnels diffèrent complètement de celles des êtres humains. Chacune des images de Machine Readable Hito constitue effectivement une double représentation. La première est l’image visuelle d’un visage que la capacité de vision propre aux êtres humains permet d’analyser et d’interpréter ; la deuxième, une évocation (oblique, indirecte, par le biais du texte) de ce que voit un ordinateur lorsqu’il traite une image numérique. C’est cette seconde série de représentations qui nous intéresse ici, à cause de l’objectivité présumée qui l’imprègne, même si les jugements auxquels parviennent les logiciels d’intelligence artificielle contredisent cette assertion.
Cet article est réservé aux visiteur·euse·s avec un abonnement Numérique ou Premium valide.
Abonnez-vous à Esse pour lire la rubrique complète!
S’abonner