Dans ses livres comme dans ses blogs ou les diverses interviews qu'il donne, l'auteur et artiste canadien met en avant ce qui lui semble être les dangers les plus pressants du monde des IA. Du manque d'invention des machines : « C'est une de mes peurs dans notre usage de l'IA, la perte de la diversité. Je trouve ça vraiment flat et je ne veux de ça ni dans mon travail, ni dans le monde dans lequel je vis. Alors une des solutions, c'est d'avoir plusieurs fournisseurs d'intelligence artificielle, et aussi de préserver l'autonomie de la créativité qui ne provient pas d'un ordinateur. » Jusqu'au pouvoir excessif que vont bientôt avoir les entreprises privées qui gèrent ces outils : « C'est nécessaire de pouvoir avoir une conversation publique sur les règles d'usage des machines. C'est assez mauvais si on laisse aux plateformes un pouvoir discrétionnaire sur ce qui peut être dit/fait ou pas. Je trouve ça plus dangereux que les fausses existential threats qu'on entend d'habitude dans les médias. Nous allons interragir de plus en plus avec des entités non-humaines qui n'ont pas d'empathie, qui n'ont pas la même compréhension que nous du contexte dans lequel elles évoluent, et nous allons devoir suivre certaines de leurs décisions sans avoir la possibilité de les remettre en question. » D'autant plus que la vague s'annonce massive, et qu'elle a déjà commencé à déferler : « On a déjà des problèmes de surconsommation de contenu et de média, on est dans une sorte d'anxiété à cause de cela, à devoir constamment checker nos notifs et réseaux. Il y a une grande chance que l'IA aggrave ce problème, car elle pourra être utilisée pour tout personnaliser : «Voici vos musiques de la journée, voici les livres que vous devez lire, les amis que vous devez rencontrer...» C'est un risque énorme parce qu'il n'y a aucun contrôle sur les entreprises qui opèrent dans ce domaine. » « Elles peuvent ainsi manipuler nos comportements, nous faire acheter tel produit, nous faire ressentir d'une telle manière. On a des preuves que Facebook essaye de repérer les états émotionnels de ces usagers et de les modifier. C'est complètement fou, dystopique. Est-ce que c'est le futur qu'on souhaite ? Et sinon, comment le changer ? Parce que ça va arriver très rapidement », conclut-il. Nourrir la bête qu'on veut combattre? Ce que semble alors nous proposer Tim Boucher, c'est un voyage dans cette nouvelle hyperréalité qui s'ouvre à nous au travers des outils d'intelligence artificielles. Une sortie dans un environnement où les frontières entre fiction et vérité sont brouillées, où les dangers les plus pressants côtoient des avancées extraordinaires dans toutes les activités humaines. L'IA, c'est un cocktail de toutes les capacités humaines, il peut s'avérer être autant explosif que vertueux, selon ce qu'on choisi d'y mettre. « L'intelligence artificielle est une intelligence collective, c'est un mélange de toutes nos productions, donc si on la nourrit avec du garbage [des ordures, NdR], le résultat sera garbage. Mais si on nourrit le système avec de l'information de haute qualité, belle et chargée de sens, l'IA va refléter tout ça. » Tim Boucher appelle ainsi chacun de nous à s'emparer de ces outils, pour les maîtriser et mieux participer à la révolution qui nous attend, plutôt que d'adopter une simple réaction épidermique de rejet du phénomène. « Il est important d'avoir un dialogue avec ces technologies pour mieux comprendre comment elles marchent, ce qu'on peut faire avec et ce qu'on veut faire avec. Chercher également un moyen de trouver des solutions qui ne sont pas nécessairement couplées aux capitalismes, avec des IA qui nous donneraient d'autres résultats que ceux qu'on reçoit de la part d'une entreprise qui fait ça car elle facture 20 dollars par mois pour son utilisation. » Tout le monde ne sera certainement pas convaincu par la démarche de l'auteur canadien, qui concède lui-même le paradoxe qu'elle recouvre : « Je suis à la fois contre le système, et en même temps je suis une partie du problème. J'accepte ce jugement.» D'autres pourraient également lui opposer les questions de copyright et de droits d'auteur qui sont actuellement au coeur des réflexions sur ce type de contenus : certains vont même jusqu'à qualifier l'art par IA de vol. Aux Etats-Unis, notamment, les procès s'enchainent contre les entreprises de développement d'outils d'intelligence artificielle générative. De son côté, Tim affirme être très attentif à ses questions, et rechercherait des moyens de respecter l'esprit français du droit d'auteur dans le cadre de la publication de ses œuvres dans l'hexagone. Où est passée la vérité ? L'art par IA est tout nouveau et ne manque pas de détracteurs. Beaucoup d'inquiétudes entourent cette innovation dans la manière de créer du contenu. Sont par exemple pointés du doigt les deep fakes [vidéo ou photo truquées utilisant des personnalités, NdR] et la facilité avec laquelle il est aujourd'hui possible de les partager, les théories du complot qui en découlent, et le danger que cela représente pour la démocratie et pour notre rapport à la vérité. En réponse à ces questionnements, Tim Boucher, qui affirme ne jamais cacher le caractère faux des images et des histoires qu'il crée avec l'IA, voit aussi son travail comme une manière de visibiliser la puissance et les risques de cette nouvelle technologie. « Elle a ses propres limites, mais comme tout processus de création. Ce n'est pas une raison pour fuir face à cette nouveauté, mais il faut plutôt mettre la lumière sur ce qui est problématique, le nommer et chercher des solutions». En Amérique du Nord, son travail fait déjà parler. Entre critiques, débunkages, recherche de buzz et intérêt sincère pour ses oeuvres, les deepfakes de Tim ont réussi à attirer l'attention, de Reuters à CNN, en passant par la chaîne YouTube d'un influenceur américain spécialisé sur ces questions. Récemment, dans un entretien accessible aux plus anglophones d'entre nous — pour les autres des sous-titres générés automatiquement sont proposés —, Tim est revenu avec lui sur les différents critiques visant l'art généré par IA. (Suite et fin) U.L.