La Toile algérienne est, depuis peu et pour l'essentiel, un immense réceptacle d'intox, de haine, d'invectives et d'insultes, de procès d'intention et de règlements de comptes – des variantes de ce que le philosophe français Michel Onfray appelle à juste titre « les passions tristes ». Elle est devenue un espace de non-droit fait de violence morale inédite. Cet espace ne semble tolérer aucun discernement, aucun échange, aucune médiation, aucun dialogue. Après les fake news – expression anglaise qui signifie infox, informations fallacieuses ou fausses nouvelles participant à des tentatives de désinformation – voici venue l'ère des deepfakes, une technique de synthèse d'images basée sur l'intelligence artificielle rendant possibles des hyper-trucages, ou permutations intelligentes de visages, également de plus en plus usités chez nous. La technique sert principalement à superposer des images et des vidéos existantes sur d'autres images et/ou vidéos en vue de jeter le discrédit sur des personnalités du monde de la politique, des arts ou de la culture. Les deepfakes sont des contrefaçons vidéo recourant à une technologie de reconnaissance faciale pour brouiller l'identité si bien que vous ne remettez même pas en question sa vérité. Le logiciel Deepfake a été utilisé pour greffer le visage de femmes — des célébrités comme Scarlett Johansson – une actrice, chanteuse et réalisatrice américaine — ainsi que d'autres personnes moins connues avec des photos en ligne — sur de la pornographie graphique. Une étude de la société de cybersécurité Deeptrace, publiée aux Etats-Unis, a révélé que 96% des plus de 14 000 vidéos deepfake identifiées en ligne étaient de nature pornographique, les victimes étant souvent des actrices et des musiciens de renom. «Deepfakes a également attiré l'attention plus tôt cette année après les vidéos de la présidente de la Chambre des représentants Nancy Pelosi, falsifiée pour faire croire qu'elle était en train de brouiller les mots lors d'un discours diffusé sur les médias sociaux. Ces types de manipulations vidéo — qui suppriment le contexte d'une vidéo ou apportent d'autres modifications malveillantes — sont parfois appelés shallowfakes. » La technique nous réserve, si l'on croit Shelly Palmer, « une suite encore plus terrifiante ».(*) Rassurée par la capacité de la technologie à rendre, à terme, impossibles les fausses nouvelles, elle craint que le pire est à venir : « Nous ne pourrons plus savoir si ce que nous voyons et entendons est réel ou faux .» Dans un tour d'horizon « des avancées et des utilisations réalisés au cours de la dernière année » enregistrées en matière de deepfakes, elle recense en premier lieu les DeepNudes, une application d'hyper-trucage, déjà rendue illégale par de nombreuses législations à travers le monde, de porno-divulgation d'un média à caractère sexuel, comme une vidéo ou une photo, produit avec ou sans le consentement d'une personne, afin de lui porter préjudice ou d'ettenter à son image et sa notoriété. Autre manipulation enregistrée : la DNC Deepfake – DNC pour Comité national démocrate dont le président Tom Perez n'ayant pas pu assister à une réunion préparatoire des présidentielles de 2010 a « Skypé » et chatté, avec l'aide d'experts dans le domaine de l'IA, quelque chose qu'il n'a pas enregistré lui-même. Une autre technique, FaceApp, semble également faire florès. Il s'agit d'une application sur Android (un système d'exploitation mobile système fondé sur le noyau Linux et développé actuellement par Google) et iOS (système d'exploitation mobile développé par Apple pour plusieurs de ses appareils) qui utilise l'intelligence artificielle pour « générer des transformations très réalistes de visages à partir de photos ». Fondamentalement, FaceApp met le pouvoir des deepfakes à la portée de tout, pour faire paraître une personne sur une photo plus âgée, plus jeune, ou de lui faire changer de sexe. « Bien que FaceApp ait des fonctionnalités limitées, c'est l'un des créateurs d'hyper-trucage parmi les plus faciles et les plus populaires à la disposition du grand public. Sa vitesse et ses résultats impressionnants le rendent amusant… et dangereux », avertit Shelly Palmer. Anticipant sur l'avenir, Shelly Palmer nous invite à aller sur le site ThisPersonDoesNotExist.com qui « présente une synthèse d'images humaines entièrement automatisée en générant à l'infini des images qui ressemblent à des portraits de visages humains ». Ce qui est en cause ici c'est l'usage de la méthode procédurale : « En informatique, la génération procédurale (ou le modèle procédural) est la création de contenu numérique (niveau de jeu, modèle 3D, dessins 2D, animation, son, musique, histoire, dialogues) à une grande échelle (en grande quantité), de manière automatisée répondant à un ensemble de règles définies par des algorithmes.» L'Amérique est à la pointe de la chasse aux deepfakes. En juillet dernier, la Virginie est devenue l'un des premiers Etats à interdire le partage de pornographie générée par ordinateur, ou Deepfakes, en modifiant une loi existante qui criminalise la porno-divulgation, en ajoutant que cette catégorie comprend désormais le matériel « faussement créé ». Les lois californiennes cherchent également à réprimer « les actes délicats dans la politique et le porno » en traquant « les contrefaçons vidéo malveillantes ».(**) Deux nouvelles lois californiennes visent à mettre un terme à ces contrefaçons vidéo jugées néfastes. Le gouverneur de Californie, Gavin Newsom, a signé début octobre un premier texte qui rend illégale la distribution de vidéos manipulées visant à discréditer un candidat politique et à tromper les électeurs et un second texte qui donne aux Californiens le droit de poursuivre en justice une personne qui crée des deepfakes sans consentement préalable. Pour l'usager moyen des médias sociaux, le quotidien français Le Monde offre une solution adéquate pour vérifier la véracité des nouvelles et des images qui lui sont proposées.(***) A. B. (*) Shelly Palmer https://www.shellypalmer.com/2019/08/deepfakes-2-0-sequel-even-scarier/amp/, « Deepfakes 2.0 : La suite est encore plus terrifiante », Les crises, 7 octobre 2019 https://www.les-crises.fr (**) Carrie Mihalcik, California laws seek to crack down on deepfakes in politics and porn , CNET, 7 octobre 2019. https://www.cnet.com/ https://www.cnet.com/news/california-laws-seek-to-crack-down-on-deepfakes-in-politics-and-porn/?nr_email_referer=1&utm_source=Sailthru&utm_medium=email&utm_content=10_things_tech&utm_campaign=Post%20Blast%20sai:%2010%20things%20in%20tech%20you%20need%20to%20know%20today&utm_term=10%20THINGS%20IN%20TECH%20YOU%20NEED%20TO%20KNOW%20%20ENGAGED%2C%20ACTIVE%2C%20PASSIVE%2C%20DISENGAGED (**) Décodex, un site du quotidien Le Monde, donne la possibilité de vérifier une image ou une vidéo qui circule sur les réseaux sociaux, avec des conseils pour appréhender les vidéos et images qui circulent par exemple sur Facebook, Twitter ou YouTube. On peut y accéder par le lien suivant : https://www.lemonde.fr/les-decodeurs/ https://www.lemonde.fr/les-decodeurs/article/2017/01/23/comment-verifier-une-image-ou-une-video-qui-circule-sur-les-reseaux-sociaux_5067726_4355770.htl