Véritables armes lors des conflits et des guerres, la désinformation et la propagande ont toujours sévi, permettant à chaque camp de réécrire l’histoire. Alors qu’Internet a démocratisé l’accès à l’information et que les technologies de l’intelligence artificielle se développent au service de l’homme, est-il plus facile de se prémunir des fausses rumeurs, « fake news » et canulars en ligne ?
Par Isabelle Conotte
Du faux plus vrai que nature
Fin mars, une photo du Pape François en doudoune blanche est apparue sur Twitter, l’image assez cocasse du « Balenciaga pope » est partagée par de nombreux utilisateurs et devient virale. À priori, c’est un moment léger des réseaux sociaux où il est désormais davantage coutume de commenter l’information et de s’en divertir plutôt que de la comprendre et l’expliquer… et il n’y pas de mal à cela. Le problème c’est que cette photo n’existe pas, il s’agit d’une création d’une intelligence artificielle générative, le logiciel Midjourney. Et si le thème est léger et ne touche pas à une information sensible, cette démonstration de force laisse imaginer à quel point l’intelligence artificielle (IA) pourrait contribuer à la désinformation, et comment le fictif peut impacter le réel. On s’est tous fait piégés, on a cru ce qu’on a vu.
Comment en est-on arrivé là ? Conçue pour résoudre des problèmes complexes et simuler des comportements humains, l’IA est au service de nombreux domaines comme la médecine, la finance ou le transport avec les voitures autonomes et permet l’amélioration des pratiques. Apparue dans les années 50, l’IA connaît son premier moment de gloire en 1997 quand un logiciel capable de jouer aux échecs de manière autonome, l’IA Deep Blue d’IBM, bat le champion du monde en titre, Gary Kasparov. Pour la première fois, l’homme est vaincu par la machine. Depuis lors, l’IA n’a pas cessé de progresser et de développer de nouvelles applications.
Dans le domaine de l’information, des logiciels générateurs d’image à partir de contenu textuel ont été créés, mais aussi générateurs de texte comme le fameux ChatGPT, le chatbot conçu par la société américaine OpenAI qui peut créer des articles de blog, par exemple. Dernier né des technologies IA, l’hypertrucage, ou « deepfake », est une technique de synthèse multimédia qui superpose des images et crée une réalité qui n’existe pas, une aubaine pour la fiction et le cinéma mais un danger potentiel pour l’information. Des films truqués d’arrestation d’hommes politiques, comme Donald Trump, ou des mises en scènes désastreuses pour l’image de personnalités publiques circulent sur le net et sont indûment prises pour la réalité. Utilisées à des fins trompeuses, les technologies développées par l’IA impactent l’opinion publique. Elles peuvent ainsi influencer les débats, ou les élections politiques, surtout si elles sont exploitées par les réseaux sociaux.
Les médias sociaux comme source d’information
Pendant des siècles, une information uniforme et officielle s’est imposée. On ne pouvait pas affirmer que la terre était ronde, ni qu’elle tournait autour du soleil comme le soutenait le savant astronome Galilée condamné par l’Inquisition pour hérésie. Ce qui s’appliquait au domaine scientifique l’était également dans le domaine politique, lors des conflits, où la propagande indiquait la vérité authentique. Les innovations du XXème siècle, comme la radio, la télévision et bien sûr internet, ont révolutionné le monde de l’information qui est maintenant accessible au plus grand nombre. La multiplication des supports et la diversité des éditorialistes sont au service de la complexité de la réalité. L’humanité est prête à sortir de la caverne de Platon et à accéder à la connaissance.
Dans cette quête de vérité, la dématérialisation de l’information et son accès numérique a marqué une nouvelle étape. On a abandonné gazette, dictionnaires et encyclopédies pour s’en remettre à Google, Facebook et Twitter. Internet et les médias sociaux sont une source extraordinaire d’informations diverses et variées mais on y consomme également de l’actualité sans filtre. Le traitement de l’information chaude y est souvent simplifié et laisse beaucoup de place aux manifestations d’avis et aux luttes d’opinion. Les rumeurs s’y propagent à grande vitesse et de petites polémiques occupent davantage la scène que la réflexion et l’analyse. Les utilisateurs de Twitter se moquent régulièrement de leur contingent d’experts proclamés qui commentent l’information et mettent parfois en doute la parole officielle, participant aux théories du complot. C’est le cas pendant l’épidémie de Covid-19 où des néophytes se sentent légitimes à contredire le discours des scientifiques, ou lors de l’implosion récente du sous-marin Titan aux abords du Titanic où chacun y va de son commentaire technique.
Paradoxalement, l’information qui s’est libérée du joug de contraintes politique est de nouveau malmenée. Alors qu’elle était devenue le produit objectif d’une analyse factuelle, l’IA vient bouleverser son fonctionnement en créant des preuves qui instaurent le doute. Et ce n’est pas seulement le domaine politique, qui pourrait effectivement être sujet à nuances, qui est visé, la science elle-aussi en prend pour son grade. Le constat est là : en décembre 2017, 9% des Français croient possible que la Terre soit plate et non sphérique comme l’école l’enseigne (étude réalisée par l’Ifop).
Du bon usage des plateformes numériques
Entre scepticisme et crédulité, il faut s’éduquer face à l’information en ligne. Alors que notre smartphone guide déjà nos pas et notre véhicule, il faut garder l’esprit critique. Les informations qui nous parviennent via les réseaux sociaux, tout comme les publicités, sont l’aboutissement d’algorithmes qui étudient nos centres d’intérêt et souhaitent un maximum d’engagement de notre part. Le côté positif est que l’on n’est pas pollué par une sur-information concernant ce qui ne nous intéresse pas. L’aspect négatif est que l’on reste dans sa bulle, avec des contenus en accord avec ses pensées et opinions, de moins en moins disponibles et réceptifs à toute contradiction et confortés dans ses positions, prêts à recevoir l’invitation à la convention annuelle des platistes, à Dallas.
Alors, avant de partager le dernier flash info défrayant la chronique que l’on vient de lire sur le net ou sombrer dans le complotisme, on vérifie ses sources. On cherche des vrais experts, c’est-à-dire des médias compétents dans l’information qu’ils diffusent, ou des experts en chair et en os, et qualifiés dans le domaine. Newsguard, spécialiste de la désinformation et de sa propagation, a identifié 49 sites d’informations dont le contenu est écrit par des systèmes d’IA de génération de textes. Ces sites web dont les articles ont des titres racoleurs ont des objectifs commerciaux, ils ressemblent aux sites d’information traditionnels mais sont en réalité des pièges à clics qui rapportent de l’argent au créateur à chaque engagement ou transfert de son contenu.
Le lundi 27 juin, à Bruxelles, a eu lieu une rencontre entre des représentants de L’Organisation des Nations unies (ONU) et de l’Union européenne (UE) afin de discuter de solutions pour un environnement numérique plus sûr et plus ouvert, en Europe et dans le monde entier, et lutter contre la désinformation en ligne. L’intérêt et les bénéfices des plateformes numériques pour toutes les communautés y est reconnu, on y note le mauvais usage qui en fait pour détourner la science et propager la désinformation. Un code de conduite contre la désinformation est en élaboration, il vise à obtenir des changements significatifs de la part des plateformes, notamment un engagement à s’éloigner des modèles commerciaux qui privilégient l’engagement au détriment des droits de l’homme, de la vie privée et de la sécurité.