Auteur : Chine Labbé

Israël, Ukraine : la désinformation, nouvelle arme de la terreur

par Chine Labbé le 27 octobre 2023
La publication de fake news sur les réseaux sociaux après l'attaque terroriste en Israël du samedi 7 octobre 2023 remet en lumière l'enjeu démocratique crucial de la vérification des informations. Chine Labbé, rédactrice en chef, Europe, chez NewsGuard, une société américaine qui évalue la fiabilité des sites d'information et d'actualité, analyse le nouvel environnement de l'information et explore des pistes de solutions.
Le Laboratoire de la République : Depuis l'acquisition en 2022 de Twitter (devenu X) par Elon Musk, de nombreux commentateurs estiment qu'une détérioration de la qualité de l'information est sensible sur le réseau. Est-ce le cas ? Pourquoi ? Chine Labbé : Vous posez la question d'une détérioration de la qualité de l'information sensible sur le réseau. Ce que je dirais, c'est qu'il y a eu des changements de règles de la plateforme qui ont contribué à une perte de lisibilité de l'information. Qu'est-ce que j'entends par là ? Et quel changement de politique en particulier ? Le premier, le plus important, c'est le changement de politique lié à la coche bleue sur X, autrefois Twitter. Cette petite coche bleue qui autrefois était adossée aux comptes qui étaient soit des comptes notoires, des comptes d'intérêts publics, des comptes authentiques reconnus par la plateforme comme tel. Aujourd'hui, cette coche bleue est disponible sur abonnement. Il suffit de payer pour l'avoir. Elle offre aux clients qui s'en saisissent, une visibilité plus grande sur la plateforme. Les contenus sont promus et ont une apparence de légitimité pour les internautes qui ne comprendraient pas finalement à quoi correspond cette politique et à quoi correspond cette coche bleue. De nombreux colporteurs d'Infox connus se sont saisis de cette coche bleue. Aujourd'hui, ils diffusent et s'en servent pour diffuser de manière beaucoup plus efficace, et avec ce semblant de légitimité, leurs fausses informations sur la plateforme. On l'a observé pour des sujets comme les vaccins, la guerre entre la Russie et l'Ukraine. Et malheureusement, cela se confirme avec le conflit entre Hamas et Israël. Deuxième changement de politique qui est important de mentionner et qui a contribué à cette perte de lisibilité, c'est le retrait des labels sur les comptes qui appartiennent à des médias d'État qui diffusent de la désinformation. Autrefois, vous aviez un petit label qui disait « média » appartenant à un État. Et puis, ces labels ont disparu. Dans les semaines qui ont suivi le retrait de ces labels, on a observé un pic de l'engagement avec ces comptes. C'est-à-dire que les partages, les likes, ces contenus ont été beaucoup plus viraux. On a fait un rapport chez NewsGuard sur ce sujet précisément et dans le détail, on a observé une augmentation de l'engagement avec des comptes appartenant à des médias d'État russes, chinois et iraniens en anglais. On a vu l'engagement avec ces comptes bondir de 70% dans les semaines qui ont suivi ce changement de politique. Le dernier point que j'aimerais souligner, c'est que Twitter a, semble- t- il, diminué de manière drastique ses équipes de modération des contenus et liées au suivi de ce qui se passe en termes de désinformation sur la plateforme. Twitter s'est retiré du code de bonnes pratiques contre la désinformation de l'Union européenne, auquel nous, nous sommes signataires chez NewsGuard. Donc, autant de signaux qui sont évidemment inquiétants. Le Laboratoire de la République : A la suite de l'attaque terroriste du Hamas sur Israël, des fausses informations ont été fortement relayées sur le réseau et sur internet. Quel regard portez-vous sur la qualité de l'information partagée lors de ce drame ? Chine Labbé : Ce dont on s'est aperçu très rapidement, le samedi 7 octobre, jour de l'attaque du Hamas contre Israël, c'est que les réseaux sociaux et les sites Internet ont été inondés de fausses informations. Trois jours seulement après l'attaque du Hamas, nous avions recensé 14 fausses informations qui avaient rassemblé 22 millions de vues sur X, sur TikTok et sur Instagram. Aujourd'hui, une semaine plus tard, on a déjà recensé et décrypté une vingtaine de fausses informations. Ça va très vite. Ce qu'on observe, ce sont à la fois des techniques bien connues qu'on a observées déjà lors de la guerre en Ukraine, des images, des vidéos qui vont être sorties de leur contexte ou qui vont être présentées comme appartenant à ce conflit alors qu'en fait elles sont issues d'autres conflits, d'autres terrains de guerre. On va observer aussi des images de jeux vidéo qui vont être présentées comme réelles et comme ayant été prises lors de ce conflit. On a des documents falsifiés, tout simplement photoshoppés, des mémos de la Maison Blanche, par exemple. Donc des techniques assez simples, assez artisanales, mais qui font déjà beaucoup de dégâts.Et ce qui est assez incroyable aussi, c'est de constater que certaines images vont être utilisées pour nourrir à tort des récits faux, parfois de manière contradictoire, pour nourrir des récits qui disent l'inverse. Je vous donne un exemple. On a cette image qui a circulé d'un enfant au sol dans une flaque de sang, qui a été présentée par certains comme la preuve qu'Israël mettait en scène la mort d'enfants israéliens, et de l'autre qui avait pu être présenté comme la preuve que le Hamas mettait en scène la mort d'enfants palestiniens. Les deux sont faux. Les deux récits sont faux. Cette image, en fait, elle est extraite d'un court- métrage qui a été tourné bien avant la guerre entre Israël et le Hamas. Et donc, ce sont des images juste des coulisses d'un film. Mais donc, ça montre bien à quel point l'instrumentalisation d'images qui n'ont rien à voir avec le conflit peut aller très vite. Ça prend du temps pour nous, journalistes, de vérifier l'information, d'arriver à voir ce qui est faux ou ce qui est juste pour l'instant non prouvé ou sorti de son contexte ou trompeur, etc. Ça prend du temps à l'expliquer et la difficulté, évidemment, c'est cette course contre la montre pour essayer de prouver qu'une chose est fausse ou véritable, alors même qu'elle est déjà virale sur les réseaux sociaux.Quelques petits éléments qu'on peut mentionner, c'est malheureusement la forte présence des enfants dans les fausses informations qui circulent, des enfants, des bébés. Pourquoi ? Parce qu'on sait que c'est très sensible. Ça nous touche tous au plus profond. Les contenus les plus viraux relayant de fausses informations sont malheureusement souvent des images d'enfants. Pour contrer ces fausses informations, nous sommes allés vérifier les informations au fur et à mesure, au plus vite. Nous avons renseigné les internautes sur les sources qu'ils lisent, que ce soit des sites Internet, des comptes sur les réseaux sociaux. Pourquoi c'est important ? Parce que les colporteurs de fausses informations sont souvent des multirécidivistes. Ceux qui diffusaient de fausses informations sur l'Ukraine, qui diffusaient auparavant de fausses informations sur le Bataclan, qui diffusaient auparavant de fausses informations sur la guerre en Syrie, s'engouffrent dans la brèche et diffusent aujourd'hui de fausses informations sur ce qui se passe au Proche-Orient. C'est important de les identifier pour pouvoir surveiller leurs récits et aller les décrypter au fur et à mesure. On voit depuis le début du conflit des techniques assez artisanales, finalement, des images qui sont bien réelles, mais juste sorties de leur contexte ou présentées à tort, ou on va avoir des vidéos qui vont être switchées et titrées dans une autre langue avec une fausse traduction, mais la vidéo, elle est bien correcte. Ces choses- là, bien artisanales, font déjà beaucoup de mal. Donc, ce que l'on craint, évidemment, c'est ce qui va se passer quand, si, des images créées de toute pièce par intelligence artificielle commencent à inonder nos réseaux, puisque là, ça sera d'autant plus difficile de répondre. Le Laboratoire de la République : Le commissaire européen Thierry Breton a menacé le réseau social X de sanctions. L'Union Européenne a-t-elle aujourd'hui les moyens de ses ambitions en matière de régulation des contenus sur les réseaux ? Chine Labbé : Moi, je suis journaliste, donc ce n'est pas trop ma place d'aller commenter les textes de loi et l'effet positif ou négatif qu'ils peuvent avoir. Ce que je peux dire en tout cas, c'est qu'effectivement, depuis plusieurs années, l'Union européenne se dotte de nouveaux outils pour combattre cette nouvelle menace. Mais tout ne doit pas venir de la régulation. Il y a toujours la question de la transparence des plateformes, notamment en ce qui concerne les algorithmes de recommandations. Quels contenus deviendront viraux et pourquoi ? Il est nécessaire que des entreprises comme la mienne puissent donner des suppléments d'information aux internautes. Les internautes doivent avoir des informations sur les sources qui leur donnent des informations. Ils doivent également apprendre à lire ces informations, avoir une lecture latérale. Quand une information apparait suspecte, il faut faire l'effort d'aller regarder ailleurs. La multiplication des contenus rend la tâche très difficile de tout vérifier. Les internautes doivent apprendre la résilience à la désinformation. Cela passe par l'éducation aux médias. Toutes les classes d'âge sont concernées. Beaucoup de désinformations sont relayées par les personnes âgées. https://youtu.be/59Vh7KfLYIs

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire