Rubrique : Défi technologique

Actes d’Autun de l’Université d’été 2024

par L'équipe du Lab' le 5 décembre 2024 photos_ateliers_Université-dété
Du 29 au 31 août 2024, le Laboratoire de la République a organisé, à Autun, sa première université d'été. Vous avez été plus de 600 à nous rejoindre et à participer à nos tables rondes. Vous trouverez dans cet article les Actes d'Autun qui permettront à ceux qui y ont participé d’avoir une modeste trace écrite de leurs échanges, et à ceux qui n’ont pu se joindre à nous d’avoir un aperçu de la dynamique initiée par le Laboratoire de la République en 2024 … et de préparer au mieux Autun 2025 !
Actes d'Autun Laboratoire de la RepubliqueTélécharger Comment dans ce monde tenté par la fragmentation et le radicalisme garder le cap de l’idée républicaine ? Réunis à Autun en Bourgogne du 29 au 31 août 2024 dans le cadre de la première Université d’été du Laboratoire de la République, quelque 600 participants – élus, hauts fonctionnaires, intellectuels, membres de la société civile, représentants syndicaux, décideurs économiques et simples citoyens - ont planché, autour de Jean-Michel Blanquer, ancien ministre de l’Éducation nationale, sur les défis d’aujourd’hui et de demain auxquels fait face le modèle républicain français. Placée sous le signe de la jeunesse et de l’égalité des territoires, l’Université a été l’occasion d’aborder au travers de dix ateliers les grands enjeux auquel notre République est confrontée. Depuis la laïcité jusqu’aux défis environnementaux et sociaux, en passant par la construction européenne et le sens de la politique de défense de la France, cet ouvrage rassemble les présentations et analyses des personnalités qui ont conduit les discussions.  Adressé aux décideurs comme aux simples citoyens, il vise à nourrir le débat public.

La création face aux défis de l’intelligence artificielle : retrouver le sens du récit

par L'équipe du Lab' le 15 avril 2024
Dans cette conversation sur "La création face aux défis de l'intelligence artificielle (IA) : retrouver le sens du récit", Thierry Taboy, responsable de la commission technologique du Laboratoire de la République, anime une rencontre stimulante entre deux figures de l'innovation culturelle et narrative : Nils Aziosmanoff, fondateur du Cube et directeur général du Cube Garges, pôle d'innovation culturelle, et Thierry Murat, talentueux auteur de bandes dessinées (son dernier ouvrage : "initial_A"). Ensemble, ils explorent l’impact de l’IA sur le processus de création. Entre réflexions sur les nouvelles formes d'expression artistique et les défis éthiques, cette conversation offre des perspectives riches et inspirantes.
La création artistique fait face à des défis sans précédent avec l'émergence de l'intelligence artificielle (IA). Cette technologie révolutionnaire offre des possibilités infinies, mais soulève également des questions éthiques, esthétiques et même métaphysiques. D'un côté, l'IA élargit l'éventail des outils créatifs à disposition des artistes, leur permettant d'explorer de nouvelles formes d'expression, de générer des idées originales et de repousser les limites de leur imagination. Des domaines aussi variés que la musique, la littérature, les arts visuels et même la danse sont touchés par cette révolution. Les algorithmes peuvent aider à créer de la musique, à générer des poèmes, et même à chorégraphier des mouvements. Cependant, cette expansion de l'arsenal créatif soulève des préoccupations importantes. Tout d'abord, il y a la question de l'originalité et de l'authenticité. Si une œuvre est créée par une machine, est-elle toujours considérée comme une expression artistique authentique ? Ou bien est-elle simplement le produit d'une programmation algorithmique ? Ensuite, il y a les enjeux éthiques liés à l'utilisation de l'IA dans la création artistique. Que dire de l'impact sur les emplois artistiques traditionnels ? L'automatisation de la création pourrait-elle remplacer les artistes humains, ou plutôt les compléter ? Enfin, il y a la question de la relation entre l'artiste et son public. L'IA peut-elle véritablement capturer l'essence de l'expérience humaine et émouvoir les spectateurs de la même manière qu'une création humaine ? Ou bien y a-t-il quelque chose d'irremplaçable dans l'acte de création humaine, dans toute sa complexité et sa subjectivité ? Face à ces défis, il est crucial que les artistes, les chercheurs, les décideurs politiques et la société dans son ensemble engagent un dialogue ouvert et réfléchi sur le rôle de l'IA dans la création artistique. Il est temps de repenser nos conceptions de la créativité, de l'originalité et de l'authenticité à la lumière de cette révolution technologique, afin de garantir que l'art continue à enrichir nos vies de manière significative et profonde. Retrouver la conversation : https://youtu.be/NlXhF_346Z4?feature=shared Conversation sur "La création face aux défis de l'intelligence artificielle : retrouver le sens du récit"

Israël, Ukraine : la désinformation, nouvelle arme de la terreur

par Chine Labbé le 27 octobre 2023
La publication de fake news sur les réseaux sociaux après l'attaque terroriste en Israël du samedi 7 octobre 2023 remet en lumière l'enjeu démocratique crucial de la vérification des informations. Chine Labbé, rédactrice en chef, Europe, chez NewsGuard, une société américaine qui évalue la fiabilité des sites d'information et d'actualité, analyse le nouvel environnement de l'information et explore des pistes de solutions.
Le Laboratoire de la République : Depuis l'acquisition en 2022 de Twitter (devenu X) par Elon Musk, de nombreux commentateurs estiment qu'une détérioration de la qualité de l'information est sensible sur le réseau. Est-ce le cas ? Pourquoi ? Chine Labbé : Vous posez la question d'une détérioration de la qualité de l'information sensible sur le réseau. Ce que je dirais, c'est qu'il y a eu des changements de règles de la plateforme qui ont contribué à une perte de lisibilité de l'information. Qu'est-ce que j'entends par là ? Et quel changement de politique en particulier ? Le premier, le plus important, c'est le changement de politique lié à la coche bleue sur X, autrefois Twitter. Cette petite coche bleue qui autrefois était adossée aux comptes qui étaient soit des comptes notoires, des comptes d'intérêts publics, des comptes authentiques reconnus par la plateforme comme tel. Aujourd'hui, cette coche bleue est disponible sur abonnement. Il suffit de payer pour l'avoir. Elle offre aux clients qui s'en saisissent, une visibilité plus grande sur la plateforme. Les contenus sont promus et ont une apparence de légitimité pour les internautes qui ne comprendraient pas finalement à quoi correspond cette politique et à quoi correspond cette coche bleue. De nombreux colporteurs d'Infox connus se sont saisis de cette coche bleue. Aujourd'hui, ils diffusent et s'en servent pour diffuser de manière beaucoup plus efficace, et avec ce semblant de légitimité, leurs fausses informations sur la plateforme. On l'a observé pour des sujets comme les vaccins, la guerre entre la Russie et l'Ukraine. Et malheureusement, cela se confirme avec le conflit entre Hamas et Israël. Deuxième changement de politique qui est important de mentionner et qui a contribué à cette perte de lisibilité, c'est le retrait des labels sur les comptes qui appartiennent à des médias d'État qui diffusent de la désinformation. Autrefois, vous aviez un petit label qui disait « média » appartenant à un État. Et puis, ces labels ont disparu. Dans les semaines qui ont suivi le retrait de ces labels, on a observé un pic de l'engagement avec ces comptes. C'est-à-dire que les partages, les likes, ces contenus ont été beaucoup plus viraux. On a fait un rapport chez NewsGuard sur ce sujet précisément et dans le détail, on a observé une augmentation de l'engagement avec des comptes appartenant à des médias d'État russes, chinois et iraniens en anglais. On a vu l'engagement avec ces comptes bondir de 70% dans les semaines qui ont suivi ce changement de politique. Le dernier point que j'aimerais souligner, c'est que Twitter a, semble- t- il, diminué de manière drastique ses équipes de modération des contenus et liées au suivi de ce qui se passe en termes de désinformation sur la plateforme. Twitter s'est retiré du code de bonnes pratiques contre la désinformation de l'Union européenne, auquel nous, nous sommes signataires chez NewsGuard. Donc, autant de signaux qui sont évidemment inquiétants. Le Laboratoire de la République : A la suite de l'attaque terroriste du Hamas sur Israël, des fausses informations ont été fortement relayées sur le réseau et sur internet. Quel regard portez-vous sur la qualité de l'information partagée lors de ce drame ? Chine Labbé : Ce dont on s'est aperçu très rapidement, le samedi 7 octobre, jour de l'attaque du Hamas contre Israël, c'est que les réseaux sociaux et les sites Internet ont été inondés de fausses informations. Trois jours seulement après l'attaque du Hamas, nous avions recensé 14 fausses informations qui avaient rassemblé 22 millions de vues sur X, sur TikTok et sur Instagram. Aujourd'hui, une semaine plus tard, on a déjà recensé et décrypté une vingtaine de fausses informations. Ça va très vite. Ce qu'on observe, ce sont à la fois des techniques bien connues qu'on a observées déjà lors de la guerre en Ukraine, des images, des vidéos qui vont être sorties de leur contexte ou qui vont être présentées comme appartenant à ce conflit alors qu'en fait elles sont issues d'autres conflits, d'autres terrains de guerre. On va observer aussi des images de jeux vidéo qui vont être présentées comme réelles et comme ayant été prises lors de ce conflit. On a des documents falsifiés, tout simplement photoshoppés, des mémos de la Maison Blanche, par exemple. Donc des techniques assez simples, assez artisanales, mais qui font déjà beaucoup de dégâts.Et ce qui est assez incroyable aussi, c'est de constater que certaines images vont être utilisées pour nourrir à tort des récits faux, parfois de manière contradictoire, pour nourrir des récits qui disent l'inverse. Je vous donne un exemple. On a cette image qui a circulé d'un enfant au sol dans une flaque de sang, qui a été présentée par certains comme la preuve qu'Israël mettait en scène la mort d'enfants israéliens, et de l'autre qui avait pu être présenté comme la preuve que le Hamas mettait en scène la mort d'enfants palestiniens. Les deux sont faux. Les deux récits sont faux. Cette image, en fait, elle est extraite d'un court- métrage qui a été tourné bien avant la guerre entre Israël et le Hamas. Et donc, ce sont des images juste des coulisses d'un film. Mais donc, ça montre bien à quel point l'instrumentalisation d'images qui n'ont rien à voir avec le conflit peut aller très vite. Ça prend du temps pour nous, journalistes, de vérifier l'information, d'arriver à voir ce qui est faux ou ce qui est juste pour l'instant non prouvé ou sorti de son contexte ou trompeur, etc. Ça prend du temps à l'expliquer et la difficulté, évidemment, c'est cette course contre la montre pour essayer de prouver qu'une chose est fausse ou véritable, alors même qu'elle est déjà virale sur les réseaux sociaux.Quelques petits éléments qu'on peut mentionner, c'est malheureusement la forte présence des enfants dans les fausses informations qui circulent, des enfants, des bébés. Pourquoi ? Parce qu'on sait que c'est très sensible. Ça nous touche tous au plus profond. Les contenus les plus viraux relayant de fausses informations sont malheureusement souvent des images d'enfants. Pour contrer ces fausses informations, nous sommes allés vérifier les informations au fur et à mesure, au plus vite. Nous avons renseigné les internautes sur les sources qu'ils lisent, que ce soit des sites Internet, des comptes sur les réseaux sociaux. Pourquoi c'est important ? Parce que les colporteurs de fausses informations sont souvent des multirécidivistes. Ceux qui diffusaient de fausses informations sur l'Ukraine, qui diffusaient auparavant de fausses informations sur le Bataclan, qui diffusaient auparavant de fausses informations sur la guerre en Syrie, s'engouffrent dans la brèche et diffusent aujourd'hui de fausses informations sur ce qui se passe au Proche-Orient. C'est important de les identifier pour pouvoir surveiller leurs récits et aller les décrypter au fur et à mesure. On voit depuis le début du conflit des techniques assez artisanales, finalement, des images qui sont bien réelles, mais juste sorties de leur contexte ou présentées à tort, ou on va avoir des vidéos qui vont être switchées et titrées dans une autre langue avec une fausse traduction, mais la vidéo, elle est bien correcte. Ces choses- là, bien artisanales, font déjà beaucoup de mal. Donc, ce que l'on craint, évidemment, c'est ce qui va se passer quand, si, des images créées de toute pièce par intelligence artificielle commencent à inonder nos réseaux, puisque là, ça sera d'autant plus difficile de répondre. Le Laboratoire de la République : Le commissaire européen Thierry Breton a menacé le réseau social X de sanctions. L'Union Européenne a-t-elle aujourd'hui les moyens de ses ambitions en matière de régulation des contenus sur les réseaux ? Chine Labbé : Moi, je suis journaliste, donc ce n'est pas trop ma place d'aller commenter les textes de loi et l'effet positif ou négatif qu'ils peuvent avoir. Ce que je peux dire en tout cas, c'est qu'effectivement, depuis plusieurs années, l'Union européenne se dotte de nouveaux outils pour combattre cette nouvelle menace. Mais tout ne doit pas venir de la régulation. Il y a toujours la question de la transparence des plateformes, notamment en ce qui concerne les algorithmes de recommandations. Quels contenus deviendront viraux et pourquoi ? Il est nécessaire que des entreprises comme la mienne puissent donner des suppléments d'information aux internautes. Les internautes doivent avoir des informations sur les sources qui leur donnent des informations. Ils doivent également apprendre à lire ces informations, avoir une lecture latérale. Quand une information apparait suspecte, il faut faire l'effort d'aller regarder ailleurs. La multiplication des contenus rend la tâche très difficile de tout vérifier. Les internautes doivent apprendre la résilience à la désinformation. Cela passe par l'éducation aux médias. Toutes les classes d'âge sont concernées. Beaucoup de désinformations sont relayées par les personnes âgées. https://youtu.be/59Vh7KfLYIs

Intelligence artificielle : la culture numérique est cruciale pour relever les défis de l’IA

par Thierry Taboy le 28 août 2023
L’apparition, depuis un an et demi environ, de modules d’intelligence artificielle générative destinés au grand public, a eu un retentissement important dans la sphère publique, entre projections utopiques et dystopiques. Alors que la révolution est encore devant nous, Thierry Taboy, directeur Droits Humains au sein du groupe Orange et coordinateur de la task force Santé du collectif Impact AI, souligne l’importance de l’acculturation au numérique pour favoriser le développement d’une IA européenne et circonscrire les risques démocratiques liés à son usage.
Le Laboratoire de la République : Dix mois après l’apparition de ChatGPT, en sait-on davantage sur les usages qui sont faits de cet outil ? La révolution annoncée n’est-elle pas encore devant nous ? Thierry Taboy : Les applications supportées par un moteur d’intelligence artificielle sont loin d’être nouvelles mais peu de gens jusqu’à présent se rendaient compte qu’ils s’en servaient dans leur quotidien. A la manière d’un monsieur Jourdain de la technologie, ils entraînaient des IAs sans le savoir. En offrant une interface très accessible, ChatGPT d’OpenAI a créé une rupture radicale, permettant au plus grand nombre de se confronter en conscience aux potentialités offertes par l’outil. Et c’est devenu une folie, entre déferlante d’usages, engouement médiatique et discours plus ou moins délirants (« les IAs génératives vont faire disparaître les cadres »… ). ChatGPT est une intelligence artificielle qui répond à toutes vos questions même parfois quand elle ne sait pas, écrit des articles, des chansons, des recettes de cuisine ou des lignes de code à la demande et bien plus encore. Si elle repose sur des banques de données immenses et propose un mode de langage naturel, elle n’en reste pas moins imparfaite. Pour résumer, elle « ne comprend pas » ce qu’elle écrit, elle ne fait que prédire les mots qui sont les plus cohérents pour continuer sa phrase. Mais elle le fait plutôt bien, ce qui donne l’impression qu’elle est vraiment intelligente, ou consciente. Cela dit, il est indéniable que la qualité des réponses proposées par les IAs génératives ne cesse de progresser, avec comme facteurs déterminants une performance algorithmique croissante, de nouvelles fonctionnalités, l’intégration de banques de données de plus en plus larges et l’explosion du nombre d’utilisateurs qui « l’entraînent » toujours plus. Assistance à la rédaction, support client, campagnes de communication, conditions juridiques, éducation, création de contenus multimédia, traduction, programmation… les champs recouverts par les Midjourney, ChatGPT, Lamma-2 (open source) et consorts sont toujours plus nombreux, aussi bien du côté professionnel que grand public. Selon l’IFOP, 18% des salariés en Entreprise l’utiliseraient d’ailleurs déjà, le plus souvent sans le dire. Si l’on veut résumer, ChatGPT est un excellent outil pour générer un premier jet, de gagner du temps, quand nous sommes confrontés à toute forme de rédaction. Cette nouvelle donne oblige à repenser la manière dont nous abordons l’éducation et la formation. Il faut apprivoiser la bête, l’encadrer. On le sait, usage n’est pas maîtrise et ces technologies demandent de revoir les modes d’apprentissage. Profiter du meilleur de ces technologies et en faire un allié de la créativité humaine demande une bonne connaissance de leurs forces et limites, la capacité à générer des contextes propices à une réponse adaptée. Comme le note très bien le Conseil National du Numérique (Livre "civilisation numérique"), "(toute nouvelle technologie doit être) accompagnée de la formation d'un nouvel esprit critique et d'une culture technique permettant à chacun de préserver sa capacité de discernement". Le Laboratoire de la République : Ces technologies ont suscité un mélange de peur et d’enthousiasme sans précédent. Quels espoirs et quelles inquiétudes peut-on raisonnablement avoir vis-à-vis de ces modules ? Thierry Taboy : Il est d’abord urgent de sortir des discours manichéens qui fleurissent un peu partout et savoir raison garder. Les IAs génératives entraînent de nouveaux risques mais peuvent également être considérées comme une véritable opportunité pour celles et ceux qui gagneront en "capacitation" comme aimait à le rappeler Bernard Stiegler. Une récente étude du MIT tend d’ailleurs à montrer que l'usage de ChatGPT serait certes facteur de productivité mais surtout de réduction des inégalités une fois les personnes formées. (Experimental evidence on the productivity effects of generative artificial intelligence | Science). S’il est vrai que certains métiers sont vraiment plus à risque que d’autres, nous allons surtout devoir faire face à une transformation radicale de leurs contours. Ce qui sous-tend que plutôt qu’un remplacement de ceux-ci, ce sont les profils qui maitriseront le mieux ces nouveaux outils qui seront en situation de force en termes d’attractivité employeur. Si nous devons nous concentrer concrètement sur les risques structurels induits par ces IAs, c’est du côté des biais, de l’éthique, de la lutte contre les stratégies de désinformation (deepfake) comme du respect de la vie privée qu’il faut se pencher. C’est tout le sens du débat qui s’est tenu le 18 juillet dernier au sein du Conseil de Sécurité de l’ONU et dont le thème était « conséquences pour la paix de l’intelligence artificielle, entre « risques existentiels » et immenses promesse ». Avec les droits humains en première ligne. Pour résumer, plutôt que de lutter contre une vague inexorable, il va falloir apprendre à surfer. Le Laboratoire de la République : La levée de fonds record conclue par Mistral AI en juin a démontré que des technologies européennes ou françaises étaient en cours de développement. Est-ce suffisant ? Comment assurer la souveraineté européenne en la matière ? Thierry Taboy : Face aux montants astronomiques des investissements déployés aux Etats-Unis ou en Chine, l’Europe, malgré un retard évident, a encore une véritable carte à jouer si elle s’en donne les moyens et offre un cadre propice, une juste balance entre innovation et réglementation. De par son histoire, sa culture, la « vieille » Europe porte en elle des valeurs propices au déploiement d’IAs responsables « by design », respectueuses des droits humains, une condition essentielle à sa souveraineté. Avec des industries d’excellence à portée mondiale dans les domaines IT et une propension à s’appuyer sur leurs écosystèmes et ainsi déployer des stratégies d’innovation ouverte, l’Europe possède de réels atouts pour se démarquer. Et cela peut faire toute la différence en matière d’accessibilité, de confiance utilisateur et de différenciation marché. Le règlement européen sur les services numériques (DSA) comme le futur « AI Act » sont et seront à ce titre déterminants. Les dernières versions de l’AI Act peuvent à ce titre légitimement inquiéter par leur portée trop restrictive et des améliorations sensibles sont attendues pour réellement promouvoir l’équilibre innovation-réglementation. N’en reste pas moins vrai que la souveraineté est au cœur de l’agenda européen. Le Laboratoire de la République : De nombreuses universités ont décidé d’interdire l’usage de ChatGPT. Est-ce une stratégie tenable et intéressante ? Thierry Taboy : Selon moi, cela n’a aucun sens sauf si de telles décisions sont dictées par la nécessité de marquer une courte pause et d’en profiter pour permettre au corps enseignant de se former, de se repenser pour intégrer cette nouvelle donne dans les parcours d’apprentissage. Prenons l’exemple des écoles qui forment les futurs développeurs et développeuses. Intégrer dans leurs parcours d’apprentissage l’appropriation des IAs génératives permettra de s’appuyer sur celles-ci afin de rapidement créer les briques de bases (frameworks) et se concentrer sur des tâches plus complexes et ainsi libérer leur créativité. Cet exemple vaut également pour les étudiants ou les communicants qui auront la capacité à générer les premières ébauches de réponse, se faire surprendre par des points de vue inédits. Pour autant, il leur faudra connaître comment affiner leurs requêtes (prompts), se confronter à d’autres sources et, sur cette base, proposer leur propre vision. Comme l'écrit Jérémy Lamri, "pour résoudre efficacement les inégalités liées à la capacité de prompter les IA génératives, il est crucial d’adopter des approches interdisciplinaires. Cela signifie associer les compétences et perspectives de la sociologie, la philosophie et les sciences techniques pour mieux comprendre les attentes et les besoins spécifiques des utilisateurs." L’intégration de ces technologies demande donc aux enseignants comme aux professionnels de se réinventer pour faire en sorte que ces technologies soient au service de l’ingéniosité humaine. Le travail à mener est conséquent.  Au final, les universités et autres structures de formation qui feront la différence dans le futur seront celles qui auront privilégié l’intelligence collective tout en puisant dans ce qu’apporte ces technologies nouvelles. Refuser le train ne sauvera pas la calèche.

Émeutes et réseaux sociaux

par Benoît Raphaël le 25 juillet 2023
La mort de Nahel Merzouk à la suite d’un tir d'un policier lors d'un contrôle routier le 27 juin dernier a déclenché une vague d'émeutes et de violences dans les quartiers populaires. La diffusion sur les réseaux sociaux de la vidéo de l'événement a notamment entraîné une mobilisation sans précédent des communautés digitales, soulevant des interrogations sur l'impact de ces plateformes sur la paix sociale. Benoît Raphaël, journaliste, auteur et entrepreneur spécialisé dans l'intelligence artificielle, évoque pour le Laboratoire de la République cette question.
Laboratoire de la République : Quel rôle ont joué les réseaux sociaux dans les émeutes des derniers jours ? Quelle est leur part de responsabilité dans l'emballement et la libération de la violence ? Benoît Raphaël : Je pense tout d'abord qu'il faudrait reformuler la question : avant d'interroger la responsabilité des réseaux sociaux, il faudrait d'abord se questionner sur l'usage qui a été fait des réseaux sociaux par les émeutiers pour maintenir la pression. Les réseaux sociaux sont avant tout des médias, mais dont les « rédacteurs en chef » sont tout un chacun. De la même manière, on devrait aussi s'interroger sur le rôle des médias et en particulier des chaînes d'info en continu dans la mécanique de l'emballement. Plus généralement, on retrouve ce rôle des réseaux sociaux dans la plupart des phénomènes de révolte et de radicalisation. Les règles sont détournées par quelques-uns pour amplifier ou accélérer des phénomènes de violence ou de mobilisation. Sans porter de jugement sur le fond des revendications, on l'a vu lors des épisodes des gilets jaunes (via les groupes Facebook) mais aussi lors des émeutes anti-racistes pendant le mouvement #LiveBlackMatters aux États-Unis en 2020, puis lors de l'invasion du Capitole en janvier 2021 par les supporters radicalisés de Donald Trump (via les réseaux et messageries d'extrême droite). Et, plus récemment, lors des révoltes en Iran. Depuis le printemps arabe dans les années 2010-2011, le rôle des réseaux sociaux a toujours fait débat parmi les spécialistes : ils ont été utilisés pour mobiliser les foules et diffuser des informations en temps réel. Les militants utilisent les réseaux sociaux pour organiser des manifestations et coordonner leurs actions. Cependant, certains analystes estiment que le rôle des réseaux sociaux a été exagéré et que les mouvements de révolte étaient avant tout le résultat de facteurs politiques et économiques. Les réseaux sociaux sont utilisés pour diffuser des informations erronées et des rumeurs, ce qui contribue à la tension et à l'escalade de la violence. En fin de compte, le rôle des réseaux sociaux dans les mouvements de révolte dépend de nombreux facteurs, tels que le contexte politique et social, la technologie disponible et les compétences des militants. Laboratoire de la République : Le Président de la République a évoqué l’idée de limiter l'accès aux réseaux sociaux pendant des épisodes de violences urbaines. Est-ce la solution ? L'État en a-t-il les moyens ? Benoît Raphaël : Le problème avec ce genre d'approche, c'est qu'elle est similaire à celles qu'ont eues les dictatures pour réprimer leurs propres révoltes. Donc c'est une question à aborder avec beaucoup de prudence. En revanche, on pourrait tourner le problème différemment : les autorités pourraient utiliser les réseaux sociaux pour prévenir les émeutes en surveillant les conversations sur les plateformes et en identifiant les messages qui incitent à la violence. Les autorités peuvent également utiliser les réseaux sociaux pour diffuser des messages de prévention et de sensibilisation, en particulier auprès des jeunes. Les réseaux sociaux peuvent également être utilisés pour appuyer des initiatives d'appel à la raison ou pour saper des mouvements de panique ou de défiance à l'égard des autorités. Cependant, les autorités doivent être prudentes dans leur utilisation des réseaux sociaux, car une mauvaise utilisation peut contribuer à l'escalade de la violence. En fin de compte, les réseaux sociaux ne sont qu'un outil et ne peuvent pas remplacer une approche globale et coordonnée pour prévenir les émeutes. Laboratoire de la République : La diffusion de certaines vidéos sur les réseaux sociaux permet de soulever des débats structurants. En l'espèce, elle permet de porter un regard critique sur les méthodes de la police dans les banlieues. Ne faut-il pas aussi reconnaître l'intérêt démocratique des plateformes ? Benoît Raphaël : Oui, si vous vous souvenez, lors des mouvements des Gilets Jaunes, il a fallu attendre plusieurs mois avant que la question des violences policières soit abordée par les médias. Les signaux faibles étaient déjà très présents sur les réseaux sociaux. Laboratoire de la République : Plus spécifiquement, ce durcissement souhaité du cadre légal, s'il devait être acté, ne risquerait-il pas de créer une forme de jurisprudence susceptible de créer les conditions d'un élargissement progressif vers l'ensemble des mouvements citoyens, bridant ainsi la démocratie participative ? Benoît Raphaël : La tentation que peuvent avoir les autorités face à ces mouvements radicaux me fait penser à l'idée de la « Stratégie de la mouche » théorisée par Yuval Noah Harari, dans un article diffusé en 2016, suite aux attaques terroristes en France. La théorie est la suivante : comment détruire un magasin de porcelaine (la démocratie) quand vous êtes une mouche (le terroriste) et pas un éléphant (le peuple). Eh bien, vous adoptez la stratégie de la mouche. Vous tournez autour de l'éléphant jusqu'à le rendre fou et lui faire prendre des mesures destructrices pour la démocratie, comme par exemple monter les populations les unes contre les autres ou prendre des mesures anti-démocratiques. Il faut être très prudent et nuancé dans nos réponses à la radicalisation des mouvements, car c'est justement ce que cherchent à obtenir les extrémistes de tout bord : déstabiliser le système démocratique. On observe un phénomène similaire avec les fake news : 80 % des fake news sont partagées par 4 % des internautes (selon les observations de Frances Haugen, ex-Facebook, devant le Sénat français). Les fake news renforcent le pouvoir déstabilisant des personnes les plus radicalisées, mais cela ne concerne qu'une minorité, et cela ne veut pas dire que tout le monde est touché. Par ailleurs, la violence de certains mouvements ne doit pas permettre aux autorités de se déresponsabiliser en se bornant à pointer du doigt les plateformes numériques, et à faire oublier la profondeur du malaise social, qui nécessite qu'on la prenne en compte de façon globale et qui nourrit les mouvements les plus radicaux. Mort de Nahel : comment les images diffusées sur les réseaux sociaux ont changé le traitement judiciaire des violences policières (francetvinfo.fr)

Intelligence artificielle : une trêve de 6 mois pour répondre aux risques encourus

par Malik Ghallab le 22 juin 2023
En mars dernier, Elon Musk et des centaines d’experts ont signé une lettre ouverte demandant la suspension pour six mois des recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4. Malik Ghallab, directeur de recherche au CNRS, fait parti des signataires. Il nous explique les raisons d'une « pause » dans le développement de l’intelligence artificielle.
Laboratoire de la République : Vous faites partie des signataires de l’appel mondial pour une pause dans le développement de l’Intelligence artificielle (IA) qui a été publié sur le site de la fondation américaine « Future of life » le 29 mars dernier. Pourquoi avez-vous signé cet appel ? Malik Ghallab : Ce que nous demandons dans cet appel, ce n’est pas seulement une pause dans le développement de l’IA mais une pause dans son déploiement et sa diffusion. Bien au contraire, il est nécessaire que les recherches se poursuivent. La pause demandée concerne le déploiement auprès du grand public et l’utilisation par des entreprises qui peuvent être mal avisées. Cet instrument avec des modèles de langages profonds a des performances remarquables et est surprenant sur bien des aspects. Cependant, sa diffusion présente des risques. C’est un constat qui est régulièrement partagé. C’était déjà un sujet central à Paris il y a trois ans lors du Forum de l’IA pour l’humanité qui a réuni 400 à 500 participants à l’échelle internationale. Cette conférence avait d’ailleurs donné lieu à de nombreux documents et à un ouvrage de référence sur le sujet. Le Laboratoire de la République : quels sont ces risques ? Il faut d’abord bien comprendre qu’aujourd’hui la technique de l’IA est en avance sur la science de l’IA. On sait faire beaucoup plus de choses que l’on ne les comprend. Cela peut paraître surprenant mais ce n’est pas un phénomène nouveau dans l’histoire des sciences et techniques. Par exemple, la machine à vapeur a devancé Carnot de trois siècles. Le moteur électrique a devancé Maxwell de près de cinq siècles. En ce qui concerne l’IA, la science était en avance sur la technique depuis les débuts de son développement dans les années 50 jusque dans les années 80 et puis, progressivement, les choses se sont inversées. Aujourd’hui, par conséquent, on ne sait pas expliquer exactement les performances remarquables du système en matière de maîtrise du langage et de développement de raisonnements. Il y a eu un changement de phase important entre la version 2, GPT 2, et la version 3, et encore un changement plus important avec la version 4. L’émergence progressive de compétences argumentatives est étonnante mais difficile à comprendre. Il y a une centaine de publications chaque mois dans les revues scientifiques sur ce sujet. La deuxième source de risques est liée à l’écart entre les possibilités d’adaptation de la société et l’évolution des techniques. Les techniques avancent très vite mais la société a besoin de quelques générations pour pouvoir bien digérer une technique donnée et pour pouvoir mettre en place des garde-fous, des mécanismes de régulation et de contrôle. Aujourd’hui, on avance à une vitesse élevée dans une dynamique qu’on ne contrôle pas. Il n’y a pas de pilote à bord. Sur un certain nombre de sujets, on a besoin de mécanismes de régulation. On sait les mettre en place sur des techniques et technologies plus anciennes, par exemple, dans le domaine du médicament. On ne déploie pas un médicament sitôt que quelqu’un a inventé une molécule. Il se passe de très nombreux mois, voire des années de tests et de validations avant que des autorités spécialisées donnent leur feu vert et disent qu’un médicament peut être utilisé et prescrit par des médecins. Dans d’autres domaines, comme celui des transports, il ne suffit pas qu’un industriel sorte un nouvel appareil pour inviter les passagers à bord. Il peut se passer de longs mois, voire des années avant que l’appareil ne soit certifié. A contrario, il n’y a que très peu de mécanismes de contrôle sur les technologies d’IA. Les garde-fous qui ont été mis en place au niveau européen concernent principalement le respect de la vie privée (par exemple le RGPD) ou l’encadrement de la liberté d’expression : ils ne répondent pas du tout aux risques que posent les technologies d’intelligence artificielle. Laboratoire de la République : Concrètement, quels risques politiques pour notre démocratie pourrait apporter la diffusion de l’IA générative à court terme ? On a parlé de la diffusion de fake news de meilleure qualité par exemple. Malik Ghallab : L’apparition de fake news n’est qu’une des facettes du problème. Ce qui pose fondamentalement problème, c’est que les technologies d’IA confèrent un avantage énorme à ceux qui les possèdent. Elles sont en effet très difficilement reproductibles et déployables. Un modèle comme celui de GPT coûte plusieurs milliards d’euros et demande une somme d’énergie considérable au déploiement. Le développement de ces technologies est extrêmement lourd. On ne pourra pas disposer d’autant de ressources pour développer des modèles alternatifs au sein de laboratoires de recherche. En revanche, l’usage individuel de cette technologie est très simple : ce sont des technologies disponibles. Tout le monde peut interagir avec un système de dialogue. Leur disponibilité individuelle est donc très importante. Mais cette disponibilité individuelle n’a rien à voir avec l’acceptabilité sociale. L’acceptabilité sociale doit prendre en compte des effets à long terme, les valeurs d’une société, la cohésion sociale, etc. ChatGPT va avoir par exemple un impact considérable sur l’emploi : l’acceptabilité sociale va considérablement diminuer si l’outil met des centaines de milliers de personnes au chômage.  Les capacités de manipulation sont également considérables, malgré les précautions prises par OpenAI et les progrès en la matière. L’IA est une technologie clé dans la course à la puissance économique (entre entreprises) et géostratégique (entre États) car elle donne à celui qui la possède des avantages compétitifs immenses. Dans un monde où il y a de plus en plus de conflits ouverts, l’IA va être utilisé pour manipuler des sociétés à grande échelle. Il faut que les sociétés puissent se protéger. Laboratoire de la République : De nombreuses personnalités se sont exprimées pour dire qu’une pause dans le déploiement de l’IA était illusoire. Qu’en pensez-vous ? Peut-on vraiment mettre en place des mécanismes de ralentissement pour pouvoir réguler l’IA rapidement ? Malik Ghallab : Nous n’arriverons pas à mettre en pause le déploiement de l’IA si nous ne faisons que constater plus ou moins cyniquement l’existence des moteurs du développement technique et économique, comme le modèle de capitalisme de surveillance. Beaucoup d’efforts ont été faits au niveau européen en ce qui concerne le respect des données individuelles. Ces règles ont été largement acceptées et bien déployées au-delà de l’Europe. Des mécanismes similaires peuvent être créés si on se donne le temps de comprendre les technologies d’IA. Nous ne pouvons pas à la fois constater les manipulations politiques qui ont été conduites à grande échelle ces dernières années (pensons au scandale Cambridge Analytica) et rester les bras croisés sur l’IA. Cette pétition signée par plus de 20 000 personnes avait pour ambition d’attirer l’attention sur un risque considérable. Pour déployer un outil à une échelle aussi vaste, il faut le maitriser et savoir où il nous conduit. Il faut prendre le temps de comprendre pour réguler son usage. Entretien réalisé par téléphone.

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire