Rubrique : Défi technologique

Émeutes et réseaux sociaux

par Benoît Raphaël le 25 juillet 2023
La mort de Nahel Merzouk à la suite d’un tir d'un policier lors d'un contrôle routier le 27 juin dernier a déclenché une vague d'émeutes et de violences dans les quartiers populaires. La diffusion sur les réseaux sociaux de la vidéo de l'événement a notamment entraîné une mobilisation sans précédent des communautés digitales, soulevant des interrogations sur l'impact de ces plateformes sur la paix sociale. Benoît Raphaël, journaliste, auteur et entrepreneur spécialisé dans l'intelligence artificielle, évoque pour le Laboratoire de la République cette question.
Laboratoire de la République : Quel rôle ont joué les réseaux sociaux dans les émeutes des derniers jours ? Quelle est leur part de responsabilité dans l'emballement et la libération de la violence ? Benoît Raphaël : Je pense tout d'abord qu'il faudrait reformuler la question : avant d'interroger la responsabilité des réseaux sociaux, il faudrait d'abord se questionner sur l'usage qui a été fait des réseaux sociaux par les émeutiers pour maintenir la pression. Les réseaux sociaux sont avant tout des médias, mais dont les « rédacteurs en chef » sont tout un chacun. De la même manière, on devrait aussi s'interroger sur le rôle des médias et en particulier des chaînes d'info en continu dans la mécanique de l'emballement. Plus généralement, on retrouve ce rôle des réseaux sociaux dans la plupart des phénomènes de révolte et de radicalisation. Les règles sont détournées par quelques-uns pour amplifier ou accélérer des phénomènes de violence ou de mobilisation. Sans porter de jugement sur le fond des revendications, on l'a vu lors des épisodes des gilets jaunes (via les groupes Facebook) mais aussi lors des émeutes anti-racistes pendant le mouvement #LiveBlackMatters aux États-Unis en 2020, puis lors de l'invasion du Capitole en janvier 2021 par les supporters radicalisés de Donald Trump (via les réseaux et messageries d'extrême droite). Et, plus récemment, lors des révoltes en Iran. Depuis le printemps arabe dans les années 2010-2011, le rôle des réseaux sociaux a toujours fait débat parmi les spécialistes : ils ont été utilisés pour mobiliser les foules et diffuser des informations en temps réel. Les militants utilisent les réseaux sociaux pour organiser des manifestations et coordonner leurs actions. Cependant, certains analystes estiment que le rôle des réseaux sociaux a été exagéré et que les mouvements de révolte étaient avant tout le résultat de facteurs politiques et économiques. Les réseaux sociaux sont utilisés pour diffuser des informations erronées et des rumeurs, ce qui contribue à la tension et à l'escalade de la violence. En fin de compte, le rôle des réseaux sociaux dans les mouvements de révolte dépend de nombreux facteurs, tels que le contexte politique et social, la technologie disponible et les compétences des militants. Laboratoire de la République : Le Président de la République a évoqué l’idée de limiter l'accès aux réseaux sociaux pendant des épisodes de violences urbaines. Est-ce la solution ? L'État en a-t-il les moyens ? Benoît Raphaël : Le problème avec ce genre d'approche, c'est qu'elle est similaire à celles qu'ont eues les dictatures pour réprimer leurs propres révoltes. Donc c'est une question à aborder avec beaucoup de prudence. En revanche, on pourrait tourner le problème différemment : les autorités pourraient utiliser les réseaux sociaux pour prévenir les émeutes en surveillant les conversations sur les plateformes et en identifiant les messages qui incitent à la violence. Les autorités peuvent également utiliser les réseaux sociaux pour diffuser des messages de prévention et de sensibilisation, en particulier auprès des jeunes. Les réseaux sociaux peuvent également être utilisés pour appuyer des initiatives d'appel à la raison ou pour saper des mouvements de panique ou de défiance à l'égard des autorités. Cependant, les autorités doivent être prudentes dans leur utilisation des réseaux sociaux, car une mauvaise utilisation peut contribuer à l'escalade de la violence. En fin de compte, les réseaux sociaux ne sont qu'un outil et ne peuvent pas remplacer une approche globale et coordonnée pour prévenir les émeutes. Laboratoire de la République : La diffusion de certaines vidéos sur les réseaux sociaux permet de soulever des débats structurants. En l'espèce, elle permet de porter un regard critique sur les méthodes de la police dans les banlieues. Ne faut-il pas aussi reconnaître l'intérêt démocratique des plateformes ? Benoît Raphaël : Oui, si vous vous souvenez, lors des mouvements des Gilets Jaunes, il a fallu attendre plusieurs mois avant que la question des violences policières soit abordée par les médias. Les signaux faibles étaient déjà très présents sur les réseaux sociaux. Laboratoire de la République : Plus spécifiquement, ce durcissement souhaité du cadre légal, s'il devait être acté, ne risquerait-il pas de créer une forme de jurisprudence susceptible de créer les conditions d'un élargissement progressif vers l'ensemble des mouvements citoyens, bridant ainsi la démocratie participative ? Benoît Raphaël : La tentation que peuvent avoir les autorités face à ces mouvements radicaux me fait penser à l'idée de la « Stratégie de la mouche » théorisée par Yuval Noah Harari, dans un article diffusé en 2016, suite aux attaques terroristes en France. La théorie est la suivante : comment détruire un magasin de porcelaine (la démocratie) quand vous êtes une mouche (le terroriste) et pas un éléphant (le peuple). Eh bien, vous adoptez la stratégie de la mouche. Vous tournez autour de l'éléphant jusqu'à le rendre fou et lui faire prendre des mesures destructrices pour la démocratie, comme par exemple monter les populations les unes contre les autres ou prendre des mesures anti-démocratiques. Il faut être très prudent et nuancé dans nos réponses à la radicalisation des mouvements, car c'est justement ce que cherchent à obtenir les extrémistes de tout bord : déstabiliser le système démocratique. On observe un phénomène similaire avec les fake news : 80 % des fake news sont partagées par 4 % des internautes (selon les observations de Frances Haugen, ex-Facebook, devant le Sénat français). Les fake news renforcent le pouvoir déstabilisant des personnes les plus radicalisées, mais cela ne concerne qu'une minorité, et cela ne veut pas dire que tout le monde est touché. Par ailleurs, la violence de certains mouvements ne doit pas permettre aux autorités de se déresponsabiliser en se bornant à pointer du doigt les plateformes numériques, et à faire oublier la profondeur du malaise social, qui nécessite qu'on la prenne en compte de façon globale et qui nourrit les mouvements les plus radicaux. Mort de Nahel : comment les images diffusées sur les réseaux sociaux ont changé le traitement judiciaire des violences policières (francetvinfo.fr)

Intelligence artificielle : une trêve de 6 mois pour répondre aux risques encourus

par Malik Ghallab le 22 juin 2023
En mars dernier, Elon Musk et des centaines d’experts ont signé une lettre ouverte demandant la suspension pour six mois des recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4. Malik Ghallab, directeur de recherche au CNRS, fait parti des signataires. Il nous explique les raisons d'une « pause » dans le développement de l’intelligence artificielle.
Laboratoire de la République : Vous faites partie des signataires de l’appel mondial pour une pause dans le développement de l’Intelligence artificielle (IA) qui a été publié sur le site de la fondation américaine « Future of life » le 29 mars dernier. Pourquoi avez-vous signé cet appel ? Malik Ghallab : Ce que nous demandons dans cet appel, ce n’est pas seulement une pause dans le développement de l’IA mais une pause dans son déploiement et sa diffusion. Bien au contraire, il est nécessaire que les recherches se poursuivent. La pause demandée concerne le déploiement auprès du grand public et l’utilisation par des entreprises qui peuvent être mal avisées. Cet instrument avec des modèles de langages profonds a des performances remarquables et est surprenant sur bien des aspects. Cependant, sa diffusion présente des risques. C’est un constat qui est régulièrement partagé. C’était déjà un sujet central à Paris il y a trois ans lors du Forum de l’IA pour l’humanité qui a réuni 400 à 500 participants à l’échelle internationale. Cette conférence avait d’ailleurs donné lieu à de nombreux documents et à un ouvrage de référence sur le sujet. Le Laboratoire de la République : quels sont ces risques ? Il faut d’abord bien comprendre qu’aujourd’hui la technique de l’IA est en avance sur la science de l’IA. On sait faire beaucoup plus de choses que l’on ne les comprend. Cela peut paraître surprenant mais ce n’est pas un phénomène nouveau dans l’histoire des sciences et techniques. Par exemple, la machine à vapeur a devancé Carnot de trois siècles. Le moteur électrique a devancé Maxwell de près de cinq siècles. En ce qui concerne l’IA, la science était en avance sur la technique depuis les débuts de son développement dans les années 50 jusque dans les années 80 et puis, progressivement, les choses se sont inversées. Aujourd’hui, par conséquent, on ne sait pas expliquer exactement les performances remarquables du système en matière de maîtrise du langage et de développement de raisonnements. Il y a eu un changement de phase important entre la version 2, GPT 2, et la version 3, et encore un changement plus important avec la version 4. L’émergence progressive de compétences argumentatives est étonnante mais difficile à comprendre. Il y a une centaine de publications chaque mois dans les revues scientifiques sur ce sujet. La deuxième source de risques est liée à l’écart entre les possibilités d’adaptation de la société et l’évolution des techniques. Les techniques avancent très vite mais la société a besoin de quelques générations pour pouvoir bien digérer une technique donnée et pour pouvoir mettre en place des garde-fous, des mécanismes de régulation et de contrôle. Aujourd’hui, on avance à une vitesse élevée dans une dynamique qu’on ne contrôle pas. Il n’y a pas de pilote à bord. Sur un certain nombre de sujets, on a besoin de mécanismes de régulation. On sait les mettre en place sur des techniques et technologies plus anciennes, par exemple, dans le domaine du médicament. On ne déploie pas un médicament sitôt que quelqu’un a inventé une molécule. Il se passe de très nombreux mois, voire des années de tests et de validations avant que des autorités spécialisées donnent leur feu vert et disent qu’un médicament peut être utilisé et prescrit par des médecins. Dans d’autres domaines, comme celui des transports, il ne suffit pas qu’un industriel sorte un nouvel appareil pour inviter les passagers à bord. Il peut se passer de longs mois, voire des années avant que l’appareil ne soit certifié. A contrario, il n’y a que très peu de mécanismes de contrôle sur les technologies d’IA. Les garde-fous qui ont été mis en place au niveau européen concernent principalement le respect de la vie privée (par exemple le RGPD) ou l’encadrement de la liberté d’expression : ils ne répondent pas du tout aux risques que posent les technologies d’intelligence artificielle. Laboratoire de la République : Concrètement, quels risques politiques pour notre démocratie pourrait apporter la diffusion de l’IA générative à court terme ? On a parlé de la diffusion de fake news de meilleure qualité par exemple. Malik Ghallab : L’apparition de fake news n’est qu’une des facettes du problème. Ce qui pose fondamentalement problème, c’est que les technologies d’IA confèrent un avantage énorme à ceux qui les possèdent. Elles sont en effet très difficilement reproductibles et déployables. Un modèle comme celui de GPT coûte plusieurs milliards d’euros et demande une somme d’énergie considérable au déploiement. Le développement de ces technologies est extrêmement lourd. On ne pourra pas disposer d’autant de ressources pour développer des modèles alternatifs au sein de laboratoires de recherche. En revanche, l’usage individuel de cette technologie est très simple : ce sont des technologies disponibles. Tout le monde peut interagir avec un système de dialogue. Leur disponibilité individuelle est donc très importante. Mais cette disponibilité individuelle n’a rien à voir avec l’acceptabilité sociale. L’acceptabilité sociale doit prendre en compte des effets à long terme, les valeurs d’une société, la cohésion sociale, etc. ChatGPT va avoir par exemple un impact considérable sur l’emploi : l’acceptabilité sociale va considérablement diminuer si l’outil met des centaines de milliers de personnes au chômage.  Les capacités de manipulation sont également considérables, malgré les précautions prises par OpenAI et les progrès en la matière. L’IA est une technologie clé dans la course à la puissance économique (entre entreprises) et géostratégique (entre États) car elle donne à celui qui la possède des avantages compétitifs immenses. Dans un monde où il y a de plus en plus de conflits ouverts, l’IA va être utilisé pour manipuler des sociétés à grande échelle. Il faut que les sociétés puissent se protéger. Laboratoire de la République : De nombreuses personnalités se sont exprimées pour dire qu’une pause dans le déploiement de l’IA était illusoire. Qu’en pensez-vous ? Peut-on vraiment mettre en place des mécanismes de ralentissement pour pouvoir réguler l’IA rapidement ? Malik Ghallab : Nous n’arriverons pas à mettre en pause le déploiement de l’IA si nous ne faisons que constater plus ou moins cyniquement l’existence des moteurs du développement technique et économique, comme le modèle de capitalisme de surveillance. Beaucoup d’efforts ont été faits au niveau européen en ce qui concerne le respect des données individuelles. Ces règles ont été largement acceptées et bien déployées au-delà de l’Europe. Des mécanismes similaires peuvent être créés si on se donne le temps de comprendre les technologies d’IA. Nous ne pouvons pas à la fois constater les manipulations politiques qui ont été conduites à grande échelle ces dernières années (pensons au scandale Cambridge Analytica) et rester les bras croisés sur l’IA. Cette pétition signée par plus de 20 000 personnes avait pour ambition d’attirer l’attention sur un risque considérable. Pour déployer un outil à une échelle aussi vaste, il faut le maitriser et savoir où il nous conduit. Il faut prendre le temps de comprendre pour réguler son usage. Entretien réalisé par téléphone.

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire