Rubrique : Défi technologique

Intelligence artificielle : la culture numérique est cruciale pour relever les défis de l’IA

par Thierry Taboy le 28 août 2023
L’apparition, depuis un an et demi environ, de modules d’intelligence artificielle générative destinés au grand public, a eu un retentissement important dans la sphère publique, entre projections utopiques et dystopiques. Alors que la révolution est encore devant nous, Thierry Taboy, directeur Droits Humains au sein du groupe Orange et coordinateur de la task force Santé du collectif Impact AI, souligne l’importance de l’acculturation au numérique pour favoriser le développement d’une IA européenne et circonscrire les risques démocratiques liés à son usage.
Le Laboratoire de la République : Dix mois après l’apparition de ChatGPT, en sait-on davantage sur les usages qui sont faits de cet outil ? La révolution annoncée n’est-elle pas encore devant nous ? Thierry Taboy : Les applications supportées par un moteur d’intelligence artificielle sont loin d’être nouvelles mais peu de gens jusqu’à présent se rendaient compte qu’ils s’en servaient dans leur quotidien. A la manière d’un monsieur Jourdain de la technologie, ils entraînaient des IAs sans le savoir. En offrant une interface très accessible, ChatGPT d’OpenAI a créé une rupture radicale, permettant au plus grand nombre de se confronter en conscience aux potentialités offertes par l’outil. Et c’est devenu une folie, entre déferlante d’usages, engouement médiatique et discours plus ou moins délirants (« les IAs génératives vont faire disparaître les cadres »… ). ChatGPT est une intelligence artificielle qui répond à toutes vos questions même parfois quand elle ne sait pas, écrit des articles, des chansons, des recettes de cuisine ou des lignes de code à la demande et bien plus encore. Si elle repose sur des banques de données immenses et propose un mode de langage naturel, elle n’en reste pas moins imparfaite. Pour résumer, elle « ne comprend pas » ce qu’elle écrit, elle ne fait que prédire les mots qui sont les plus cohérents pour continuer sa phrase. Mais elle le fait plutôt bien, ce qui donne l’impression qu’elle est vraiment intelligente, ou consciente. Cela dit, il est indéniable que la qualité des réponses proposées par les IAs génératives ne cesse de progresser, avec comme facteurs déterminants une performance algorithmique croissante, de nouvelles fonctionnalités, l’intégration de banques de données de plus en plus larges et l’explosion du nombre d’utilisateurs qui « l’entraînent » toujours plus. Assistance à la rédaction, support client, campagnes de communication, conditions juridiques, éducation, création de contenus multimédia, traduction, programmation… les champs recouverts par les Midjourney, ChatGPT, Lamma-2 (open source) et consorts sont toujours plus nombreux, aussi bien du côté professionnel que grand public. Selon l’IFOP, 18% des salariés en Entreprise l’utiliseraient d’ailleurs déjà, le plus souvent sans le dire. Si l’on veut résumer, ChatGPT est un excellent outil pour générer un premier jet, de gagner du temps, quand nous sommes confrontés à toute forme de rédaction. Cette nouvelle donne oblige à repenser la manière dont nous abordons l’éducation et la formation. Il faut apprivoiser la bête, l’encadrer. On le sait, usage n’est pas maîtrise et ces technologies demandent de revoir les modes d’apprentissage. Profiter du meilleur de ces technologies et en faire un allié de la créativité humaine demande une bonne connaissance de leurs forces et limites, la capacité à générer des contextes propices à une réponse adaptée. Comme le note très bien le Conseil National du Numérique (Livre "civilisation numérique"), "(toute nouvelle technologie doit être) accompagnée de la formation d'un nouvel esprit critique et d'une culture technique permettant à chacun de préserver sa capacité de discernement". Le Laboratoire de la République : Ces technologies ont suscité un mélange de peur et d’enthousiasme sans précédent. Quels espoirs et quelles inquiétudes peut-on raisonnablement avoir vis-à-vis de ces modules ? Thierry Taboy : Il est d’abord urgent de sortir des discours manichéens qui fleurissent un peu partout et savoir raison garder. Les IAs génératives entraînent de nouveaux risques mais peuvent également être considérées comme une véritable opportunité pour celles et ceux qui gagneront en "capacitation" comme aimait à le rappeler Bernard Stiegler. Une récente étude du MIT tend d’ailleurs à montrer que l'usage de ChatGPT serait certes facteur de productivité mais surtout de réduction des inégalités une fois les personnes formées. (Experimental evidence on the productivity effects of generative artificial intelligence | Science). S’il est vrai que certains métiers sont vraiment plus à risque que d’autres, nous allons surtout devoir faire face à une transformation radicale de leurs contours. Ce qui sous-tend que plutôt qu’un remplacement de ceux-ci, ce sont les profils qui maitriseront le mieux ces nouveaux outils qui seront en situation de force en termes d’attractivité employeur. Si nous devons nous concentrer concrètement sur les risques structurels induits par ces IAs, c’est du côté des biais, de l’éthique, de la lutte contre les stratégies de désinformation (deepfake) comme du respect de la vie privée qu’il faut se pencher. C’est tout le sens du débat qui s’est tenu le 18 juillet dernier au sein du Conseil de Sécurité de l’ONU et dont le thème était « conséquences pour la paix de l’intelligence artificielle, entre « risques existentiels » et immenses promesse ». Avec les droits humains en première ligne. Pour résumer, plutôt que de lutter contre une vague inexorable, il va falloir apprendre à surfer. Le Laboratoire de la République : La levée de fonds record conclue par Mistral AI en juin a démontré que des technologies européennes ou françaises étaient en cours de développement. Est-ce suffisant ? Comment assurer la souveraineté européenne en la matière ? Thierry Taboy : Face aux montants astronomiques des investissements déployés aux Etats-Unis ou en Chine, l’Europe, malgré un retard évident, a encore une véritable carte à jouer si elle s’en donne les moyens et offre un cadre propice, une juste balance entre innovation et réglementation. De par son histoire, sa culture, la « vieille » Europe porte en elle des valeurs propices au déploiement d’IAs responsables « by design », respectueuses des droits humains, une condition essentielle à sa souveraineté. Avec des industries d’excellence à portée mondiale dans les domaines IT et une propension à s’appuyer sur leurs écosystèmes et ainsi déployer des stratégies d’innovation ouverte, l’Europe possède de réels atouts pour se démarquer. Et cela peut faire toute la différence en matière d’accessibilité, de confiance utilisateur et de différenciation marché. Le règlement européen sur les services numériques (DSA) comme le futur « AI Act » sont et seront à ce titre déterminants. Les dernières versions de l’AI Act peuvent à ce titre légitimement inquiéter par leur portée trop restrictive et des améliorations sensibles sont attendues pour réellement promouvoir l’équilibre innovation-réglementation. N’en reste pas moins vrai que la souveraineté est au cœur de l’agenda européen. Le Laboratoire de la République : De nombreuses universités ont décidé d’interdire l’usage de ChatGPT. Est-ce une stratégie tenable et intéressante ? Thierry Taboy : Selon moi, cela n’a aucun sens sauf si de telles décisions sont dictées par la nécessité de marquer une courte pause et d’en profiter pour permettre au corps enseignant de se former, de se repenser pour intégrer cette nouvelle donne dans les parcours d’apprentissage. Prenons l’exemple des écoles qui forment les futurs développeurs et développeuses. Intégrer dans leurs parcours d’apprentissage l’appropriation des IAs génératives permettra de s’appuyer sur celles-ci afin de rapidement créer les briques de bases (frameworks) et se concentrer sur des tâches plus complexes et ainsi libérer leur créativité. Cet exemple vaut également pour les étudiants ou les communicants qui auront la capacité à générer les premières ébauches de réponse, se faire surprendre par des points de vue inédits. Pour autant, il leur faudra connaître comment affiner leurs requêtes (prompts), se confronter à d’autres sources et, sur cette base, proposer leur propre vision. Comme l'écrit Jérémy Lamri, "pour résoudre efficacement les inégalités liées à la capacité de prompter les IA génératives, il est crucial d’adopter des approches interdisciplinaires. Cela signifie associer les compétences et perspectives de la sociologie, la philosophie et les sciences techniques pour mieux comprendre les attentes et les besoins spécifiques des utilisateurs." L’intégration de ces technologies demande donc aux enseignants comme aux professionnels de se réinventer pour faire en sorte que ces technologies soient au service de l’ingéniosité humaine. Le travail à mener est conséquent.  Au final, les universités et autres structures de formation qui feront la différence dans le futur seront celles qui auront privilégié l’intelligence collective tout en puisant dans ce qu’apporte ces technologies nouvelles. Refuser le train ne sauvera pas la calèche.

Émeutes et réseaux sociaux

par Benoît Raphaël le 25 juillet 2023
La mort de Nahel Merzouk à la suite d’un tir d'un policier lors d'un contrôle routier le 27 juin dernier a déclenché une vague d'émeutes et de violences dans les quartiers populaires. La diffusion sur les réseaux sociaux de la vidéo de l'événement a notamment entraîné une mobilisation sans précédent des communautés digitales, soulevant des interrogations sur l'impact de ces plateformes sur la paix sociale. Benoît Raphaël, journaliste, auteur et entrepreneur spécialisé dans l'intelligence artificielle, évoque pour le Laboratoire de la République cette question.
Laboratoire de la République : Quel rôle ont joué les réseaux sociaux dans les émeutes des derniers jours ? Quelle est leur part de responsabilité dans l'emballement et la libération de la violence ? Benoît Raphaël : Je pense tout d'abord qu'il faudrait reformuler la question : avant d'interroger la responsabilité des réseaux sociaux, il faudrait d'abord se questionner sur l'usage qui a été fait des réseaux sociaux par les émeutiers pour maintenir la pression. Les réseaux sociaux sont avant tout des médias, mais dont les « rédacteurs en chef » sont tout un chacun. De la même manière, on devrait aussi s'interroger sur le rôle des médias et en particulier des chaînes d'info en continu dans la mécanique de l'emballement. Plus généralement, on retrouve ce rôle des réseaux sociaux dans la plupart des phénomènes de révolte et de radicalisation. Les règles sont détournées par quelques-uns pour amplifier ou accélérer des phénomènes de violence ou de mobilisation. Sans porter de jugement sur le fond des revendications, on l'a vu lors des épisodes des gilets jaunes (via les groupes Facebook) mais aussi lors des émeutes anti-racistes pendant le mouvement #LiveBlackMatters aux États-Unis en 2020, puis lors de l'invasion du Capitole en janvier 2021 par les supporters radicalisés de Donald Trump (via les réseaux et messageries d'extrême droite). Et, plus récemment, lors des révoltes en Iran. Depuis le printemps arabe dans les années 2010-2011, le rôle des réseaux sociaux a toujours fait débat parmi les spécialistes : ils ont été utilisés pour mobiliser les foules et diffuser des informations en temps réel. Les militants utilisent les réseaux sociaux pour organiser des manifestations et coordonner leurs actions. Cependant, certains analystes estiment que le rôle des réseaux sociaux a été exagéré et que les mouvements de révolte étaient avant tout le résultat de facteurs politiques et économiques. Les réseaux sociaux sont utilisés pour diffuser des informations erronées et des rumeurs, ce qui contribue à la tension et à l'escalade de la violence. En fin de compte, le rôle des réseaux sociaux dans les mouvements de révolte dépend de nombreux facteurs, tels que le contexte politique et social, la technologie disponible et les compétences des militants. Laboratoire de la République : Le Président de la République a évoqué l’idée de limiter l'accès aux réseaux sociaux pendant des épisodes de violences urbaines. Est-ce la solution ? L'État en a-t-il les moyens ? Benoît Raphaël : Le problème avec ce genre d'approche, c'est qu'elle est similaire à celles qu'ont eues les dictatures pour réprimer leurs propres révoltes. Donc c'est une question à aborder avec beaucoup de prudence. En revanche, on pourrait tourner le problème différemment : les autorités pourraient utiliser les réseaux sociaux pour prévenir les émeutes en surveillant les conversations sur les plateformes et en identifiant les messages qui incitent à la violence. Les autorités peuvent également utiliser les réseaux sociaux pour diffuser des messages de prévention et de sensibilisation, en particulier auprès des jeunes. Les réseaux sociaux peuvent également être utilisés pour appuyer des initiatives d'appel à la raison ou pour saper des mouvements de panique ou de défiance à l'égard des autorités. Cependant, les autorités doivent être prudentes dans leur utilisation des réseaux sociaux, car une mauvaise utilisation peut contribuer à l'escalade de la violence. En fin de compte, les réseaux sociaux ne sont qu'un outil et ne peuvent pas remplacer une approche globale et coordonnée pour prévenir les émeutes. Laboratoire de la République : La diffusion de certaines vidéos sur les réseaux sociaux permet de soulever des débats structurants. En l'espèce, elle permet de porter un regard critique sur les méthodes de la police dans les banlieues. Ne faut-il pas aussi reconnaître l'intérêt démocratique des plateformes ? Benoît Raphaël : Oui, si vous vous souvenez, lors des mouvements des Gilets Jaunes, il a fallu attendre plusieurs mois avant que la question des violences policières soit abordée par les médias. Les signaux faibles étaient déjà très présents sur les réseaux sociaux. Laboratoire de la République : Plus spécifiquement, ce durcissement souhaité du cadre légal, s'il devait être acté, ne risquerait-il pas de créer une forme de jurisprudence susceptible de créer les conditions d'un élargissement progressif vers l'ensemble des mouvements citoyens, bridant ainsi la démocratie participative ? Benoît Raphaël : La tentation que peuvent avoir les autorités face à ces mouvements radicaux me fait penser à l'idée de la « Stratégie de la mouche » théorisée par Yuval Noah Harari, dans un article diffusé en 2016, suite aux attaques terroristes en France. La théorie est la suivante : comment détruire un magasin de porcelaine (la démocratie) quand vous êtes une mouche (le terroriste) et pas un éléphant (le peuple). Eh bien, vous adoptez la stratégie de la mouche. Vous tournez autour de l'éléphant jusqu'à le rendre fou et lui faire prendre des mesures destructrices pour la démocratie, comme par exemple monter les populations les unes contre les autres ou prendre des mesures anti-démocratiques. Il faut être très prudent et nuancé dans nos réponses à la radicalisation des mouvements, car c'est justement ce que cherchent à obtenir les extrémistes de tout bord : déstabiliser le système démocratique. On observe un phénomène similaire avec les fake news : 80 % des fake news sont partagées par 4 % des internautes (selon les observations de Frances Haugen, ex-Facebook, devant le Sénat français). Les fake news renforcent le pouvoir déstabilisant des personnes les plus radicalisées, mais cela ne concerne qu'une minorité, et cela ne veut pas dire que tout le monde est touché. Par ailleurs, la violence de certains mouvements ne doit pas permettre aux autorités de se déresponsabiliser en se bornant à pointer du doigt les plateformes numériques, et à faire oublier la profondeur du malaise social, qui nécessite qu'on la prenne en compte de façon globale et qui nourrit les mouvements les plus radicaux.

Intelligence artificielle : une trêve de 6 mois pour répondre aux risques encourus

par Malik Ghallab le 22 juin 2023
En mars dernier, Elon Musk et des centaines d’experts ont signé une lettre ouverte demandant la suspension pour six mois des recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4. Malik Ghallab, directeur de recherche au CNRS, fait parti des signataires. Il nous explique les raisons d'une « pause » dans le développement de l’intelligence artificielle.
Laboratoire de la République : Vous faites partie des signataires de l’appel mondial pour une pause dans le développement de l’Intelligence artificielle (IA) qui a été publié sur le site de la fondation américaine « Future of life » le 29 mars dernier. Pourquoi avez-vous signé cet appel ? Malik Ghallab : Ce que nous demandons dans cet appel, ce n’est pas seulement une pause dans le développement de l’IA mais une pause dans son déploiement et sa diffusion. Bien au contraire, il est nécessaire que les recherches se poursuivent. La pause demandée concerne le déploiement auprès du grand public et l’utilisation par des entreprises qui peuvent être mal avisées. Cet instrument avec des modèles de langages profonds a des performances remarquables et est surprenant sur bien des aspects. Cependant, sa diffusion présente des risques. C’est un constat qui est régulièrement partagé. C’était déjà un sujet central à Paris il y a trois ans lors du Forum de l’IA pour l’humanité qui a réuni 400 à 500 participants à l’échelle internationale. Cette conférence avait d’ailleurs donné lieu à de nombreux documents et à un ouvrage de référence sur le sujet. Le Laboratoire de la République : quels sont ces risques ? Il faut d’abord bien comprendre qu’aujourd’hui la technique de l’IA est en avance sur la science de l’IA. On sait faire beaucoup plus de choses que l’on ne les comprend. Cela peut paraître surprenant mais ce n’est pas un phénomène nouveau dans l’histoire des sciences et techniques. Par exemple, la machine à vapeur a devancé Carnot de trois siècles. Le moteur électrique a devancé Maxwell de près de cinq siècles. En ce qui concerne l’IA, la science était en avance sur la technique depuis les débuts de son développement dans les années 50 jusque dans les années 80 et puis, progressivement, les choses se sont inversées. Aujourd’hui, par conséquent, on ne sait pas expliquer exactement les performances remarquables du système en matière de maîtrise du langage et de développement de raisonnements. Il y a eu un changement de phase important entre la version 2, GPT 2, et la version 3, et encore un changement plus important avec la version 4. L’émergence progressive de compétences argumentatives est étonnante mais difficile à comprendre. Il y a une centaine de publications chaque mois dans les revues scientifiques sur ce sujet. La deuxième source de risques est liée à l’écart entre les possibilités d’adaptation de la société et l’évolution des techniques. Les techniques avancent très vite mais la société a besoin de quelques générations pour pouvoir bien digérer une technique donnée et pour pouvoir mettre en place des garde-fous, des mécanismes de régulation et de contrôle. Aujourd’hui, on avance à une vitesse élevée dans une dynamique qu’on ne contrôle pas. Il n’y a pas de pilote à bord. Sur un certain nombre de sujets, on a besoin de mécanismes de régulation. On sait les mettre en place sur des techniques et technologies plus anciennes, par exemple, dans le domaine du médicament. On ne déploie pas un médicament sitôt que quelqu’un a inventé une molécule. Il se passe de très nombreux mois, voire des années de tests et de validations avant que des autorités spécialisées donnent leur feu vert et disent qu’un médicament peut être utilisé et prescrit par des médecins. Dans d’autres domaines, comme celui des transports, il ne suffit pas qu’un industriel sorte un nouvel appareil pour inviter les passagers à bord. Il peut se passer de longs mois, voire des années avant que l’appareil ne soit certifié. A contrario, il n’y a que très peu de mécanismes de contrôle sur les technologies d’IA. Les garde-fous qui ont été mis en place au niveau européen concernent principalement le respect de la vie privée (par exemple le RGPD) ou l’encadrement de la liberté d’expression : ils ne répondent pas du tout aux risques que posent les technologies d’intelligence artificielle. Laboratoire de la République : Concrètement, quels risques politiques pour notre démocratie pourrait apporter la diffusion de l’IA générative à court terme ? On a parlé de la diffusion de fake news de meilleure qualité par exemple. Malik Ghallab : L’apparition de fake news n’est qu’une des facettes du problème. Ce qui pose fondamentalement problème, c’est que les technologies d’IA confèrent un avantage énorme à ceux qui les possèdent. Elles sont en effet très difficilement reproductibles et déployables. Un modèle comme celui de GPT coûte plusieurs milliards d’euros et demande une somme d’énergie considérable au déploiement. Le développement de ces technologies est extrêmement lourd. On ne pourra pas disposer d’autant de ressources pour développer des modèles alternatifs au sein de laboratoires de recherche. En revanche, l’usage individuel de cette technologie est très simple : ce sont des technologies disponibles. Tout le monde peut interagir avec un système de dialogue. Leur disponibilité individuelle est donc très importante. Mais cette disponibilité individuelle n’a rien à voir avec l’acceptabilité sociale. L’acceptabilité sociale doit prendre en compte des effets à long terme, les valeurs d’une société, la cohésion sociale, etc. ChatGPT va avoir par exemple un impact considérable sur l’emploi : l’acceptabilité sociale va considérablement diminuer si l’outil met des centaines de milliers de personnes au chômage.  Les capacités de manipulation sont également considérables, malgré les précautions prises par OpenAI et les progrès en la matière. L’IA est une technologie clé dans la course à la puissance économique (entre entreprises) et géostratégique (entre États) car elle donne à celui qui la possède des avantages compétitifs immenses. Dans un monde où il y a de plus en plus de conflits ouverts, l’IA va être utilisé pour manipuler des sociétés à grande échelle. Il faut que les sociétés puissent se protéger. Laboratoire de la République : De nombreuses personnalités se sont exprimées pour dire qu’une pause dans le déploiement de l’IA était illusoire. Qu’en pensez-vous ? Peut-on vraiment mettre en place des mécanismes de ralentissement pour pouvoir réguler l’IA rapidement ? Malik Ghallab : Nous n’arriverons pas à mettre en pause le déploiement de l’IA si nous ne faisons que constater plus ou moins cyniquement l’existence des moteurs du développement technique et économique, comme le modèle de capitalisme de surveillance. Beaucoup d’efforts ont été faits au niveau européen en ce qui concerne le respect des données individuelles. Ces règles ont été largement acceptées et bien déployées au-delà de l’Europe. Des mécanismes similaires peuvent être créés si on se donne le temps de comprendre les technologies d’IA. Nous ne pouvons pas à la fois constater les manipulations politiques qui ont été conduites à grande échelle ces dernières années (pensons au scandale Cambridge Analytica) et rester les bras croisés sur l’IA. Cette pétition signée par plus de 20 000 personnes avait pour ambition d’attirer l’attention sur un risque considérable. Pour déployer un outil à une échelle aussi vaste, il faut le maitriser et savoir où il nous conduit. Il faut prendre le temps de comprendre pour réguler son usage. Entretien réalisé par téléphone.

Le Laboratoire
de la République

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire