Rubrique : Défi technologique

Municipales 2026 – Désinformation, IA et territoires : la nouvelle vulnérabilité démocratique

par Thierry Taboy le 9 mars 2026
À l’ère des réseaux sociaux et de l’intelligence artificielle générative, la désinformation change d’échelle et de nature. Longtemps associée aux grandes campagnes électorales nationales, elle touche désormais aussi les territoires, où les moyens de veille sont plus limités et les débats publics plus vulnérables aux manipulations. Dans cette douzième note de notre série consacrée aux municipales, Thierry Taboy, responsable de la commission Technologie du Laboratoire de la République, analyse l’émergence d’une nouvelle fragilité démocratique locale face à la désinformation amplifiée par l’intelligence artificielle.
Dans cette note, Thierry Taboy montre comment l’écosystème informationnel contemporain fragilise l’une des conditions fondamentales de la démocratie : l’existence d’une réalité partagée permettant le débat public. La combinaison des réseaux sociaux, de l’intelligence artificielle générative et d’opérations d’influence étatiques a profondément transformé les stratégies de manipulation de l’information, désormais organisées à grande échelle. L’auteur revient notamment sur les campagnes d’ingérence documentées par VIGINUM, comme l’opération « Doppelgänger », qui consiste à imiter l’apparence de médias reconnus pour diffuser de faux contenus crédibles. L’objectif n’est pas toujours de convaincre, mais souvent de saturer l’espace informationnel et d’installer un doute généralisé quant à la fiabilité des informations disponibles. Thierry Taboy souligne que ces stratégies ne visent plus seulement les grandes élections nationales. Les territoires deviennent un terrain d’expérimentation privilégié : les débats locaux sont moins médiatisés, les dispositifs de veille plus faibles et les sujets (urbanisme, environnement, sécurité) particulièrement sensibles. Dans ce contexte, les réseaux sociaux jouent un rôle d’amplificateur, leurs algorithmes favorisant les contenus émotionnels qui circulent plus rapidement que les informations vérifiées. Enfin, l’auteur met en garde contre une réponse exclusivement technologique. Si les outils de détection et la régulation des plateformes sont nécessaires, la résilience démocratique repose aussi sur des facteurs sociaux : l’éducation aux médias, la vitalité de la presse locale et l’existence d’espaces de discussion dans les territoires. À l’heure où l’intelligence artificielle facilite la production massive de contenus trompeurs, le véritable enjeu consiste à préserver les conditions mêmes d’un débat démocratique fondé sur des faits partagés. Thierry Taboy est responsable de la commission Technologie du Laboratoire de la République, membre du conseil d’administration du think tank Impact AI. Municipales 2026 - Désinformation, IA et territoiresTélécharger

Municipales 2026 – Investir dans l’intelligence artificielle et dans les citoyens

par David Lacombled le 6 mars 2026
L’intelligence artificielle s’impose progressivement comme un nouvel outil de l’action publique locale. Des services administratifs à la gestion urbaine, en passant par la sécurité ou l’information des citoyens, elle promet des gains d’efficacité mais soulève aussi des questions démocratiques et sociales. Dans cette onzième note de notre série consacrée aux municipales, David Lacombled, président de La villa numeris, analyse la place croissante de l’IA dans les programmes municipaux et plaide pour une approche équilibrée : investir dans les technologies, mais surtout dans les citoyens qui devront les comprendre, les utiliser et en encadrer les usages.
David Lacombled montre que l’intelligence artificielle est désormais au cœur des stratégies d’attractivité et de modernisation des communes. Les élections municipales reflètent cette évolution : comme hier les sites web, les réseaux sociaux ou la visioconférence, l’IA devient un marqueur de modernité politique. Pour les collectivités, ne pas s’approprier ces technologies comporte un risque de déclassement économique et territorial, alors que les habitants et les entreprises y recourent déjà massivement. La note passe en revue les principaux usages envisagés par les candidats : vidéosurveillance algorithmique, mairies « augmentées » grâce aux outils génératifs, agents conversationnels capables de répondre aux questions des administrés, ou encore optimisation de la gestion publique par l’analyse automatisée des données. Ces promesses technologiques s’inscrivent toutefois dans un débat politique plus large, notamment autour des questions de sécurité, de protection des libertés et de qualité du service public. David Lacombled souligne également un paradoxe : alors que les citoyens utilisent de plus en plus les outils numériques, beaucoup perçoivent une dégradation du lien avec les services publics. L’IA ne doit donc pas devenir un facteur supplémentaire de distance administrative. Elle doit au contraire améliorer l’accès aux services tout en maintenant la possibilité d’un contact humain, ce qui implique de former les agents publics et d’accompagner les usages. Enfin, la note insiste sur la dimension sociale et éducative de la transition numérique. Dans un pays où une part importante de la population demeure en difficulté face au numérique, les communes ont un rôle essentiel à jouer pour éviter l’exclusion. Développement de tiers-lieux, initiatives locales de sensibilisation, émergence future de « Maisons de l’IA » : l’enjeu n’est pas seulement technologique. Il est démocratique. Pour les élus locaux, investir dans l’intelligence artificielle n’a de sens que s’ils investissent d’abord dans les citoyens. David Lacombled est président de La villa numeris. Municipales 2026 - Investir dans l'IA et dans les citoyensTélécharger

Productivité, emploi, jeunesse : l’IA face à l’épreuve du réel

par Thierry Taboy le 31 octobre 2025 Thierry Taboy LAB
L’intelligence artificielle ne détruit pas l’emploi, elle le réinvente. En transformant les tâches et en libérant du temps, elle promet des gains de productivité tout en révélant une nouvelle fracture entre savoir automatisé et intelligence humaine. Alors que la majorité des projets d’IA échouent faute d’une approche réfléchie, la clé réside désormais dans la formation et le dialogue avec la technologie. L’avenir du travail appartiendra à ceux qui sauront donner du sens à ces outils, car l’IA ne sera éthique que si nous la rendons telle.
L’intelligence artificielle redistribue silencieusement les cartes du travail. Pas en supprimant des métiers, mais en redessinant les tâches qui les composent.La productivité augmente sous conditions, les marges suivent et s’élargissent, mais la question essentielle demeure : à quoi servira le temps libéré ? Les études convergent : les entreprises qui adoptent l’IA avec une gouvernance adaptée enregistrent une croissance supérieure de 6 % de l’emploi et de 9,5 % des ventes. Mais 95 % des projets échouent encore faute d’usage maîtrisé. La technologie est prête. Ce sont les humains qui ne le sont pas. Derrière les courbes de performance, un paradoxe : les emplois les plus exposés à l’automatisation ne sont plus ceux de l’industrie, mais ceux de l’information — comptables, développeurs, analystes. Et ce sont surtout les jeunes diplômés qui en subissent le choc. Les 22-25 ans dans ces métiers ont vu leur emploi chuter de 13 % depuis 2022. Pourquoi ? Parce que l’IA imite bien la connaissance codifiée, celle qu’on enseigne à l’école. Mais elle n’imite pas encore l’intelligence vivante : le discernement, la créativité, la capacité à relier les faits à leur contexte humain. Or cette fracture cognitive pourrait devenir le nouveau fossé social. Si nous laissons l’IA décider sans comprendre, nous remplaçons la pensée par la procédure. C’est là que se joue le véritable enjeu : non pas une guerre entre l’homme et la machine, mais une discipline d’usage, une hygiène de l’intelligence artificielle. Avec un triangle d’or : Acculturation, pour comprendre les algorithmes et leurs biais économiques ; Dialogue éclairé, pour savoir interroger l’IA sans s’y soumettre ; Mise à jour permanente, pour que le temps gagné serve à apprendre se confronter à l'autre dans ses différences, se cultiver , pas à s’endormir. Mais cette hygiène suppose aussi de repenser la formation des jeunes. L’école et l’université doivent enseigner moins la maîtrise d’outils que la capacité à incarner l’humain dans le management. Cela passe par le développement de l’écoute, de la coopération et de la réflexivité : des qualités qu’aucun algorithme ne remplacera. Le futur du travail n’appartiendra pas à ceux qui savent exécuter, mais à ceux qui savent faire grandir les autres. Le leadership de demain sera horizontal : un leader qui relie, anime des collectifs hétérogènes, croise les savoirs et fait circuler l’intelligence au lieu de la concentrer. Cette posture n’est pas un renoncement à l’autorité : c’est sa transformation en influence partagée. L’IA ne sera ni responsable, ni fiable, ni digne de confiance sans cette hygiène collective. Elle ne sauvera ni la planète ni l’emploi si nous n’investissons pas d’abord dans la conscience critique de ceux qui la manient. Jensen Huang, PDG de NVIDIA, le dit sans détour : « les électriciens et les plombiers seront les grands gagnants de la révolution IA ». Parce qu’ils construisent l’infrastructure du futur. Mais la vraie infrastructure reste humaine : notre capacité à penser ce que nous faisons. Productivité, emploi, jeunesse : l’équation ne se résoudra pas par la technologie seule, mais par l’éducation du regard. L’éthique ne viendra pas de la machine — elle viendra de notre façon de rester humains en l’utilisant.

IA générative : l’Europe face aux promesses productivistes et aux tensions de souveraineté

par Eric Farro , Thierry Taboy le 16 mai 2025 IA générative - Le Laboratoire de la République
L’intelligence artificielle générative bouleverse l’économie, réinvente les processus, mais questionne la qualité du travail et la souveraineté technologique. Derrière toutes ces promesses, les premières données appellent à la prudence. L’Europe, elle, doit choisir sa voie — en résistant à la tentation d’un pilotage intégral par les données.
Créer, pas seulement prédire : un tournant Là où les intelligences artificielles supervisées se focalisaient sur des analyses ou prédictions ciblées, tandis que le "machine/deep learning" utilise des réseaux de neurones profonds pour traiter automatiquement des données complexes, l'intelligence artificielle générative produit désormais des contenus — textes, images, vidéos, code... Cette capacité offre des potentiels significatifs, mais suscite tout autant d’inquiétudes quant à ses effets en particulier sur l’emploi et les conditions de travail. Or, comme le rappelle l’auteur et essayiste Hubert Guillaud, produire ne signifie pas penser. L’IA calcule, mais ne comprend pas. Elle mime l’intelligence humaine sans jamais l’égaler dans sa capacité réflexive, éthique et critique. Un propos qui complète celui de Bernard Stiegler : « Tout objet technique est pharmacologique : il est à la fois poison et remède s’il n’est pas réfléchi politiquement. ». L’exemple du travail est ici largement représentatif. Productivité : l’enthousiasme confronté à la complexité du terrain Les estimations affluent. Le BCG anticipe des gains diffus de 10 à 20 %, et jusqu’à 50 % sur certaines fonctions. Le Hub Institute parle de 2 à 6 % pour les entreprises du CAC 40. Mais ces projections idéalisées rencontrent des limites issues des usages concrets. Début 2024, l’économiste Daron Acemoglu du MIT avait pourtant déjà alerté : les gains de productivité seraient largement surestimés. Un constat partagé par Oliver Wyman, qui souligne que plus d’un tiers des salariés ne perçoivent aucun effet positif après adoption de l’IA, certains observant même une baisse nette de productivité. En somme, ce n’est pas la technologie qui détermine l’impact de l’IA, mais la façon dont on l’intègre dans nos réalités. Performances contrastées, valeur en tension Les premières études de terrain confirment cet effet contrasté. Une IA générative bien utilisée peut doper la productivité (+14 % de résolutions horaires en service client, -9 % de temps de traitement, +14 % de conversations simultanées selon les estimations). L’outil devient un amplificateur des compétences. Mais à l’inverse, une étude du BCG menée fin 2023 révèle qu’une mauvaise utilisation provoque une chute de performance. Le débat ne peut ainsi se limiter à la quantité d’emplois détruits ou créés. La qualité du travail est un enjeu tout aussi déterminant. Amazon Mechanical Turk ou les tâches fragmentées “au clic” dessinent un futur du travail pour le moins peu enthousiasmant voire très inquiétant. Il est temps d’élargir les indicateurs : intégrer le bien-être, l’autonomie... L’outil sans stratégie : le risque du décalage Ces illustrations posent un problème structurel : le décalage entre les formations dispensées et les besoins opérationnels. Même si l’on peut noter de véritables avancées en particulier dans les grandes entreprises, les projets d’intégration sont encore trop souvent lancés sans analyse d’impact rigoureuse, sans accompagnement d’envergure, ni stratégie de transformation claire. Au final, une adoption chaotique, une démobilisation silencieuse, et des promesses de gains qui tardent à se matérialiser. Avec comme effet une perte de réflexivité dans les organisations. À force d’automatiser sans requestionner les finalités, on risque un management sans pensée, piloté par des indicateurs déconnectés du réel. Des collaborateurs prenant pour argent comptant des réponses erronées de GPT-4 ont à ce titre vu leur efficacité s’effondrer. Ici se joue l’un des risques majeurs souvent évoqué : celui du désapprentissage par délégation hors supervision humaine. Comme le notent de nombreux chercheurs comme Etienne Klein, à trop vouloir automatiser, c’est notre capacité à débattre en conscience, à préserver notre pensée critique qui en patira. L’IA ne remplace pas l’expertise : elle en dépend L’IA générative transforme les gestes, pas les jugements. Elle fait évoluer les métiers sans en supprimer le sens — à condition de les repenser. Le designer peut ainsi devenir curateur, le chirurgien, assisté par un exosquelette intelligent, gagner en précision sans perdre la main. Mais l’expérience humaine reste le socle de la performance. Dans un monde saturé de données, on oublie souvent ce qui échappe à la mesure. La confiance, la relation, l'expérience et l’éthique : autant d’éléments invisibles dans les tableaux de bord mais essentiels à la performance durable. Dans sa course au rattrapage, l'Europe se différenciera par l’intelligence de son déploiement. C’est bien là que se joue l’avenir du projet européen. Une souveraineté numérique à définir, pas à importer L’Europe ne contrôle pas la chaîne de valeur de l’IA générative : ni les modèles, ni les serveurs, ni les jeux de données, ni les outils. Une dépendance technologique qui s’accompagne de biais culturels. Entraînés sur des données nord-américaines et bientôt (déjà ?) chinoises, les modèles importent des logiques culturelles et managériales étrangères à nos traditions. L’indépendance à court terme, malgré les efforts déployés sur le vieux continent, reste encore chimérique. Mais une souveraineté fonctionnelle est possible. Elle passe par la diffusion maîtrisée, la spécialisation sectorielle, et l’alignement sur nos forces : industrie, santé, culture, services... Les modèles miniaturisés verticaux sont ici une piste plus que réaliste. Cette autre voie, celle d’un numérique situé, maîtrisé, orienté vers l’utilité collective, est le cœur du défi à venir. Transformer oui, déraciner non L’IA générative peut servir la productivité, enrichir le travail, favoriser la créativité et réinventer la notion même de performance. Mais elle exige méthode, gouvernance, dialogue social et investissement humain. Sans cela, elle ne pourra qu'accroître les inégalités, accélérer les désillusions et déstabiliser nos structures sociales. L’Europe n’a pas vocation à copier. Elle a sa propre trajectoire d’innovation à tracer, fondée sur la responsabilité, la réflexivité et plus que jamais le sens.

Mais à quoi doivent ressembler les robots ?

par Sébastien Crozier , Thierry Taboy le 12 février 2025 Robot prétexte article
Les robots doivent-ils adopter des traits humains ou conserver une apparence purement fonctionnelle ? Derrière cette question en apparence anodine, Thierry Taboy, responsable de la commission technologie du Laboratoire de la République et Sébastien Crozier, Président CFE CGC chez Orange montrent comment s'entrelacent des enjeux psychologiques, technologiques et sociétaux majeurs.
Avec l'essor des robots et avatars pilotés par l'intelligence artificielle, une question s'impose : à quoi doivent-ils ressembler pour s'intégrer au mieux dans notre quotidien ? Doivent-ils adopter des traits humains pour être plus facilement acceptés, ou privilégier un design purement fonctionnel ? Derrière cette interrogation esthétique se cachent des enjeux psychologiques, culturels et technologiques majeurs. Déjà, Bernard Stiegler soulignait que la prolifération des technologies numériques et robotiques modifie profondément notre rapport au monde et aux autres. En imitant l'humain, les robots risquent d'altérer notre perception de nous-mêmes et de nos interactions, soulevant ainsi des questions éthiques sur leur intégration dans la société L'attrait de l'anthropomorphisme : entre confiance et illusion Notre tendance à attribuer des caractéristiques humaines aux objets (anthropomorphisme) joue un rôle clé dans l'acceptation des robots. Un visage, même schématique, suffit souvent à déclencher des interactions sociales. C'est ce qui explique pourquoi des robots humanoïdes apparaissent de plus en plus dans des environnements variés – hôtels, hôpitaux, aéroports ou écoles – où leur apparence familière facilite les échanges. D'autres études montrent que des robots inspirés du règne animal favorisent l'attachement émotionnel, notamment chez les enfants et les personnes âgées, en jouant un rôle de soutien psychologique. Mais cette acceptation n'est pas universelle. Au Japon, l'influence de l'animisme, qui attribue un esprit aux objets inanimés, favorise une relation plus naturelle avec les robots. En Occident, en revanche, ils suscitent souvent méfiance et inquiétude, notamment autour des questions d'emploi et de surveillance. Avec l'essor des avatars numériques et de l'intelligence artificielle générative, cette relation se complexifie encore. Certains assistants virtuels dotés d'un visage et d'une voix réaliste, comme Replika, créent une illusion de dialogue humain. Ces interactions immersives peuvent parfois franchir des frontières inattendues, générant des attachements émotionnels, voire des situations de dépendance affective.. A tel point qu'en 2023, Replika a supprimé la possibilité de participer à des conversations érotiques, ce qui a suscité des discussions sur le rôle de l'IA dans les interactions humaines. Lorsqu'un robot ou un avatar reproduit trop fidèlement les comportements humains, notre perception du réel peut se voir perturbée et accentuer l'isolement social en remplaçant des relations authentiques par des échanges artificielsEt c'est sans compter les enjeux en terme de capacité de désinformation.  L'efficacité avant tout ? Quand le fonctionnel prime Si l'apparence humaine séduit dans certains contextes, elle n'est pas toujours pertinente. Dans l'industrie, la logistique ou les infrastructures publiques, la conception des robots repose avant tout sur leur efficacité, leur coût et leur sécurité. Ici, le design fonctionnel prévaut : pas d'yeux expressifs ni de traits humains, mais une forme optimisée pour accomplir une tâche précise. L'anthropomorphisme peut s'évérer ici contre-productif, en complexifiant les interactions, détournant l'attention ou en créant des attentes inappropriées chez les utilisateurs. Ainsi, les robots utilisés dans les entrepôts logistiques, comme ceux d'Amazon Robotics, adoptent des designs minimalistes centrés sur l'optimisation des déplacements et la manipulation des objets, plutôt que sur l'imitation des gestes humains. Dans le domaine des infrastructures publiques, les robots de nettoyage autonomes ou les dispositifs de surveillance suivent également cette logique. Par exemple, le robot Spot de Boston Dynamics, utilisé pour l'inspection de sites industriels et la surveillance, privilégie une forme quadrupède inspirée du monde animal pour maximiser sa stabilité et sa capacité à évoluer sur des terrains complexes. En somme, si l'apparence humaine peut faciliter l'acceptation sociale des robots dans certains contextes, elle est souvent abandonnée au profit d'un design purement fonctionnel dans les domaines où la performance et la sécurité priment. Cependant, même dans ces environnements, une certaine dose d'« humanisation » peut améliorer l'expérience utilisateur. Par exemple, l'ajout de signaux visuels (LED indiquant une direction ou un état), de mouvements simplifiés ou de sons subtils peut permettre aux humains de mieux anticiper les actions des machines et d'éviter toute méfiance instinctive. Plutôt qu'une imitation parfaite de l'humain, l'enjeu est donc de créer des interactions claires et intuitives. L'ombre de la "vallée de l'étrange" Cette quête d'équilibre entre humanisation et fonctionnalité n'est pas nouvelle. Dans les années 1970, le chercheur japonais Masahiro Mori a décrit le phénomène de la vallée de l'étrange (Uncanny Valley), selon lequel un robot trop réaliste provoque un malaise, car son apparence est presque humaine... mais pas tout à fait. Sophia, le robot humanoïde de Hanson Robotics, illustre parfaitement ce paradoxe : son réalisme a autant impressionné que dérangé. Pour éviter cet écueil, de nombreux designers optent pour des formes hybrides. Plutôt que de copier l'humain à l'identique, ils misent sur des éléments subtils – mouvements de tête, variations lumineuses, inflexions de voix – qui suffisent à évoquer des émotions sans induire de confusion. Mais au fond, que projetons-nous sur ces machines ? En leur attribuant des traits humains, nous exprimons autant notre besoin d'empathie que nos craintes face à l'automatisation. Pourtant, plus nous repoussons les limites de ces technologies, plus il devient évident qu'un robot, aussi sophistiqué soit-il, reste avant tout un outil. A trop vouloir leur faire imiter l'humain, les robots sont facteurs d'altération de notre perception de nous-mêmes et des autres, posant des défis éthiques sur leur intégration dans la société. L'avenir de la robotique réside dès lors dans une conception qui équilibre intelligence artificielle et clarté d'interaction. Trouver ce juste milieu sera essentiel pour faire des robots et des avatars des alliés au service de l'humanité – et non des illusions qui brouillent notre perception du monde et de nous-mêmes.

La création face aux défis de l’intelligence artificielle : retrouver le sens du récit

par L'équipe du Lab' le 15 avril 2024
Dans cette conversation sur "La création face aux défis de l'intelligence artificielle (IA) : retrouver le sens du récit", Thierry Taboy, responsable de la commission technologique du Laboratoire de la République, anime une rencontre stimulante entre deux figures de l'innovation culturelle et narrative : Nils Aziosmanoff, fondateur du Cube et directeur général du Cube Garges, pôle d'innovation culturelle, et Thierry Murat, talentueux auteur de bandes dessinées (son dernier ouvrage : "initial_A"). Ensemble, ils explorent l’impact de l’IA sur le processus de création. Entre réflexions sur les nouvelles formes d'expression artistique et les défis éthiques, cette conversation offre des perspectives riches et inspirantes.
La création artistique fait face à des défis sans précédent avec l'émergence de l'intelligence artificielle (IA). Cette technologie révolutionnaire offre des possibilités infinies, mais soulève également des questions éthiques, esthétiques et même métaphysiques. D'un côté, l'IA élargit l'éventail des outils créatifs à disposition des artistes, leur permettant d'explorer de nouvelles formes d'expression, de générer des idées originales et de repousser les limites de leur imagination. Des domaines aussi variés que la musique, la littérature, les arts visuels et même la danse sont touchés par cette révolution. Les algorithmes peuvent aider à créer de la musique, à générer des poèmes, et même à chorégraphier des mouvements. Cependant, cette expansion de l'arsenal créatif soulève des préoccupations importantes. Tout d'abord, il y a la question de l'originalité et de l'authenticité. Si une œuvre est créée par une machine, est-elle toujours considérée comme une expression artistique authentique ? Ou bien est-elle simplement le produit d'une programmation algorithmique ? Ensuite, il y a les enjeux éthiques liés à l'utilisation de l'IA dans la création artistique. Que dire de l'impact sur les emplois artistiques traditionnels ? L'automatisation de la création pourrait-elle remplacer les artistes humains, ou plutôt les compléter ? Enfin, il y a la question de la relation entre l'artiste et son public. L'IA peut-elle véritablement capturer l'essence de l'expérience humaine et émouvoir les spectateurs de la même manière qu'une création humaine ? Ou bien y a-t-il quelque chose d'irremplaçable dans l'acte de création humaine, dans toute sa complexité et sa subjectivité ? Face à ces défis, il est crucial que les artistes, les chercheurs, les décideurs politiques et la société dans son ensemble engagent un dialogue ouvert et réfléchi sur le rôle de l'IA dans la création artistique. Il est temps de repenser nos conceptions de la créativité, de l'originalité et de l'authenticité à la lumière de cette révolution technologique, afin de garantir que l'art continue à enrichir nos vies de manière significative et profonde. Retrouver la conversation : https://youtu.be/NlXhF_346Z4?feature=shared Conversation sur "La création face aux défis de l'intelligence artificielle : retrouver le sens du récit"

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire