Étiquettes : Technologie

IA générative : l’Europe face aux promesses productivistes et aux tensions de souveraineté

par Eric Farro , Thierry Taboy le 16 mai 2025 IA générative - Le Laboratoire de la République
L’intelligence artificielle générative bouleverse l’économie, réinvente les processus, mais questionne la qualité du travail et la souveraineté technologique. Derrière toutes ces promesses, les premières données appellent à la prudence. L’Europe, elle, doit choisir sa voie — en résistant à la tentation d’un pilotage intégral par les données.
Créer, pas seulement prédire : un tournant Là où les intelligences artificielles supervisées se focalisaient sur des analyses ou prédictions ciblées, tandis que le "machine/deep learning" utilise des réseaux de neurones profonds pour traiter automatiquement des données complexes, l'intelligence artificielle générative produit désormais des contenus — textes, images, vidéos, code... Cette capacité offre des potentiels significatifs, mais suscite tout autant d’inquiétudes quant à ses effets en particulier sur l’emploi et les conditions de travail. Or, comme le rappelle l’auteur et essayiste Hubert Guillaud, produire ne signifie pas penser. L’IA calcule, mais ne comprend pas. Elle mime l’intelligence humaine sans jamais l’égaler dans sa capacité réflexive, éthique et critique. Un propos qui complète celui de Bernard Stiegler : « Tout objet technique est pharmacologique : il est à la fois poison et remède s’il n’est pas réfléchi politiquement. ». L’exemple du travail est ici largement représentatif. Productivité : l’enthousiasme confronté à la complexité du terrain Les estimations affluent. Le BCG anticipe des gains diffus de 10 à 20 %, et jusqu’à 50 % sur certaines fonctions. Le Hub Institute parle de 2 à 6 % pour les entreprises du CAC 40. Mais ces projections idéalisées rencontrent des limites issues des usages concrets. Début 2024, l’économiste Daron Acemoglu du MIT avait pourtant déjà alerté : les gains de productivité seraient largement surestimés. Un constat partagé par Oliver Wyman, qui souligne que plus d’un tiers des salariés ne perçoivent aucun effet positif après adoption de l’IA, certains observant même une baisse nette de productivité. En somme, ce n’est pas la technologie qui détermine l’impact de l’IA, mais la façon dont on l’intègre dans nos réalités. Performances contrastées, valeur en tension Les premières études de terrain confirment cet effet contrasté. Une IA générative bien utilisée peut doper la productivité (+14 % de résolutions horaires en service client, -9 % de temps de traitement, +14 % de conversations simultanées selon les estimations). L’outil devient un amplificateur des compétences. Mais à l’inverse, une étude du BCG menée fin 2023 révèle qu’une mauvaise utilisation provoque une chute de performance. Le débat ne peut ainsi se limiter à la quantité d’emplois détruits ou créés. La qualité du travail est un enjeu tout aussi déterminant. Amazon Mechanical Turk ou les tâches fragmentées “au clic” dessinent un futur du travail pour le moins peu enthousiasmant voire très inquiétant. Il est temps d’élargir les indicateurs : intégrer le bien-être, l’autonomie... L’outil sans stratégie : le risque du décalage Ces illustrations posent un problème structurel : le décalage entre les formations dispensées et les besoins opérationnels. Même si l’on peut noter de véritables avancées en particulier dans les grandes entreprises, les projets d’intégration sont encore trop souvent lancés sans analyse d’impact rigoureuse, sans accompagnement d’envergure, ni stratégie de transformation claire. Au final, une adoption chaotique, une démobilisation silencieuse, et des promesses de gains qui tardent à se matérialiser. Avec comme effet une perte de réflexivité dans les organisations. À force d’automatiser sans requestionner les finalités, on risque un management sans pensée, piloté par des indicateurs déconnectés du réel. Des collaborateurs prenant pour argent comptant des réponses erronées de GPT-4 ont à ce titre vu leur efficacité s’effondrer. Ici se joue l’un des risques majeurs souvent évoqué : celui du désapprentissage par délégation hors supervision humaine. Comme le notent de nombreux chercheurs comme Etienne Klein, à trop vouloir automatiser, c’est notre capacité à débattre en conscience, à préserver notre pensée critique qui en patira. L’IA ne remplace pas l’expertise : elle en dépend L’IA générative transforme les gestes, pas les jugements. Elle fait évoluer les métiers sans en supprimer le sens — à condition de les repenser. Le designer peut ainsi devenir curateur, le chirurgien, assisté par un exosquelette intelligent, gagner en précision sans perdre la main. Mais l’expérience humaine reste le socle de la performance. Dans un monde saturé de données, on oublie souvent ce qui échappe à la mesure. La confiance, la relation, l'expérience et l’éthique : autant d’éléments invisibles dans les tableaux de bord mais essentiels à la performance durable. Dans sa course au rattrapage, l'Europe se différenciera par l’intelligence de son déploiement. C’est bien là que se joue l’avenir du projet européen. Une souveraineté numérique à définir, pas à importer L’Europe ne contrôle pas la chaîne de valeur de l’IA générative : ni les modèles, ni les serveurs, ni les jeux de données, ni les outils. Une dépendance technologique qui s’accompagne de biais culturels. Entraînés sur des données nord-américaines et bientôt (déjà ?) chinoises, les modèles importent des logiques culturelles et managériales étrangères à nos traditions. L’indépendance à court terme, malgré les efforts déployés sur le vieux continent, reste encore chimérique. Mais une souveraineté fonctionnelle est possible. Elle passe par la diffusion maîtrisée, la spécialisation sectorielle, et l’alignement sur nos forces : industrie, santé, culture, services... Les modèles miniaturisés verticaux sont ici une piste plus que réaliste. Cette autre voie, celle d’un numérique situé, maîtrisé, orienté vers l’utilité collective, est le cœur du défi à venir. Transformer oui, déraciner non L’IA générative peut servir la productivité, enrichir le travail, favoriser la créativité et réinventer la notion même de performance. Mais elle exige méthode, gouvernance, dialogue social et investissement humain. Sans cela, elle ne pourra qu'accroître les inégalités, accélérer les désillusions et déstabiliser nos structures sociales. L’Europe n’a pas vocation à copier. Elle a sa propre trajectoire d’innovation à tracer, fondée sur la responsabilité, la réflexivité et plus que jamais le sens.

Mais à quoi doivent ressembler les robots ?

par Sébastien Crozier , Thierry Taboy le 12 février 2025 Robot prétexte article
Les robots doivent-ils adopter des traits humains ou conserver une apparence purement fonctionnelle ? Derrière cette question en apparence anodine, Thierry Taboy, responsable de la commission technologie du Laboratoire de la République et Sébastien Crozier, Président CFE CGC chez Orange montrent comment s'entrelacent des enjeux psychologiques, technologiques et sociétaux majeurs.
Avec l'essor des robots et avatars pilotés par l'intelligence artificielle, une question s'impose : à quoi doivent-ils ressembler pour s'intégrer au mieux dans notre quotidien ? Doivent-ils adopter des traits humains pour être plus facilement acceptés, ou privilégier un design purement fonctionnel ? Derrière cette interrogation esthétique se cachent des enjeux psychologiques, culturels et technologiques majeurs. Déjà, Bernard Stiegler soulignait que la prolifération des technologies numériques et robotiques modifie profondément notre rapport au monde et aux autres. En imitant l'humain, les robots risquent d'altérer notre perception de nous-mêmes et de nos interactions, soulevant ainsi des questions éthiques sur leur intégration dans la société L'attrait de l'anthropomorphisme : entre confiance et illusion Notre tendance à attribuer des caractéristiques humaines aux objets (anthropomorphisme) joue un rôle clé dans l'acceptation des robots. Un visage, même schématique, suffit souvent à déclencher des interactions sociales. C'est ce qui explique pourquoi des robots humanoïdes apparaissent de plus en plus dans des environnements variés – hôtels, hôpitaux, aéroports ou écoles – où leur apparence familière facilite les échanges. D'autres études montrent que des robots inspirés du règne animal favorisent l'attachement émotionnel, notamment chez les enfants et les personnes âgées, en jouant un rôle de soutien psychologique. Mais cette acceptation n'est pas universelle. Au Japon, l'influence de l'animisme, qui attribue un esprit aux objets inanimés, favorise une relation plus naturelle avec les robots. En Occident, en revanche, ils suscitent souvent méfiance et inquiétude, notamment autour des questions d'emploi et de surveillance. Avec l'essor des avatars numériques et de l'intelligence artificielle générative, cette relation se complexifie encore. Certains assistants virtuels dotés d'un visage et d'une voix réaliste, comme Replika, créent une illusion de dialogue humain. Ces interactions immersives peuvent parfois franchir des frontières inattendues, générant des attachements émotionnels, voire des situations de dépendance affective.. A tel point qu'en 2023, Replika a supprimé la possibilité de participer à des conversations érotiques, ce qui a suscité des discussions sur le rôle de l'IA dans les interactions humaines. Lorsqu'un robot ou un avatar reproduit trop fidèlement les comportements humains, notre perception du réel peut se voir perturbée et accentuer l'isolement social en remplaçant des relations authentiques par des échanges artificielsEt c'est sans compter les enjeux en terme de capacité de désinformation.  L'efficacité avant tout ? Quand le fonctionnel prime Si l'apparence humaine séduit dans certains contextes, elle n'est pas toujours pertinente. Dans l'industrie, la logistique ou les infrastructures publiques, la conception des robots repose avant tout sur leur efficacité, leur coût et leur sécurité. Ici, le design fonctionnel prévaut : pas d'yeux expressifs ni de traits humains, mais une forme optimisée pour accomplir une tâche précise. L'anthropomorphisme peut s'évérer ici contre-productif, en complexifiant les interactions, détournant l'attention ou en créant des attentes inappropriées chez les utilisateurs. Ainsi, les robots utilisés dans les entrepôts logistiques, comme ceux d'Amazon Robotics, adoptent des designs minimalistes centrés sur l'optimisation des déplacements et la manipulation des objets, plutôt que sur l'imitation des gestes humains. Dans le domaine des infrastructures publiques, les robots de nettoyage autonomes ou les dispositifs de surveillance suivent également cette logique. Par exemple, le robot Spot de Boston Dynamics, utilisé pour l'inspection de sites industriels et la surveillance, privilégie une forme quadrupède inspirée du monde animal pour maximiser sa stabilité et sa capacité à évoluer sur des terrains complexes. En somme, si l'apparence humaine peut faciliter l'acceptation sociale des robots dans certains contextes, elle est souvent abandonnée au profit d'un design purement fonctionnel dans les domaines où la performance et la sécurité priment. Cependant, même dans ces environnements, une certaine dose d'« humanisation » peut améliorer l'expérience utilisateur. Par exemple, l'ajout de signaux visuels (LED indiquant une direction ou un état), de mouvements simplifiés ou de sons subtils peut permettre aux humains de mieux anticiper les actions des machines et d'éviter toute méfiance instinctive. Plutôt qu'une imitation parfaite de l'humain, l'enjeu est donc de créer des interactions claires et intuitives. L'ombre de la "vallée de l'étrange" Cette quête d'équilibre entre humanisation et fonctionnalité n'est pas nouvelle. Dans les années 1970, le chercheur japonais Masahiro Mori a décrit le phénomène de la vallée de l'étrange (Uncanny Valley), selon lequel un robot trop réaliste provoque un malaise, car son apparence est presque humaine... mais pas tout à fait. Sophia, le robot humanoïde de Hanson Robotics, illustre parfaitement ce paradoxe : son réalisme a autant impressionné que dérangé. Pour éviter cet écueil, de nombreux designers optent pour des formes hybrides. Plutôt que de copier l'humain à l'identique, ils misent sur des éléments subtils – mouvements de tête, variations lumineuses, inflexions de voix – qui suffisent à évoquer des émotions sans induire de confusion. Mais au fond, que projetons-nous sur ces machines ? En leur attribuant des traits humains, nous exprimons autant notre besoin d'empathie que nos craintes face à l'automatisation. Pourtant, plus nous repoussons les limites de ces technologies, plus il devient évident qu'un robot, aussi sophistiqué soit-il, reste avant tout un outil. A trop vouloir leur faire imiter l'humain, les robots sont facteurs d'altération de notre perception de nous-mêmes et des autres, posant des défis éthiques sur leur intégration dans la société. L'avenir de la robotique réside dès lors dans une conception qui équilibre intelligence artificielle et clarté d'interaction. Trouver ce juste milieu sera essentiel pour faire des robots et des avatars des alliés au service de l'humanité – et non des illusions qui brouillent notre perception du monde et de nous-mêmes.

Orléans : Numérique et droits : entre innovation et régulation, quels défis pour nos libertés ?

par L'antenne du Loiret le 20 janvier 2025 Orléans_Lab
Vendredi 17 janvier, l’antenne du Loiret du Laboratoire de la République, en collaboration avec les Jeunes Européens de France, a accueilli une table ronde passionnante intitulée « Numérique et droits fondamentaux, quel équilibre ? ». Cet événement a réuni un public varié, composé de citoyens engagés et d’étudiants, autour d’un sujet d'actualité : les défis et opportunités des innovations numériques vis-à-vis de nos libertés fondamentales.
Fouad Eddazi, maître de conférence en droit du numérique et des libertés fondamentales, a présenté une analyse juridique approfondie. Il a souligné les tensions entre le développement technologique et la protection des droits fondamentaux, notamment en matière de vie privée et de liberté d’expression. Selon lui, le cadre législatif actuel doit évoluer pour répondre à l'émergence de nouvelles problématiques liées à l’intelligence artificielle et aux données massives. Patrick Faure-Bignolas, professionnel spécialisé en intelligence artificielle, a apporté une vision pratique et technique. Il a discuté des implications concrètes des algorithmes dans la vie quotidienne, en insistant sur la nécessité d’une régulation équilibrée pour prévenir les dérives tout en encourageant l’innovation. Les échanges, animés par les organisateurs, ont mis en lumière plusieurs problématiques majeures : La protection de la vie privée dans un monde hyperconnectéLes intervenants ont discuté des défis liés à la collecte massive de données personnelles et des risques pour la vie privée, particulièrement dans le cadre de l’utilisation des technologies comme les objets connectés et les réseaux sociaux. Les droits de propriété intellectuelle à l’ère du big dataL’essor des données massives pose des questions inédites sur la manière de protéger les créations intellectuelles tout en garantissant un accès équitable aux innovations numériques. La régulation de l’intelligence artificielleUn consensus s’est dégagé sur la nécessité d’une régulation adaptée, permettant de prévenir les abus tout en favorisant un développement éthique et responsable des technologies.

Jeudi 23 mai : Vers quelle destinée numérique ?

le 14 mai 2024 Visuel_Wagon
Jeudi 23 mai, en exclusivité le Wagon Paris organise la première conversation autour du chapitre dédié au numérique et à l’IA. Jean-Michel Blanquer, Nicolas Marescaux, Marin de Nebehay et Roxana Rugina Friess nous feront l’honneur de leur présence. Vous pourrez poser toutes vos questions à nos intervenant(e)s autour d’un cocktail proposé par la Distillerie de Paris.
Le Laboratoire de la République a récemment fait paraître un ouvrage collectif : "Europe : maîtriser notre avenir. Les voies du renouveau ». Confronté à une révolution numérique, l’équilibre des puissances mondiales se trouve bouleversé. Nous avons moins de dix ans pour réinventer notre modèle social, économique et politique pour protéger nos citoyens. 10 ans, 10 défis clés à relever pour une reprise en main durable de notre destin à l'ère du numérique. Pour cette conversation d’exception, nous recevrons Monsieur l'ancien ministre et président du Laboratoire Jean-Michel Blanquer, qui ouvrira la table ronde. Nos invités exceptionnels réunis autour de la table seront :  Marin de Nebehay : Co-rédacteur du chapitre sur le numérique, son domaine d’action porte sur la stratégie et l’influence dans le secteur de la Green Tech. Son regard de publiciste et son expérience dans les affaires publiques permettent une lecture transversale des enjeux numériques actuels. Il plaide pour que le numérique soit conçu comme une révolution politique, avant d’être pensé comme une révolution économique. Nicolas Marescaux, Directeur adjoint Réponses Besoins Sociétaires et Innovation du groupe MACIF. Membre expert à la Commission Européenne au sein du groupe “European financial data space”, Nicolas apportera une perspective européenne et économique aux échanges.  Roxana Rugina Friess, Secrétaire Générale d'Impact AI, un think & do tank de référence en France qui regroupe 60 grandes entreprises, startups, associations et écoles autour de l'IA éthique. Depuis 5 ans, Roxana coordonne des publications sur la gouvernance de l’IA et pour favoriser l’intégration de pratiques d’IA responsable dans les entreprises.  Quand ? Jeudi 23 avril, à 19h Où ? Le Wagon Paris 16 villa Gaudelet , 75011 Paris Participation libre, inscription obligatoire Pour s'inscrire, cliquez ici

Mardi 2 avril : L’impact du numérique sur la jeunesse

par L'antenne d'Assas le 25 mars 2024 visuel_assas
Mardi 2 avril, l'antenne d'Assas vous invite à sa prochaine table ronde liée à l'impact du numérique sur la jeunesse avec de nombreux experts : Marie-Victoire Chopin, Orianne Ledroit, Vincent Paul-Petit, Thierry Taboy et Serge Tisseron.
Le numérique impacte la jeunesse. Il transforme profondément nos modes de vie et de pensée. Les nouvelles technologies influencent considérablement nos capacités cognitives, en modifiant nos schémas de concentration, de mémorisation et de réflexion. Elles altèrent également notre rapport au temps, en accélérant nos interactions et en créant une culture de l'immédiateté. En ce qui concerne l'apprentissage, le numérique offre des outils variés mais peut aussi susciter des défis liés à la surcharge d'informations et à la capacité de discernement. Enfin, sur le plan social, les technologies numériques redéfinissent les relations interpersonnelles, transformant les modes de communication et d'interaction, tantôt enrichissant la vie en société, tantôt la complexifiant. Marie-Victoire Chopin : docteure en psychopathologie, MBA et consultante pour le cabinet Technologia Orianne Ledroit : déléguée générale d’EdTech France, ancienne conseillère du ministre en charge des impacts sociaux, territoriaux et environnementaux du numérique Vincent Paul-Petit : maire de Seine-Port, commune située en Seine-et-Marne Thierry Taboy : responsable RSE du Groupe Orange en charge de la prospective opérationnelle à court/moyen terme et perspectives sur les enjeux entre société et numérique, responsable de la commission Défi technologique du Laboratoire de la République Serge Tisseron : psychiatre, docteur en psychologie habilité à diriger des recherches, et membre de l'Académie des technologies. Auteur de nombreux ouvrages, il a été co-rédacteur de l’avis de l’Académie des sciences L’enfant et les écrans (2013). Il a reçu la même année à Washington un Award du FOSI (Family Online Safety Institute) pour l’ensemble de ses travaux sur les jeunes et les écrans Quand ? Mardi 2 avril, 20h Où ? Université Panthéon-Assas / Centre Assas 92, rue d'Assas, 75006 Paris Participation libre, inscription obligatoire S'inscrire à l'évènement

Empreinte environnementale du numérique : comment la réduire ?

par Jean-Benoît Besset le 17 janvier 2024
L'empreinte environnementale du numérique fait référence à l'impact écologique de l'utilisation croissante des technologies de l'information et de la communication sur l'environnement. L’obsolescence rapide des équipements, l’utilisation des ressources naturelles, la gestion des déchets électroniques, le recyclage sont des enjeux associés à cette empreinte environnementale. Réduire l'empreinte environnementale du numérique implique la sensibilisation des consommateurs, le développement de technologies plus durables, des pratiques commerciales responsables et des politiques gouvernementales appropriées. Entretien avec Jean-Benoît Besset, Directeur RSE et de la Transition Environnement et Énergie du Groupe Orange, pour nous éclairer sur ces enjeux.
Jean-Benoît Besset, Directeur RSE et de la Transition Environnement et Énergie du Groupe Orange, commence par définir l'empreinte environnementale du numérique, soulignant comment nos activités en ligne, de la navigation sur Internet à l'utilisation des réseaux sociaux, contribuent à cette empreinte souvent invisible. Il aborde ensuite les principales sources d'émissions de carbone dans le domaine numérique, mettant en lumière l'importance de prendre en compte les centres de données, la fabrication d'appareils électroniques et d'autres éléments essentiels de l'infrastructure numérique. Le discours se tourne également vers des solutions potentielles pour réduire l'empreinte environnementale du numérique. Il explore des stratégies individuelles et collectives, ainsi que des initiatives technologiques et industrielles visant à rendre le numérique plus durable. https://youtu.be/coMjhZMBAvQ

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire