L’intelligence artificielle ne détruit pas l’emploi, elle le réinvente. En transformant les tâches et en libérant du temps, elle promet des gains de productivité tout en révélant une nouvelle fracture entre savoir automatisé et intelligence humaine. Alors que la majorité des projets d’IA échouent faute d’une approche réfléchie, la clé réside désormais dans la formation et le dialogue avec la technologie. L’avenir du travail appartiendra à ceux qui sauront donner du sens à ces outils, car l’IA ne sera éthique que si nous la rendons telle.
L’intelligence artificielle redistribue silencieusement les cartes du travail.
Pas en supprimant des métiers, mais en redessinant les tâches qui les composent.La productivité augmente sous conditions, les marges suivent et s’élargissent, mais la question essentielle demeure : à quoi servira le temps libéré ?
Les études convergent : les entreprises qui adoptent l’IA avec une gouvernance adaptée enregistrent une croissance supérieure de 6 % de l’emploi et de 9,5 % des ventes. Mais 95 % des projets échouent encore faute d’usage maîtrisé. La technologie est prête. Ce sont les humains qui ne le sont pas.
Derrière les courbes de performance, un paradoxe : les emplois les plus exposés à l’automatisation ne sont plus ceux de l’industrie, mais ceux de l’information — comptables, développeurs, analystes. Et ce sont surtout les jeunes diplômés qui en subissent le choc. Les 22-25 ans dans ces métiers ont vu leur emploi chuter de 13 % depuis 2022.
Pourquoi ? Parce que l’IA imite bien la connaissance codifiée, celle qu’on enseigne à l’école. Mais elle n’imite pas encore l’intelligence vivante : le discernement, la créativité, la capacité à relier les faits à leur contexte humain.
Or cette fracture cognitive pourrait devenir le nouveau fossé social. Si nous laissons l’IA décider sans comprendre, nous remplaçons la pensée par la procédure.
C’est là que se joue le véritable enjeu : non pas une guerre entre l’homme et la machine, mais une discipline d’usage, une hygiène de l’intelligence artificielle.
Avec un triangle d’or :
Acculturation, pour comprendre les algorithmes et leurs biais économiques ;
Dialogue éclairé, pour savoir interroger l’IA sans s’y soumettre ;
Mise à jour permanente, pour que le temps gagné serve à apprendre se confronter à l'autre dans ses différences, se cultiver , pas à s’endormir.
Mais cette hygiène suppose aussi de repenser la formation des jeunes.
L’école et l’université doivent enseigner moins la maîtrise d’outils que la capacité à incarner l’humain dans le management. Cela passe par le développement de l’écoute, de la coopération et de la réflexivité : des qualités qu’aucun algorithme ne remplacera. Le futur du travail n’appartiendra pas à ceux qui savent exécuter, mais à ceux qui savent faire grandir les autres.
Le leadership de demain sera horizontal : un leader qui relie, anime des collectifs hétérogènes, croise les savoirs et fait circuler l’intelligence au lieu de la concentrer. Cette posture n’est pas un renoncement à l’autorité : c’est sa transformation en influence partagée.
L’IA ne sera ni responsable, ni fiable, ni digne de confiance sans cette hygiène collective. Elle ne sauvera ni la planète ni l’emploi si nous n’investissons pas d’abord dans la conscience critique de ceux qui la manient.
Jensen Huang, PDG de NVIDIA, le dit sans détour : « les électriciens et les plombiers seront les grands gagnants de la révolution IA ». Parce qu’ils construisent l’infrastructure du futur.
Mais la vraie infrastructure reste humaine : notre capacité à penser ce que nous faisons.
Productivité, emploi, jeunesse : l’équation ne se résoudra pas par la technologie seule, mais par l’éducation du regard.
L’éthique ne viendra pas de la machine — elle viendra de notre façon de rester humains en l’utilisant.
L’intelligence artificielle générative bouleverse l’économie, réinvente les processus, mais questionne la
qualité du travail et la souveraineté technologique. Derrière toutes ces promesses, les premières données
appellent à la prudence. L’Europe, elle, doit choisir sa voie — en résistant à la tentation d’un pilotage intégral
par les données.
Créer, pas seulement prédire : un tournant
Là où les intelligences artificielles supervisées se focalisaient sur des analyses ou prédictions ciblées, tandis que le "machine/deep learning" utilise des réseaux de neurones profonds pour traiter automatiquement des données complexes, l'intelligence artificielle générative produit désormais des contenus — textes, images, vidéos, code... Cette capacité offre des potentiels significatifs, mais suscite tout autant d’inquiétudes quant à ses effets en particulier sur l’emploi et les conditions de travail. Or, comme le rappelle l’auteur et essayiste Hubert Guillaud, produire ne signifie pas penser. L’IA calcule, mais ne comprend pas. Elle mime l’intelligence humaine sans jamais l’égaler dans sa capacité réflexive, éthique et critique. Un propos qui complète celui de Bernard Stiegler : « Tout objet technique est pharmacologique : il est à la fois poison et remède s’il n’est pas réfléchi politiquement. ». L’exemple du travail est ici largement représentatif.
Productivité : l’enthousiasme confronté à la complexité du terrain
Les estimations affluent. Le BCG anticipe des gains diffus de 10 à 20 %, et jusqu’à 50 % sur certaines fonctions. Le Hub Institute parle de 2 à 6 % pour les entreprises du CAC 40. Mais ces projections idéalisées rencontrent des limites issues des usages concrets. Début 2024, l’économiste Daron Acemoglu du MIT avait pourtant déjà alerté : les gains de productivité seraient largement surestimés. Un constat partagé par Oliver Wyman, qui souligne que plus d’un tiers des salariés ne perçoivent aucun effet positif après adoption de l’IA, certains observant même une baisse nette de productivité. En somme, ce n’est pas la technologie qui détermine l’impact de l’IA, mais la façon dont on l’intègre dans nos réalités.
Performances contrastées, valeur en tension
Les premières études de terrain confirment cet effet contrasté. Une IA générative bien utilisée peut doper la productivité (+14 % de résolutions horaires en service client, -9 % de temps de traitement, +14 % de conversations simultanées selon les estimations). L’outil devient un amplificateur des compétences. Mais à l’inverse, une étude du BCG menée fin 2023 révèle qu’une mauvaise utilisation provoque une chute de performance. Le débat ne peut ainsi se limiter à la quantité d’emplois détruits ou créés. La qualité du travail est un enjeu tout aussi déterminant. Amazon Mechanical Turk ou les tâches fragmentées “au clic” dessinent un futur du travail pour le moins peu enthousiasmant voire très inquiétant. Il est temps d’élargir les indicateurs : intégrer le bien-être, l’autonomie...
L’outil sans stratégie : le risque du décalage
Ces illustrations posent un problème structurel : le décalage entre les formations dispensées et les besoins opérationnels. Même si l’on peut noter de véritables avancées en particulier dans les grandes entreprises, les projets d’intégration sont encore trop souvent lancés sans analyse d’impact rigoureuse, sans accompagnement d’envergure, ni stratégie de transformation claire. Au final, une adoption chaotique, une démobilisation silencieuse, et des promesses de gains qui tardent à se matérialiser. Avec comme effet une perte de réflexivité dans les organisations. À force d’automatiser sans requestionner les finalités, on risque un management sans pensée, piloté par des indicateurs déconnectés du réel. Des collaborateurs prenant pour argent comptant des réponses erronées de GPT-4 ont à ce titre vu leur efficacité s’effondrer.
Ici se joue l’un des risques majeurs souvent évoqué : celui du désapprentissage par délégation hors supervision humaine. Comme le notent de nombreux chercheurs comme Etienne Klein, à trop vouloir automatiser, c’est notre capacité à débattre en conscience, à préserver notre pensée critique qui en patira.
L’IA ne remplace pas l’expertise : elle en dépend
L’IA générative transforme les gestes, pas les jugements. Elle fait évoluer les métiers sans en supprimer le sens — à condition de les repenser. Le designer peut ainsi devenir curateur, le chirurgien, assisté par un exosquelette intelligent, gagner en précision sans perdre la main. Mais l’expérience humaine reste le socle de la performance. Dans un monde saturé de données, on oublie souvent ce qui échappe à la mesure. La confiance, la relation, l'expérience et l’éthique : autant d’éléments invisibles dans les tableaux de bord mais essentiels à la performance durable. Dans sa course au rattrapage, l'Europe se différenciera par l’intelligence de son déploiement. C’est bien là que se joue l’avenir du projet européen.
Une souveraineté numérique à définir, pas à importer
L’Europe ne contrôle pas la chaîne de valeur de l’IA générative : ni les modèles, ni les serveurs, ni les jeux de données, ni les outils. Une dépendance technologique qui s’accompagne de biais culturels. Entraînés sur des données nord-américaines et bientôt (déjà ?) chinoises, les modèles importent des logiques culturelles et managériales étrangères à nos traditions. L’indépendance à court terme, malgré les efforts déployés sur le vieux continent, reste encore chimérique. Mais une souveraineté fonctionnelle est possible. Elle passe par la diffusion maîtrisée, la spécialisation sectorielle, et l’alignement sur nos forces : industrie, santé, culture, services... Les modèles miniaturisés verticaux sont ici une piste plus que réaliste. Cette autre voie, celle d’un numérique situé, maîtrisé, orienté vers l’utilité collective, est le cœur du défi à venir.
Transformer oui, déraciner non
L’IA générative peut servir la productivité, enrichir le travail, favoriser la créativité et réinventer la notion même de performance. Mais elle exige méthode, gouvernance, dialogue social et investissement humain. Sans cela, elle ne pourra qu'accroître les inégalités, accélérer les désillusions et déstabiliser nos structures sociales. L’Europe n’a pas vocation à copier. Elle a sa propre trajectoire d’innovation à tracer, fondée sur la responsabilité, la réflexivité et plus que jamais le sens.
Les robots doivent-ils adopter des traits humains ou conserver une apparence purement fonctionnelle ? Derrière cette question en apparence anodine, Thierry Taboy, responsable de la commission technologie du Laboratoire de la République et Sébastien Crozier, Président CFE CGC chez Orange montrent comment s'entrelacent des enjeux psychologiques, technologiques et sociétaux majeurs.
Avec l'essor des robots et avatars pilotés par l'intelligence artificielle, une question s'impose : à quoi doivent-ils ressembler pour s'intégrer au mieux dans notre quotidien ? Doivent-ils adopter des traits humains pour être plus facilement acceptés, ou privilégier un design purement fonctionnel ? Derrière cette interrogation esthétique se cachent des enjeux psychologiques, culturels et technologiques majeurs. Déjà, Bernard Stiegler soulignait que la prolifération des technologies numériques et robotiques modifie profondément notre rapport au monde et aux autres. En imitant l'humain, les robots risquent d'altérer notre perception de nous-mêmes et de nos interactions, soulevant ainsi des questions éthiques sur leur intégration dans la société
L'attrait de l'anthropomorphisme : entre confiance et illusion
Notre tendance à attribuer des caractéristiques humaines aux objets (anthropomorphisme) joue un rôle clé dans l'acceptation des robots. Un visage, même schématique, suffit souvent à déclencher des interactions sociales. C'est ce qui explique pourquoi des robots humanoïdes apparaissent de plus en plus dans des environnements variés – hôtels, hôpitaux, aéroports ou écoles – où leur apparence familière facilite les échanges. D'autres études montrent que des robots inspirés du règne animal favorisent l'attachement émotionnel, notamment chez les enfants et les personnes âgées, en jouant un rôle de soutien psychologique. Mais cette acceptation n'est pas universelle. Au Japon, l'influence de l'animisme, qui attribue un esprit aux objets inanimés, favorise une relation plus naturelle avec les robots. En Occident, en revanche, ils suscitent souvent méfiance et inquiétude, notamment autour des questions d'emploi et de surveillance.
Avec l'essor des avatars numériques et de l'intelligence artificielle générative, cette relation se complexifie encore. Certains assistants virtuels dotés d'un visage et d'une voix réaliste, comme Replika, créent une illusion de dialogue humain. Ces interactions immersives peuvent parfois franchir des frontières inattendues, générant des attachements émotionnels, voire des situations de dépendance affective.. A tel point qu'en 2023, Replika a supprimé la possibilité de participer à des conversations érotiques, ce qui a suscité des discussions sur le rôle de l'IA dans les interactions humaines. Lorsqu'un robot ou un avatar reproduit trop fidèlement les comportements humains, notre perception du réel peut se voir perturbée et accentuer l'isolement social en remplaçant des relations authentiques par des échanges artificielsEt c'est sans compter les enjeux en terme de capacité de désinformation.
L'efficacité avant tout ? Quand le fonctionnel prime
Si l'apparence humaine séduit dans certains contextes, elle n'est pas toujours pertinente. Dans l'industrie, la logistique ou les infrastructures publiques, la conception des robots repose avant tout sur leur efficacité, leur coût et leur sécurité. Ici, le design fonctionnel prévaut : pas d'yeux expressifs ni de traits humains, mais une forme optimisée pour accomplir une tâche précise. L'anthropomorphisme peut s'évérer ici contre-productif, en complexifiant les interactions, détournant l'attention ou en créant des attentes inappropriées chez les utilisateurs. Ainsi, les robots utilisés dans les entrepôts logistiques, comme ceux d'Amazon Robotics, adoptent des designs minimalistes centrés sur l'optimisation des déplacements et la manipulation des objets, plutôt que sur l'imitation des gestes humains. Dans le domaine des infrastructures publiques, les robots de nettoyage autonomes ou les dispositifs de surveillance suivent également cette logique. Par exemple, le robot Spot de Boston Dynamics, utilisé pour l'inspection de sites industriels et la surveillance, privilégie une forme quadrupède inspirée du monde animal pour maximiser sa stabilité et sa capacité à évoluer sur des terrains complexes. En somme, si l'apparence humaine peut faciliter l'acceptation sociale des robots dans certains contextes, elle est souvent abandonnée au profit d'un design purement fonctionnel dans les domaines où la performance et la sécurité priment. Cependant, même dans ces environnements, une certaine dose d'« humanisation » peut améliorer l'expérience utilisateur. Par exemple, l'ajout de signaux visuels (LED indiquant une direction ou un état), de mouvements simplifiés ou de sons subtils peut permettre aux humains de mieux anticiper les actions des machines et d'éviter toute méfiance instinctive. Plutôt qu'une imitation parfaite de l'humain, l'enjeu est donc de créer des interactions claires et intuitives.
L'ombre de la "vallée de l'étrange"
Cette quête d'équilibre entre humanisation et fonctionnalité n'est pas nouvelle. Dans les années 1970, le chercheur japonais Masahiro Mori a décrit le phénomène de la vallée de l'étrange (Uncanny Valley), selon lequel un robot trop réaliste provoque un malaise, car son apparence est presque humaine... mais pas tout à fait. Sophia, le robot humanoïde de Hanson Robotics, illustre parfaitement ce paradoxe : son réalisme a autant impressionné que dérangé. Pour éviter cet écueil, de nombreux designers optent pour des formes hybrides. Plutôt que de copier l'humain à l'identique, ils misent sur des éléments subtils – mouvements de tête, variations lumineuses, inflexions de voix – qui suffisent à évoquer des émotions sans induire de confusion.
Mais au fond, que projetons-nous sur ces machines ? En leur attribuant des traits humains, nous exprimons autant notre besoin d'empathie que nos craintes face à l'automatisation. Pourtant, plus nous repoussons les limites de ces technologies, plus il devient évident qu'un robot, aussi sophistiqué soit-il, reste avant tout un outil. A trop vouloir leur faire imiter l'humain, les robots sont facteurs d'altération de notre perception de nous-mêmes et des autres, posant des défis éthiques sur leur intégration dans la société. L'avenir de la robotique réside dès lors dans une conception qui équilibre intelligence artificielle et clarté d'interaction. Trouver ce juste milieu sera essentiel pour faire des robots et des avatars des alliés au service de l'humanité – et non des illusions qui brouillent notre perception du monde et de nous-mêmes.
Dans cette conversation sur "La création face aux défis de l'intelligence artificielle (IA) : retrouver le sens du récit", Thierry Taboy, responsable de la commission technologique du Laboratoire de la République, anime une rencontre stimulante entre deux figures de l'innovation culturelle et narrative : Nils Aziosmanoff, fondateur du Cube et directeur général du Cube Garges, pôle d'innovation culturelle, et Thierry Murat, talentueux auteur de bandes dessinées (son dernier ouvrage : "initial_A"). Ensemble, ils explorent l’impact de l’IA sur le processus de création. Entre réflexions sur les nouvelles formes d'expression artistique et les défis éthiques, cette conversation offre des perspectives riches et inspirantes.
La création artistique fait face à des défis sans précédent avec l'émergence de l'intelligence artificielle (IA). Cette technologie révolutionnaire offre des possibilités infinies, mais soulève également des questions éthiques, esthétiques et même métaphysiques.
D'un côté, l'IA élargit l'éventail des outils créatifs à disposition des artistes, leur permettant d'explorer de nouvelles formes d'expression, de générer des idées originales et de repousser les limites de leur imagination. Des domaines aussi variés que la musique, la littérature, les arts visuels et même la danse sont touchés par cette révolution. Les algorithmes peuvent aider à créer de la musique, à générer des poèmes, et même à chorégraphier des mouvements.
Cependant, cette expansion de l'arsenal créatif soulève des préoccupations importantes. Tout d'abord, il y a la question de l'originalité et de l'authenticité. Si une œuvre est créée par une machine, est-elle toujours considérée comme une expression artistique authentique ? Ou bien est-elle simplement le produit d'une programmation algorithmique ?
Ensuite, il y a les enjeux éthiques liés à l'utilisation de l'IA dans la création artistique. Que dire de l'impact sur les emplois artistiques traditionnels ? L'automatisation de la création pourrait-elle remplacer les artistes humains, ou plutôt les compléter ?
Enfin, il y a la question de la relation entre l'artiste et son public. L'IA peut-elle véritablement capturer l'essence de l'expérience humaine et émouvoir les spectateurs de la même manière qu'une création humaine ? Ou bien y a-t-il quelque chose d'irremplaçable dans l'acte de création humaine, dans toute sa complexité et sa subjectivité ?
Face à ces défis, il est crucial que les artistes, les chercheurs, les décideurs politiques et la société dans son ensemble engagent un dialogue ouvert et réfléchi sur le rôle de l'IA dans la création artistique. Il est temps de repenser nos conceptions de la créativité, de l'originalité et de l'authenticité à la lumière de cette révolution technologique, afin de garantir que l'art continue à enrichir nos vies de manière significative et profonde.
Retrouver la conversation :
https://youtu.be/NlXhF_346Z4?feature=shared
Conversation sur "La création face aux défis de l'intelligence artificielle : retrouver le sens du récit"
La publication de fake news sur les réseaux sociaux après l'attaque terroriste en Israël du samedi 7 octobre 2023 remet en lumière l'enjeu démocratique crucial de la vérification des informations. Chine Labbé, rédactrice en chef, Europe, chez NewsGuard, une société américaine qui évalue la fiabilité des sites d'information et d'actualité, analyse le nouvel environnement de l'information et explore des pistes de solutions.
Le Laboratoire de la République : Depuis l'acquisition en 2022 de Twitter (devenu X) par Elon Musk, de nombreux commentateurs estiment qu'une détérioration de la qualité de l'information est sensible sur le réseau. Est-ce le cas ? Pourquoi ?
Chine Labbé : Vous posez la question d'une détérioration de la qualité de l'information sensible sur le réseau. Ce que je dirais, c'est qu'il y a eu des changements de règles de la plateforme qui ont contribué à une perte de lisibilité de l'information. Qu'est-ce que j'entends par là ? Et quel changement de politique en particulier ? Le premier, le plus important, c'est le changement de politique lié à la coche bleue sur X, autrefois Twitter. Cette petite coche bleue qui autrefois était adossée aux comptes qui étaient soit des comptes notoires, des comptes d'intérêts publics, des comptes authentiques reconnus par la plateforme comme tel. Aujourd'hui, cette coche bleue est disponible sur abonnement. Il suffit de payer pour l'avoir. Elle offre aux clients qui s'en saisissent, une visibilité plus grande sur la plateforme. Les contenus sont promus et ont une apparence de légitimité pour les internautes qui ne comprendraient pas finalement à quoi correspond cette politique et à quoi correspond cette coche bleue. De nombreux colporteurs d'Infox connus se sont saisis de cette coche bleue. Aujourd'hui, ils diffusent et s'en servent pour diffuser de manière beaucoup plus efficace, et avec ce semblant de légitimité, leurs fausses informations sur la plateforme. On l'a observé pour des sujets comme les vaccins, la guerre entre la Russie et l'Ukraine. Et malheureusement, cela se confirme avec le conflit entre Hamas et Israël.
Deuxième changement de politique qui est important de mentionner et qui a contribué à cette perte de lisibilité, c'est le retrait des labels sur les comptes qui appartiennent à des médias d'État qui diffusent de la désinformation. Autrefois, vous aviez un petit label qui disait « média » appartenant à un État. Et puis, ces labels ont disparu. Dans les semaines qui ont suivi le retrait de ces labels, on a observé un pic de l'engagement avec ces comptes. C'est-à-dire que les partages, les likes, ces contenus ont été beaucoup plus viraux. On a fait un rapport chez NewsGuard sur ce sujet précisément et dans le détail, on a observé une augmentation de l'engagement avec des comptes appartenant à des médias d'État russes, chinois et iraniens en anglais. On a vu l'engagement avec ces comptes bondir de 70% dans les semaines qui ont suivi ce changement de politique.
Le dernier point que j'aimerais souligner, c'est que Twitter a, semble- t- il, diminué de manière drastique ses équipes de modération des contenus et liées au suivi de ce qui se passe en termes de désinformation sur la plateforme. Twitter s'est retiré du code de bonnes pratiques contre la désinformation de l'Union européenne, auquel nous, nous sommes signataires chez NewsGuard. Donc, autant de signaux qui sont évidemment inquiétants.
Le Laboratoire de la République : A la suite de l'attaque terroriste du Hamas sur Israël, des fausses informations ont été fortement relayées sur le réseau et sur internet. Quel regard portez-vous sur la qualité de l'information partagée lors de ce drame ?
Chine Labbé : Ce dont on s'est aperçu très rapidement, le samedi 7 octobre, jour de l'attaque du Hamas contre Israël, c'est que les réseaux sociaux et les sites Internet ont été inondés de fausses informations. Trois jours seulement après l'attaque du Hamas, nous avions recensé 14 fausses informations qui avaient rassemblé 22 millions de vues sur X, sur TikTok et sur Instagram. Aujourd'hui, une semaine plus tard, on a déjà recensé et décrypté une vingtaine de fausses informations. Ça va très vite. Ce qu'on observe, ce sont à la fois des techniques bien connues qu'on a observées déjà lors de la guerre en Ukraine, des images, des vidéos qui vont être sorties de leur contexte ou qui vont être présentées comme appartenant à ce conflit alors qu'en fait elles sont issues d'autres conflits, d'autres terrains de guerre. On va observer aussi des images de jeux vidéo qui vont être présentées comme réelles et comme ayant été prises lors de ce conflit. On a des documents falsifiés, tout simplement photoshoppés, des mémos de la Maison Blanche, par exemple. Donc des techniques assez simples, assez artisanales, mais qui font déjà beaucoup de dégâts.Et ce qui est assez incroyable aussi, c'est de constater que certaines images vont être utilisées pour nourrir à tort des récits faux, parfois de manière contradictoire, pour nourrir des récits qui disent l'inverse. Je vous donne un exemple. On a cette image qui a circulé d'un enfant au sol dans une flaque de sang, qui a été présentée par certains comme la preuve qu'Israël mettait en scène la mort d'enfants israéliens, et de l'autre qui avait pu être présenté comme la preuve que le Hamas mettait en scène la mort d'enfants palestiniens. Les deux sont faux. Les deux récits sont faux. Cette image, en fait, elle est extraite d'un court- métrage qui a été tourné bien avant la guerre entre Israël et le Hamas. Et donc, ce sont des images juste des coulisses d'un film. Mais donc, ça montre bien à quel point l'instrumentalisation d'images qui n'ont rien à voir avec le conflit peut aller très vite. Ça prend du temps pour nous, journalistes, de vérifier l'information, d'arriver à voir ce qui est faux ou ce qui est juste pour l'instant non prouvé ou sorti de son contexte ou trompeur, etc. Ça prend du temps à l'expliquer et la difficulté, évidemment, c'est cette course contre la montre pour essayer de prouver qu'une chose est fausse ou véritable, alors même qu'elle est déjà virale sur les réseaux sociaux.Quelques petits éléments qu'on peut mentionner, c'est malheureusement la forte présence des enfants dans les fausses informations qui circulent, des enfants, des bébés. Pourquoi ? Parce qu'on sait que c'est très sensible. Ça nous touche tous au plus profond. Les contenus les plus viraux relayant de fausses informations sont malheureusement souvent des images d'enfants. Pour contrer ces fausses informations, nous sommes allés vérifier les informations au fur et à mesure, au plus vite. Nous avons renseigné les internautes sur les sources qu'ils lisent, que ce soit des sites Internet, des comptes sur les réseaux sociaux. Pourquoi c'est important ? Parce que les colporteurs de fausses informations sont souvent des multirécidivistes. Ceux qui diffusaient de fausses informations sur l'Ukraine, qui diffusaient auparavant de fausses informations sur le Bataclan, qui diffusaient auparavant de fausses informations sur la guerre en Syrie, s'engouffrent dans la brèche et diffusent aujourd'hui de fausses informations sur ce qui se passe au Proche-Orient. C'est important de les identifier pour pouvoir surveiller leurs récits et aller les décrypter au fur et à mesure.
On voit depuis le début du conflit des techniques assez artisanales, finalement, des images qui sont bien réelles, mais juste sorties de leur contexte ou présentées à tort, ou on va avoir des vidéos qui vont être switchées et titrées dans une autre langue avec une fausse traduction, mais la vidéo, elle est bien correcte. Ces choses- là, bien artisanales, font déjà beaucoup de mal. Donc, ce que l'on craint, évidemment, c'est ce qui va se passer quand, si, des images créées de toute pièce par intelligence artificielle commencent à inonder nos réseaux, puisque là, ça sera d'autant plus difficile de répondre.
Le Laboratoire de la République : Le commissaire européen Thierry Breton a menacé le réseau social X de sanctions. L'Union Européenne a-t-elle aujourd'hui les moyens de ses ambitions en matière de régulation des contenus sur les réseaux ?
Chine Labbé : Moi, je suis journaliste, donc ce n'est pas trop ma place d'aller commenter les textes de loi et l'effet positif ou négatif qu'ils peuvent avoir. Ce que je peux dire en tout cas, c'est qu'effectivement, depuis plusieurs années, l'Union européenne se dotte de nouveaux outils pour combattre cette nouvelle menace. Mais tout ne doit pas venir de la régulation. Il y a toujours la question de la transparence des plateformes, notamment en ce qui concerne les algorithmes de recommandations. Quels contenus deviendront viraux et pourquoi ? Il est nécessaire que des entreprises comme la mienne puissent donner des suppléments d'information aux internautes. Les internautes doivent avoir des informations sur les sources qui leur donnent des informations. Ils doivent également apprendre à lire ces informations, avoir une lecture latérale. Quand une information apparait suspecte, il faut faire l'effort d'aller regarder ailleurs. La multiplication des contenus rend la tâche très difficile de tout vérifier. Les internautes doivent apprendre la résilience à la désinformation. Cela passe par l'éducation aux médias. Toutes les classes d'âge sont concernées. Beaucoup de désinformations sont relayées par les personnes âgées.
https://youtu.be/59Vh7KfLYIs
L’apparition, depuis un an et demi environ, de modules d’intelligence artificielle générative destinés au grand public, a eu un retentissement important dans la sphère publique, entre projections utopiques et dystopiques. Alors que la révolution est encore devant nous, Thierry Taboy, directeur Droits Humains au sein du groupe Orange et coordinateur de la task force Santé du collectif Impact AI, souligne l’importance de l’acculturation au numérique pour favoriser le développement d’une IA européenne et circonscrire les risques démocratiques liés à son usage.
Le Laboratoire de la République : Dix mois après l’apparition de ChatGPT, en sait-on davantage sur les usages qui sont faits de cet outil ? La révolution annoncée n’est-elle pas encore devant nous ?
Thierry Taboy : Les applications supportées par un moteur d’intelligence artificielle sont loin d’être nouvelles mais peu de gens jusqu’à présent se rendaient compte qu’ils s’en servaient dans leur quotidien. A la manière d’un monsieur Jourdain de la technologie, ils entraînaient des IAs sans le savoir. En offrant une interface très accessible, ChatGPT d’OpenAI a créé une rupture radicale, permettant au plus grand nombre de se confronter en conscience aux potentialités offertes par l’outil. Et c’est devenu une folie, entre déferlante d’usages, engouement médiatique et discours plus ou moins délirants (« les IAs génératives vont faire disparaître les cadres »… ).
ChatGPT est une intelligence artificielle qui répond à toutes vos questions même parfois quand elle ne sait pas, écrit des articles, des chansons, des recettes de cuisine ou des lignes de code à la demande et bien plus encore. Si elle repose sur des banques de données immenses et propose un mode de langage naturel, elle n’en reste pas moins imparfaite.
Pour résumer, elle « ne comprend pas » ce qu’elle écrit, elle ne fait que prédire les mots qui sont les plus cohérents pour continuer sa phrase. Mais elle le fait plutôt bien, ce qui donne l’impression qu’elle est vraiment intelligente, ou consciente.
Cela dit, il est indéniable que la qualité des réponses proposées par les IAs génératives ne cesse de progresser, avec comme facteurs déterminants une performance algorithmique croissante, de nouvelles fonctionnalités, l’intégration de banques de données de plus en plus larges et l’explosion du nombre d’utilisateurs qui « l’entraînent » toujours plus.
Assistance à la rédaction, support client, campagnes de communication, conditions juridiques, éducation, création de contenus multimédia, traduction, programmation… les champs recouverts par les Midjourney, ChatGPT, Lamma-2 (open source) et consorts sont toujours plus nombreux, aussi bien du côté professionnel que grand public. Selon l’IFOP, 18% des salariés en Entreprise l’utiliseraient d’ailleurs déjà, le plus souvent sans le dire. Si l’on veut résumer, ChatGPT est un excellent outil pour générer un premier jet, de gagner du temps, quand nous sommes confrontés à toute forme de rédaction.
Cette nouvelle donne oblige à repenser la manière dont nous abordons l’éducation et la formation. Il faut apprivoiser la bête, l’encadrer. On le sait, usage n’est pas maîtrise et ces technologies demandent de revoir les modes d’apprentissage. Profiter du meilleur de ces technologies et en faire un allié de la créativité humaine demande une bonne connaissance de leurs forces et limites, la capacité à générer des contextes propices à une réponse adaptée. Comme le note très bien le Conseil National du Numérique (Livre "civilisation numérique"), "(toute nouvelle technologie doit être) accompagnée de la formation d'un nouvel esprit critique et d'une culture technique permettant à chacun de préserver sa capacité de discernement".
Le Laboratoire de la République : Ces technologies ont suscité un mélange de peur et d’enthousiasme sans précédent. Quels espoirs et quelles inquiétudes peut-on raisonnablement avoir vis-à-vis de ces modules ?
Thierry Taboy : Il est d’abord urgent de sortir des discours manichéens qui fleurissent un peu partout et savoir raison garder. Les IAs génératives entraînent de nouveaux risques mais peuvent également être considérées comme une véritable opportunité pour celles et ceux qui gagneront en "capacitation" comme aimait à le rappeler Bernard Stiegler. Une récente étude du MIT tend d’ailleurs à montrer que l'usage de ChatGPT serait certes facteur de productivité mais surtout de réduction des inégalités une fois les personnes formées. (Experimental evidence on the productivity effects of generative artificial intelligence | Science). S’il est vrai que certains métiers sont vraiment plus à risque que d’autres, nous allons surtout devoir faire face à une transformation radicale de leurs contours. Ce qui sous-tend que plutôt qu’un remplacement de ceux-ci, ce sont les profils qui maitriseront le mieux ces nouveaux outils qui seront en situation de force en termes d’attractivité employeur. Si nous devons nous concentrer concrètement sur les risques structurels induits par ces IAs, c’est du côté des biais, de l’éthique, de la lutte contre les stratégies de désinformation (deepfake) comme du respect de la vie privée qu’il faut se pencher. C’est tout le sens du débat qui s’est tenu le 18 juillet dernier au sein du Conseil de Sécurité de l’ONU et dont le thème était « conséquences pour la paix de l’intelligence artificielle, entre « risques existentiels » et immenses promesse ». Avec les droits humains en première ligne.
Pour résumer, plutôt que de lutter contre une vague inexorable, il va falloir apprendre à surfer.
Le Laboratoire de la République : La levée de fonds record conclue par Mistral AI en juin a démontré que des technologies européennes ou françaises étaient en cours de développement. Est-ce suffisant ? Comment assurer la souveraineté européenne en la matière ?
Thierry Taboy : Face aux montants astronomiques des investissements déployés aux Etats-Unis ou en Chine, l’Europe, malgré un retard évident, a encore une véritable carte à jouer si elle s’en donne les moyens et offre un cadre propice, une juste balance entre innovation et réglementation. De par son histoire, sa culture, la « vieille » Europe porte en elle des valeurs propices au déploiement d’IAs responsables « by design », respectueuses des droits humains, une condition essentielle à sa souveraineté. Avec des industries d’excellence à portée mondiale dans les domaines IT et une propension à s’appuyer sur leurs écosystèmes et ainsi déployer des stratégies d’innovation ouverte, l’Europe possède de réels atouts pour se démarquer.
Et cela peut faire toute la différence en matière d’accessibilité, de confiance utilisateur et de différenciation marché. Le règlement européen sur les services numériques (DSA) comme le futur « AI Act » sont et seront à ce titre déterminants. Les dernières versions de l’AI Act peuvent à ce titre légitimement inquiéter par leur portée trop restrictive et des améliorations sensibles sont attendues pour réellement promouvoir l’équilibre innovation-réglementation. N’en reste pas moins vrai que la souveraineté est au cœur de l’agenda européen.
Le Laboratoire de la République : De nombreuses universités ont décidé d’interdire l’usage de ChatGPT. Est-ce une stratégie tenable et intéressante ?
Thierry Taboy : Selon moi, cela n’a aucun sens sauf si de telles décisions sont dictées par la nécessité de marquer une courte pause et d’en profiter pour permettre au corps enseignant de se former, de se repenser pour intégrer cette nouvelle donne dans les parcours d’apprentissage.
Prenons l’exemple des écoles qui forment les futurs développeurs et développeuses. Intégrer dans leurs parcours d’apprentissage l’appropriation des IAs génératives permettra de s’appuyer sur celles-ci afin de rapidement créer les briques de bases (frameworks) et se concentrer sur des tâches plus complexes et ainsi libérer leur créativité. Cet exemple vaut également pour les étudiants ou les communicants qui auront la capacité à générer les premières ébauches de réponse, se faire surprendre par des points de vue inédits.
Pour autant, il leur faudra connaître comment affiner leurs requêtes (prompts), se confronter à d’autres sources et, sur cette base, proposer leur propre vision. Comme l'écrit Jérémy Lamri, "pour résoudre efficacement les inégalités liées à la capacité de prompter les IA génératives, il est crucial d’adopter des approches interdisciplinaires. Cela signifie associer les compétences et perspectives de la sociologie, la philosophie et les sciences techniques pour mieux comprendre les attentes et les besoins spécifiques des utilisateurs."
L’intégration de ces technologies demande donc aux enseignants comme aux professionnels de se réinventer pour faire en sorte que ces technologies soient au service de l’ingéniosité humaine. Le travail à mener est conséquent.
Au final, les universités et autres structures de formation qui feront la différence dans le futur seront celles qui auront privilégié l’intelligence collective tout en puisant dans ce qu’apporte ces technologies nouvelles. Refuser le train ne sauvera pas la calèche.
Pour rester informé inscrivez-vous à la newsletter
Nous utilisons des cookies sur notre site Web pour vous offrir l'expérience la plus pertinente en mémorisant vos préférences et vos visites répétées. En cliquant sur "Accepter tout", vous consentez à l'utilisation de TOUS les cookies. Toutefois, vous pouvez visiter "Paramètres des cookies" pour fournir un consentement contrôlé.
Ce site web utilise des cookies pour améliorer votre expérience lorsque vous naviguez sur le site. Parmi ceux-ci, les cookies qui sont catégorisés comme nécessaires sont stockés sur votre navigateur car ils sont essentiels pour le fonctionnement des fonctionnalités de base du site web. Nous utilisons également des cookies tiers qui nous aident à analyser et à comprendre comment vous utilisez ce site web. Ces cookies ne seront stockés dans votre navigateur qu'avec votre consentement. Vous avez également la possibilité de refuser ces cookies. Mais la désactivation de certains de ces cookies peut affecter votre expérience de navigation.
Les cookies nécessaires sont absolument indispensables au bon fonctionnement du site web. Ces cookies assurent les fonctionnalités de base et les caractéristiques de sécurité du site web, de manière anonyme.
Cookie
Durée
Description
cookielawinfo-checkbox-analytics
11 mois
Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Analytics".
cookielawinfo-checkbox-analytiques
11 mois
Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Analytics".
cookielawinfo-checkbox-necessary
11 mois
Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Nécessaire".
display_splash
1 heure
Ce cookie est utilisé pour stocker si l'utilisateur a déjà vu le "Splash Screen". Il ne stocke pas de données personnelles.
viewed_cookie_policy
11 mois
Ce cookie est utilisé pour stocker si l'utilisateur a consenti ou non à l'utilisation de cookies. Il ne stocke pas de données personnelles.
Les cookies analytiques sont utilisés pour comprendre comment les visiteurs interagissent avec le site web. Ces cookies permettent de fournir des informations sur les mesures du nombre de visiteurs, le taux de rebond, la source de trafic, etc.