Événements

Première table ronde à Assas sur l’IA, les nouveaux médias et la démocratie

par L'équipe du Lab' le 20 avril 2023
Mercredi 19 avril, l'antenne d'Assas a organisé sa première table ronde sur l'intelligence artificielle, les nouveaux médias et leur impact sur la démocratie. Nathalie Sonnac, ancienne membre du CSA, David Lacombled, président de "La villa numeris" et la juriste Laure-Alice Bouvier sont intervenus.
Assas Lab

I. Quelles conséquences l’intelligence artificielle a-t-elle à ce jour sur les médias et la démocratie ?

A) De nouveaux usages des médias

Une nouvelle ère de transition numérique se présente pour les médias, qui doivent se conformer à de nouveaux standards et se numériser, sans quoi ils risquent de disparaître. Or les entreprises du numérique, bien qu’elles soient des entreprises privées, ont une empreinte grandissante sur l’espace public. Faut-il ainsi limiter l’influence de ces patrons qui n’ont pas de légitimité démocratique ?

Du fait du passage en ligne de nombreux médias, ces derniers sont de moins en moins verticaux à l’égard de la diffusion d’informations. La parole du journaliste perd ainsi en crédibilité par rapport à la parole de l’amateur. Sur nombre de nouveaux médias, en particulier les médias gratuits, en ligne et en réseaux, utilisant l’intelligence artificielle à travers leurs algorithmes d’accès à l’information, un article de journaliste et un article amateur ne sont en effet plus hiérarchisés. Chez les 15-34 ans, les réseaux sociaux sont ainsi la première source d’information, devant les journaux télévisés, papiers et la radio.

Amplifiés par cette totale liberté de publication, ainsi que par la caisse de résonance offerte par les réseaux, les discours de haine, de complotisme et la fausse information deviennent une préoccupation majeure. Un remède, bien que partiel, à la circulation de fausses informations serait de surveiller le comportement des personnes âgées qui statistiquement font circuler le plus ce type d’information, car cette population manque en général de recul face aux dérives des nouvelles technologies. La véracité des informations diffusées sur ces nouveaux médias est donc primordiale à vérifier, afin que les utilisateurs ne se détournent pas de ces réseaux qu’ils pourraient trouver trop “sales” (D. Lacombled), se dirigeant alors vers des sources d’information davantage biaisées qui ne feraient qu’accroître leur désinformation. Veillons à ce que les réseaux sociaux servent à “ouvrir l’appétit d’information” (D. Lacombled) sans en devenir la seule source.

B) Un nouveau modèle économique pour les médias

Le modèle économique médiatique a été totalement bouleversé par l’émergence des nouveaux médias. Ces derniers suivent un modèle économique dit “de plateforme”, selon lequel le média devient l’intermédiaire entre le consommateur et l’annonceur. D’une part, la plateforme médiatique met une vaste source d’information gratuite à la disposition du consommateur contre la collecte de ses données personnelles. D’autre part, elle met à disposition des emplacements publicitaires pour l’annonceur contre une rémunération. Ainsi dans ce modèle les effets de réseau avantagent le média le plus populaire (“winner-takes-all effect”), conduisant à des quasi-monopoles médiatiques. Cette situation monopolistique engendre des hausses de prix, une baisse de qualité de l’information, voire une certaine influence politique de certains nouveaux médias.

Certains réseaux sociaux sont également en passe d’adopter des sources de revenu plus diverses, provenant du consommateur et non seulement de l’annonceur. Citons Twitter depuis sa reprise par Elon Musk, qui fait payer le “tick” bleu de certification ouvrant son accès au plus grand nombre, au détriment des médias qui utilisaient ce symbole comme gage d’authenticité et de validation, comme le New York Times.

C) Un risque démocratique causé par une nouvelle répartition des pouvoirs

L’intelligence artificielle possède des “conséquences démocratiques surpuissantes” (N. Sonnac) notamment en ce qui concerne la circulation d’informations. En effet, tandis que l’espace médiatique s’élargit, les pouvoirs se concentrent ce qui menace le pluralisme des opinions. Les nouveaux médias rivalisent de puissance avec les Etats, comme l’illustre leur capitalisation boursière : la capitalisation des GAFAM fluctue aux alentours des 7000 Milliards d’euros largement supérieure au PIB Français d’environ 3000 Milliards d’euros. Ainsi, en collectant toujours davantage de données sur les utilisateurs, les nouveaux médias sont capables de fournir des informations clés en politique, comme le scandale de Cambridge Analytica l’a mis en lumière. En effet, l’intelligence artificielle est arrivée à un tel niveau de précision qu’elle prédit parfois mieux le comportement d’un individu que l’individu lui-même.

Biaisant également l’accès à l’information à travers leurs algorithmes, les nouveaux médias rendent la diffusion d’information pertinente plus ardue, ce qui n’est pas sans conséquence démocratique. Cela s’illustre chez les jeunes, qui souffrent d’une méconnaissance politique due à leur désinformation partielle, et dont l’abstention ne cesse d’augmenter.

Enfin, l’utilisation de l’intelligence artificielle dans le domaine de la sécurité s’avère être un enjeu démocratique de taille notamment en ce qui concerne l’essor de l’utilisation de caméras biométriques. Ces dernières sont déployées pour des raisons de sécurité des populations, mais font débat pour leur utilisation en Chine et leur mise en place lors des jeux olympiques à Paris. La présence humaine demeure ainsi une nécessité pour obtenir la confiance des usagers lors de l’utilisation d’un algorithme. Parcoursup, qui fait régulièrement l’objet de critiques en raison de l’utilisation d’un algorithme pour déterminer l’avenir des lycéens, en est une juste illustration.

II. Quelles pistes de réponse apporter à ces dangers ?

A) Une réglementation de l’immatériel

“L’intelligence artificielle remet en cause tous les droits” (L.A. Bouvier), rendant sa réglementation nécessaire bien qu’ardue en raison de son caractère disruptif. L’Union Européenne, place majeure dans la défense des droits humains et de la presse, doit donc s’emparer du sujet, ce qu’elle a entamé à juste titre. Premièrement, la principale législation européenne à ce sujet, le RGPD, qui réglemente la collecte et le traitement des données, s’applique depuis 2018 et permet de sécuriser les données des utilisateurs ainsi qu’un panel plus vaste d’actifs tels que les NFT. Deuxièmement, l’ “Artificial Intelligence Act”, proposé en avril 2021 par la Commission européenne, hiérarchise de manière plus poussée les plateformes médiatiques, permettant d’agir de manière graduelle selon le risque que la plateforme et ses algorithmes présentent.

Cependant, l’intelligence artificielle, qui se contente de répliquer ce qu’elle connaît, possède un fort biais dont les conséquences ne sont pas encore mesurées. Réglementer et atténuer ce biais semble difficile à ce jour, car les algorithmes développés sont très souvent gardés secrets à des fins concurrentielles. Ainsi, le problème se pose dans le métaverse, dans lequel il s’agit de réguler des éventuels comportements qui seraient répréhensibles hors de ce réseau, tel qu’un biais raciste induit par l’algorithme.

Les démocraties ont donc un rôle important à jouer afin de disposer des ressources et moyens nécessaires pour contrôler cette technologie. Tandis que la quantité de données collectées augmente de façon exponentielle, une majorité des données européennes est pourtant hébergée par les serveurs des GAFAM, sur lesquels nous n’avons que peu de contrôle. La question de la réglementation de l’intelligence artificielle est ainsi trop souvent traitée de manière locale au niveau européen, tandis que le sujet est bien plus étendu et nécessiterait une réglementation mondiale.

B) Adapter l’ensemble de l’environnement réglementaire

Plus largement, l’ensemble de l’environnement réglementaire, hérité de plusieurs siècles, doit s’adapter à marche forcée aux disruptions de l’intelligence artificielle et des nouveaux médias. L’environnement réglementaire fiscal est souvent impuissant face aux montages financiers des nouveaux réseaux. Les états cherchent la juste balance entre des taxes proportionnées et un maintien de l’innovation. Mais les évolutions des législateurs sont inertielles, de même que la jurisprudence qui évolue lentement. Ainsi, les possibles failles que l’intelligence artificielle pourrait trouver dans notre système réglementaire risquent de persister. Par exemple, l’intelligence artificielle pourrait servir à générer gratuitement des montages fiscaux à quiconque le demande, rendant l’administration fiscale bien impuissante face à cela. De façon équivalente, comment définir juridiquement la responsabilité d’une voiture autonome lors d’un accident ? Comment assurer le respect de la RGPD lorsque les données sont disséminées dans l’espace numérique ? Toutes ces questions nécessitent une adaptation de la législation, sans quoi le progrès technique ne peut être mis en pratique, comme nous le voyons actuellement avec les voitures autonomes dont la maturité de la technologie précède celle du cadre réglementaire.

C) L’enjeu crucial de la formation

            Afin d’accorder “l’orchestre pas toujours symphonique” (D. Lacombled) que représente l’intelligence artificielle et son utilisation dans les nouveaux médias, l’éducation est une nécessité. D’une part, les acteurs du cadre réglementaire, des ministères à l’ARCOM, doivent être formés à ses dangers et opportunités, afin que des décisions éclairées puissent être prises pour encourager l’innovation sans prendre de risque démocratique. A ce titre, le CSA s’est transformé en ARCOM, disposant de davantage de moyens afin de renforcer la souveraineté culturelle. D’autre part, chaque utilisateur est sujet à une sensibilisation accrue aux enjeux des nouveaux médias. Opportunités d’accès à une immense quantité d’information, bien que de qualité hautement variable, les nouveaux médias et l’intelligence artificielle qui s’y insinue prennent également note d’une partie grandissante de notre quotidien, contractant les frontières de notre vie privée. Ainsi, l’utilisation de ces réseaux n’est pas anodine et requiert une certaine éducation, passant par la détermination d’outils d’apprentissages numériques pour sensibiliser plus largement la population et limiter le désordre informationnel.

Soulignons enfin que certains domaines d’activité tels que la médecine et le droit sont des disciplines humaines qui comprennent les qualités et les défauts de cet aspect. Ainsi, leur entière robotisation n’est pas envisageable à ce jour, bien que l’intelligence artificielle puisse aider à en soulager certaines fonctions. L’humain doit donc persister moteur de la technologie, même si cette dernière acquiert un pouvoir grandissant.

Le Laboratoire
de la République

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire