Les dangers de l' IA
IA, des dangers… aussi.
La philosophe Anne Alombert alerte
IA, des dangers… aussi.
La philosophe Anne Alombert alerte
L’IA n’en finit pas de débouler en force dans notre quotidien le plus anodin ou le plus vertigineux. Que n’entend-on pas sur les mérites, les avantages, les potentialités de l’intelligence artificielle ! Sauf que toutes avancées techniques ne revêtent-elles pas, au fond, un côté préoccupant ? Toute médaille n’a-t-elle pas son revers ?
Une conférence pour tempérer les enthousiasmes
Lors de sa conférence à Bastia dans le cadre de Parolla Viva, Anne Alombert, philosophe, maîtresse de conférences à l’université Paris 8, a douché les enthousiasmes démesurés de ceux qui ont une confiance — on pourrait écrire une foi — aveugle dans les automates numériques. Telle une lanceuse d’alerte, elle a insisté sur leurs risques pour les esprits et pour les sociétés. En effet, durant la très longue histoire de l’humanité, les « progrès » n’ont-ils pas toujours été ambivalents ?
Les avertissements des penseurs critiques depuis les années 1950
S’appuyant sur des auteurs critiques, ainsi Gilbert Simondon, Georges Canguilhem, Bernard Stiegler, Maryanne Wolf, la philosophe a souligné que dès les années 50 — au moment de leur émergence — les traitements automatiques des données ont fait débat et que des penseurs, des théoriciens, des scientifiques ont refusé d’entériner les mythes nébuleux que d’aucuns voulaient assimiler à ces inventions, qualifiées ensuite de révolution numérique…
La nécessité d’une éducation à l’IA
Avant de fondre en dévotion devant les automates numériques et de recourir systématiquement à eux, n’est-il pas d’une importance capitale de se demander comment marchent ces soi-disant merveilles que certains voudraient propulser au rang d’humains ? Ces transhumanistes, par exemple ! Comment ça marche ne peut faire l’impasse de l’éducation et de la nécessité d’apprendre l’IA comme on a appris à lire et à écrire. Et n’est-ce pas à l’école que cet apprentissage doit avoir lieu et se poursuivre tout au long de la scolarité et des études ?
Des risques cognitifs, culturels et politiques majeurs
À la clé d’une démonstration argumentée et fine, Anne Alombert n’a pas manqué d’attirer l’attention sur les dangers d’utiliser par réflexes quasiment mécaniques les ChatGPT et autres Grok. Parce qu’il y a risque d’altérer gravement nos capacités mémorielles, faute d’efforts personnels pour faire fonctionner notre mémoire, vite paresseuse si elle n’est pas sollicitée. Parce qu’il y a là menace inéluctable de stériliser toute évolution culturelle si l’originalité et l’imagination sont vouées à être mises en jachère. Parce qu’inévitablement peuvent s’ouvrir toutes grandes les vannes des manipulations d’opinions, source de désinformation et de massification des comportements. Qu’on se souvienne des sophistes vilipendés par Platon et Socrate parce qu’ils se bornaient à la répétition de savoirs qu’ils n’avaient pas produits et auxquels ils pouvaient donner n’importe quelle signification et interprétation, même contradictoires. Cette leçon de sagesse héritée de l’Antiquité grecque, il serait dommage de l’oublier !
Des ouvrages pour comprendre les enjeux
Sur ces dangers de l’IA générative (qui produit des textes), on lira avec bonheur l’essai stimulant de la philosophe, « De la bêtise artificielle », paru en 2025. Des connaissances à compléter avec « Schizophrénie numérique », publié l’an dernier. Deux livres très denses qui ont l’immense avantage de faire moins de cent pages… Comme quoi, point n’est besoin d’étirer et de délayer des développements pour faire mouche et convaincre !
Michèle Acquaviva-Pache •
« De la bêtise artificielle » et « Schizophrénie numérique » sont édités par Allia. Prix : 8,50 € et 7,50 €.
ENTRETIEN AVEC ANNE ALOMBERT, maîtresse de conférences en philosophie contemporaine à l’université Paris 8
Qu’est-ce que recouvre l’expression Intelligence artificielle ?
Cette expression désigne un programme de recherche techno-scientifique et un ensemble de dispositifs industriels qui ont pour fonction de reproduire ou de simuler des fonctions que l’on a pour habitude de considérer comme caractéristiques de l’intelligence (le langage, le raisonnement, le jeu, etc.). Mais il s’agit surtout d’une expression promotionnelle : plutôt que IA, on pourrait aussi parler de traitement algorithmique de données ! Ces dispositifs impliquent en effet le fonctionnement d’algorithmes, entraînés sur des quantités massives de données, qui supposent elles-mêmes des infrastructures de stockage, comme des centres de données, très consommateurs en électricité et en eau. Il y a aussi du travail humain derrière ces systèmes : celui des concepteurs et des entrepreneurs qui élaborent les algorithmes et entraînent les gros modèles de langage, et celui des travailleurs du clic qui sont exploités pour nettoyer les jeux de données. Enfin, ces systèmes ne peuvent fonctionner que grâce aux données produites par les utilisateurs sur Internet, sur lesquelles ils sont entraînés. Il y a donc des industries très matérielles et du travail très humain qui se cachent derrière ces « intelligences artificielles » !
Que nous apprennent les réflexions de Platon ?
Dans le Phèdre, Platon s’interroge sur les effets de l’écriture sur nos capacités mémorielles : la technique de l’écriture permet d’extérioriser les connaissances, mais, de ce fait, les individus risquent de cesser d’exercer leurs mémoires et de perdre leur faculté de se souvenir, qui n’est pas innée et qui doit être entraînée ! De même aujourd’hui, quand nous utilisons des IA génératives, nous risquons d’extérioriser nos capacités expressives et de désapprendre à parler, à écrire, à débattre, à penser.
Pourquoi les IA génératives impliquent-elles des dangers ?
Les IA génératives impliquent des risques de désapprentissage et de dépendance : si les citoyens ne peuvent plus se passer de ces dispositifs pour s’exprimer, ils risquent de devenir dépendants des entreprises privées qui les produisent et d’intérioriser aussi les biais idéologiques que ces systèmes impliquent (car les gros modèles de langage sont entraînés selon les critères des entreprises propriétaires, sans consultation des populations). De plus, de tels dispositifs risquent aussi de massifier la production de fausses informations et de générer de la défiance parmi les citoyens, qui ne pourront plus croire dans les textes qu’ils lisent ou dans les images qu’ils voient.
Comment éviter ces dangers ?
Il est possible de réguler ces technologies : par exemple, en exigeant plus de transparence sur les algorithmes ou en évitant les fonctionnalités trompeuses. Le fait que ces systèmes emploient la première personne du singulier (« je ») nous incite à des projections anthropomorphiques qui peuvent devenir problématiques ! Il est également possible de développer des petits modèles d’IA plus fiables et sécurisés, moins coûteux d’un point de vue énergétique et qui permettent de réaliser des tâches déterminées sans se substituer au langage et aux relations humaines. Il existe aussi des plateformes collaboratives, comme Wikipedia.org ou Tournesol.App, qui permettent le partage, la délibération, la réflexion : les algorithmes peuvent donc être mis au service de l’intelligence collective. Enfin, il est nécessaire de renforcer l’éducation aux médias et à la culture technique numérique, pour donner aux citoyens le pouvoir de comprendre leurs environnements connectés et de les transformer.
Propos recueillis par M. A-P
Photos : Editeurs et M.A.P