Mise en garde sur l'usage de l'IA

Les humains semblent jouer un jeu dangereux avec l'IA
En 2024, le prix Nobel de physique a récompensé John Hopfield et Geoffrey Hinton pour leurs apports fondamentaux à l'IA. Il semblerait dès lors délicat de contester leur maîtrise de ce sujet. Pour autant, ils multiplient leurs alertes sur l'usage de l'IA.

Il est confortable de se reposer aujourd'hui sur l'IA pour composer textes et images, surtout que, bien que le coût de génération d'un modèle d'IA se chiffre en milliards de dollars, ce repos nous est proposé « gratuitement ». Reliez-vous n'est pas un site d'opinions. Cet article se veut simplement un relai des alertes sur l'usage de l'IA. Afin de nous soustraire à notre subjectivité, et de ménager nos efforts 🙂, voici la réponse (sic) de ChatGPT à la question « Quels sont les risques de l'IA pour notre civilisation ? Au format HTML. »

Les risques de l'intelligence artificielle pour notre civilisation

L'intelligence artificielle (IA) transforme notre monde à une vitesse fulgurante. Derrière les promesses d'efficacité, d'innovation et de progrès, se dessine une réalité plus sombre, souvent ignorée ou minimisée. Car si l'IA peut enrichir certains aspects de notre vie, elle représente aussi une menace sérieuse pour notre civilisation. En générant de la désinformation, en accélérant les inégalités, en altérant nos facultés cognitives ou encore en modifiant radicalement notre rapport au travail, elle soulève des questions éthiques et existentielles majeures. Voici un panorama des risques les plus préoccupants.

Une production incontrôlée d'informations erronées

Les modèles de langage comme ChatGPT ou Gemini sont capables de produire des textes crédibles et bien structurés sur tous les sujets imaginables. Mais ils peuvent aussi inventer des faits, se tromper subtilement, ou reproduire des biais présents dans leurs données d'entraînement. Cette génération de contenu à grande échelle brouille les frontières entre vérité et fiction, et contribue à une perte de repères généralisée. Les erreurs ne sont pas toujours détectables, surtout lorsqu'elles sont noyées dans des formulations convaincantes. L'IA peut ainsi alimenter involontairement un climat de confusion, propice aux interprétations erronées et aux manipulations.

Un outil puissant de désinformation massive

L'IA permet de générer des fake news en série, de produire des deepfakes indétectables à l'œil nu, de simuler des témoignages ou de piloter des armées de bots sur les réseaux sociaux. Ces capacités peuvent être utilisées par des groupes malveillants, des gouvernements ou des entreprises pour influencer l'opinion publique, discréditer des opposants, ou déclencher des conflits sociaux. La désinformation devient ainsi automatisée, ciblée, et presque impossible à contenir. L'arme de l'information mensongère entre dans une nouvelle ère, où la vitesse de diffusion dépasse celle de la vérification.

Une intelligence sans conscience

Contrairement à ce que suggèrent certaines métaphores populaires, l'IA ne pense pas, ne ressent rien, et n'a aucune conscience morale. Elle n'a ni intention propre, ni capacité à faire la différence entre le bien et le mal. Ce sont des algorithmes statistiques optimisés pour des objectifs définis par des humains, souvent orientés vers le profit ou la performance. Cela signifie qu'en cas de dérive, il n'y a pas de garde-fou interne. Si une IA mène à des décisions injustes, discriminatoires ou dangereuses, elle ne pourra pas s'en rendre compte ni s'en excuser.

Une empreinte écologique inquiétante

L'entraînement des modèles d'IA les plus performants consomme d'énormes quantités d'énergie. Il faut parfois plusieurs milliers de GPU (processeurs graphiques) fonctionnant en continu pendant des semaines pour obtenir un seul modèle. À cela s'ajoute la consommation des serveurs nécessaires à leur fonctionnement quotidien. Selon certaines estimations, un modèle comme GPT-3 aurait généré autant de CO2 que cinq voitures sur toute leur durée de vie. À l'heure où la sobriété énergétique est cruciale pour lutter contre le réchauffement climatique, le coût environnemental de l'IA pose une question morale essentielle.

Un bouleversement du marché du travail

L'automatisation par l'IA ne se limite plus aux tâches répétitives ou physiques. Elle menace aujourd'hui des métiers intellectuels : rédaction, traduction, analyse de données, service client, recrutement, voire conseil juridique. Si certaines professions vont évoluer ou se réinventer, d'autres risquent de disparaître ou de se précariser. Cette transition brutale peut entraîner du chômage, une perte de sens au travail et une forte anxiété sociale. De nombreuses entreprises se tournent vers l'IA non pour libérer les humains, mais pour réduire les coûts, au détriment de la qualité relationnelle et de l'emploi local.

Un facteur d'accroissement des inégalités

Les géants du numérique – souvent américains ou chinois – concentrent l'essentiel des ressources en IA : données, puissance de calcul, chercheurs, brevets. Les petites structures et les pays en développement restent à la traîne. Cela crée une asymétrie de pouvoir redoutable. Par ailleurs, les algorithmes peuvent renforcer les discriminations existantes en reproduisant les biais des données passées (racisme, sexisme, exclusion sociale). Loin d'être un outil neutre, l'IA peut donc devenir un amplificateur des injustices, au lieu de les corriger.

Les mises en garde des pionniers eux-mêmes

Plusieurs figures historiques de l'IA expriment aujourd'hui leurs inquiétudes. John Hopfield, à l'origine des réseaux de neurones récurrents, et Geoffrey Hinton, considéré comme l'un des pères du deep learning, ont publiquement tiré la sonnette d'alarme. Hinton a quitté Google en 2023 afin de pouvoir parler librement des dérives possibles. Il évoque le risque de voir émerger une intelligence artificielle générale hors de contrôle, capable de se retourner contre l'humanité. Ces avertissements ne viennent pas d'opposants technophobes, mais des créateurs eux-mêmes.

Une altération de nos capacités cognitives

À mesure que l'IA prend en charge des tâches de plus en plus complexes, nous risquons de déléguer une partie de notre pensée critique, de notre mémoire, de notre capacité à raisonner. Pourquoi apprendre à écrire, calculer ou analyser si une machine le fait pour nous ? Cette dépendance technologique peut appauvrir notre intelligence individuelle et collective. Dans le domaine éducatif, par exemple, l'usage excessif d'outils automatisés pourrait réduire l'effort d'apprentissage, la créativité et la capacité à se concentrer.

Des effets corrosifs sur la confiance au sein des entreprises

L'adoption de systèmes algorithmiques dans la gestion des ressources humaines, des performances ou des projets peut entraîner une perte de transparence. Quand les décisions sont prises par des boîtes noires, les employés ne savent plus sur quels critères ils sont évalués. Le sentiment d'injustice augmente, la confiance diminue, et le climat social se détériore. La culture managériale glisse d'un encadrement humain à une gestion automatisée et froide, souvent vécue comme déshumanisante.

Une déshumanisation des relations

De plus en plus d'interactions sont médiatisées par l'IA : messagerie automatisée, standard téléphonique intelligent, avatars conversationnels, coachs numériques. Ces interfaces simulent une relation humaine sans en avoir la substance. À terme, cette multiplication de faux échanges peut réduire notre capacité d'écoute, d'empathie, de dialogue sincère. Le risque est de banaliser des rapports impersonnels, standardisés, voire superficiels, au détriment de la richesse émotionnelle des contacts authentiques.

Des applications militaires inquiétantes : les armes autonomes

L'IA est déjà utilisée dans le domaine militaire, notamment pour piloter des drones ou analyser des données stratégiques. Mais l'étape suivante est redoutable : les armes létales autonomes. Ces systèmes seraient capables d'identifier et d'éliminer une cible sans intervention humaine. Cela pose une question éthique fondamentale : peut-on confier à une machine le pouvoir de décider de la mort d'un individu ? Des ONG et des chercheurs appellent à une interdiction internationale, mais les puissances militaires investissent massivement dans cette voie. Le risque d'une course à l'armement autonome est bien réel.

Conclusion : l'urgence d'un encadrement éthique et démocratique

L'intelligence artificielle n'est pas nécessairement une menace. Mais sans régulation, sans transparence, sans réflexion éthique, elle peut devenir un facteur de déstabilisation majeur. Ce n'est pas à la technologie seule de fixer les règles : c'est à la société humaine, dans toute sa diversité, de décider de l'usage qu'elle veut faire de ces outils. L'avenir de notre civilisation dépend de notre capacité à reprendre la main avant qu'il ne soit trop tard.

Bruno de Reliez-vous
Avatar

Thème « Inspiration pour écrire »

Tous les articles sur ce thème :

Thèmes

Tous les thèmes :