IAg et neutralité de la technique
☙ Posté le 21-07-2025
| ⏱ 22 minutes
| ✔ 4664 mots
✎ Christophe Masutti
Ceci est une note de synthèse qui s’inspire en partie des thèmes et arguments abordés dans l’article : « ChatGPT, c’est juste un outil ! : les impensés de la vision instrumentale de la technique » par Olivier Lefebvre.
Dans la mesure où les thèmes en question ont tous déjà été abordés par d’autres auteurs, j’y ajoute des contextes, des réflexions et des références comme autant de pistes d’ouverture au sujet de la non-neutralité de la technique.
Commençons par un fait : les entreprises des Big Tech qui travaillent sur les IA génératives ont tout à gagner de considérer ces dernières comme des outils.
Table des matières
Les arguments marketing de Microsoft présentent Copilot comme un assistant permettant de délester les humains des tâches fastidieuses pour qu’ils se concentrent sur des tâches à plus haute valeur ajoutée. C’est une vision où l’IA est clairement un outil d’appoint, sans autonomie créative réelle, orientée dans un seul but, la productivité.
D’autres voix plus subtiles se font toutefois entendre. Andrew Ng, co-fondateur de Google Brain, s’exprime à ce sujet devant un journaliste de The Economic Times le 17 juillet 2025. Il minimise l’idée d’une intelligence artificielle générale imminente, qualifiant de « ridicules » les peurs » selon lesquelles ces systèmes remplaceraient massivement les humains. Pour lui, l’IA doit être un outil permettant d’augmenter l’humain, pas un substitut de la créativité ou du raisonnement. Ce faisant il formule une comparaison avec l’électricité : selon Ng, l’IA est une technologie neutre dont l’impact dépend entièrement de la façon dont elle est utilisée :
« L’IA n’est ni sûre ni dangereuse. C’est la façon dont vous vous en servez qui la rend telle », a-t-il déclaré. « Comme l’électricité, l’IA peut alimenter d’innombrables applications positives, mais elle peut aussi être utilisée de manière préjudiciable si elle est mal gérée. »
Considérer les IA génératives ou n’importe quelle autre technique comme un « simple outil », cela revient à adopter une approche instrumentale de la technique. C’est une approche volontairement réductrice, qui présuppose la neutralité des technologies, et élude les conditions matérielles, sociales, économiques et politiques de leur existence. Elle masque également les transformations profondes que ces systèmes techniques induisent dans nos manières de vivre, de penser, de produire, et d’interagir.
Nous savons depuis longtemps que la technique n’est pas neutre. Et pourtant, le sujet revient comme un marronnier : il est toujours renouvelé par ceux qui ont un intérêt à réduire la technique à ses aspects purement utilitaires. Les IA génératives ne relèvent pas uniquement de l’outillage fonctionnel, mais participent à la reconfiguration des structures sociales et des subjectivités contemporaines. Elles doivent être pensées comme des systèmes techniques complexes, produits par un faisceau de déterminations économiques, énergétiques, géopolitiques et culturelles, et non comme de simples extensions de la main humaine.
IAg, c’est quoi ?
Une Intelligence Artificielle générative (IAg) est un type d’IA capable de générer du contenu original (texte, images, musique, code, etc.) qui n’existait pas avant. On ne peut pas vraiment parler de création dans la mesure où, pour entraîner de telles IA, il faut utiliser des corpus et des bases de données issus de la création humaine et dont s’inspire l’acte de génération de contenus par ces IA : des milliards de textes, d’images, de musiques, de vidéos, etc.. Évidemment, cela soulève de nombreuses questions liées au droit d’auteur et à la somme énergétique et technologique mobilisée pour ces entraînements.
On peut avoir un aperçu des enjeux liés aux IA sur Framamia.
L’idée de réaliser des systèmes automatisés permettant de reproduire la « créativité » humaine et le raisonnement est une idée fort ancienne. Retenons, en gros, que pour réaliser ceci on utilisait auparavant des programmes qui donnaient à la machine des suites d’instructions (des algorithmes) pour générer par exemples des phrases ou des formes aléatoires. Il manquait alors deux choses aux IA : de la puissance de calcul, et la possibilité d’entraîner des modèles d’IA sur des immense quantités d’informations accessibles notamment grâce à Internet.
Les LLM (Larges Language Models) sont des IAg spécialisées dans le langage. Ils sont devenus de plus en plus performants et sont aujourd’hui couplés avec d’autres générateurs d’image voire de vidéos, si bien que ChatGPT, Gemini et consors, sont en réalité des services de prompteurs auxquels on soumet des requêtes en langage naturel pour obtenir une production de texte, d’image ou autre.
Pour donner une idée de la manière dont les LLM ont progressé, on peut parler de l’architecture d’apprentissage machine basée sur les transformeurs (on parle aussi d’auto-attention du système), une méthode introduite en 2017 par des chercheurs de Google Brain et Google Research (Vaswani et al. 2023). Avant 2017, on basait l’apprentissage sur une analyse séquentielle : pour comprendre une phrase, les modèles lisaient les mots un par un. Pour un humain, c’est une chose parfaitement banale car nous apprenons et comprenons le sens des mots. Mais pour une machine qui lit un texte mot après mot, elle doit se souvenir de tous les mots précédents pour déterminer le sens d’une phrase.
Mais même à l’intérieur d’une phrase, cela peut s’avérer compliqué. Prenons celle-ci : « Le petit Nicolas, qui avançait sur le chemin de l’école en compagnie de son amie Valentine vêtue d’une jolie robe rouge, avait oublié son cartable ». Il est difficile, pour une analyse séquentielle, de faire le lien entre Nicolas et « son cartable ». Le mécanisme de l’auto-attention permet de lire de manière simultanée tous les mots d’une phrase et d’en calculer une importance ou une relation des uns avec les autres. Ainsi, des mots très éloignés les uns des autres pourront bénéficier d’une analyse de pondération permettant de connaître le poids de leurs relations. Pour l’apprentissage machine, cela permet non seulement d’être plus efficace mais aussi de traiter de manière beaucoup plus rapide des milliards de phrases.
Les IAg sont-elles de simples outils « comme les autres » ?
Que veut-on dire lorsqu’on compare des outils ? Est-ce que cela a un sens que de comparer un marteau et un ordinateur ? Ce qu’on fait la plupart du temps lorsqu’on compare des outils, c’est comparer leurs finalités. On en arrive toujours à quelques banalités : un marteau peut servir à enfoncer un clou ou fracasser un crâne, tout dépend de qui s’en sert et dans quelle intention. La conclusion consiste toujours à en tirer un argument fallacieux : une technique serait toujours neutre, indépendante des usages et des conditions de sa production. Est-ce le cas ? bien sûr que non.
C’est un vieux problème
Dans le Gorgias, Platon opposait deux points de vue au sujet de la rhétorique, fondement de l’art politique qui, selon Platon est une technê (Platon, 2024). Il y a le point de vue du sophiste Gorgias, d’un côté, qui considère la rhétorique comme une technique neutre, pour laquelle il n’y aurait ni bon ni mauvais usage, un simple moyen, un instrument. De l’autre côté, celui de Socrate pour lequel aucune technique n’est neutre : l’efficacité d’une technique dépend de choix politiques et économiques pour utiliser une technique plutôt qu’une autre et quelle que soit la finalité, une technique n’existe pas seule.
Plus contemporain de nous, Jacques Ellul (Ellul, 1954) s’intéressait à la notion de système technique. Il montrait que les techniques forment des systèmes dotés d’une sorte d’autonomie car ils finissent par imposer à l’homme des usages (pensons par exemple à l’immédiateté de nos communications téléphoniques), et créent toujours une dépendance (pensons par exemple à la dépendance de notre société à la voiture).
Langdon Winner, dans La baleine et le réacteur (Winner, 2022) revient lui aussi sur la question de la vision instrumentale de la technique et montre que la réduction de l’outil à une objet axiologiquement neutre revient à isoler l’outil du reste du monde, y compris de ses conditions d’existence. Cela revient aussi, toujours selon L. Winner, à renforcer le mythe du progrès en le présentant comme un phénomène naturel et par définition incontrôlable. La seule solution consisterait donc à s’adapter individuellement à l’outil et au progrès (on verra plus loin à quel point cet argument revient à l’ère néolibérale).
Dans son article « Mythinformation in the high-tech era » (Winner, 1984), L. Winner définit la Mythinformation comme la « conviction quasi-religieuse qu’une adoption généralisée des ordinateurs et des systèmes de communication, ainsi qu’un large accès à l’information électronique, produiront automatiquement un monde meilleur pour l’humanité ». Il montre que la question du supposé besoin du traitement de l’information concentre l’informatique sur la seule acception d’outil, ou de boîte à outils, comme une réponse à tous nos besoins. Et cela élude complètement (c’est moins le cas aujourd’hui puisque nous sommes capables de penser le capitalisme de surveillance) le fait que ces prétendus outils créent de nouvelles institutions, comportements et formes de pouvoir.
En suivant un processus progressif d’améliorations technologiques, les sociétés créent de nouvelles institutions, de nouveaux modèles de comportement, de nouvelles sensibilités et de nouveaux contextes pour l’exercice du pouvoir. En qualifiant ces changements de « révolutionnaires », les gens reconnaissent tacitement qu’ils ont besoin une réflexion, voire d’une action publique forte pour s’assurer que les résultats sont souhaitables. Or, dans notre société, les occasions de réfléchir, de débattre et de faire des choix publics sont désormais rares. Les décisions importantes sont laissées aux mains d’acteurs privés inspirés par des motifs économiques étroitement ciblés. Bien qu’il soit largement reconnu que ces décisions ont des conséquences profondes sur notre vie commune, peu de gens semblent prêts à admettre ce fait. Certains observateurs prévoient que la révolution informatique sera guidée par les nouvelles merveilles de l’intelligence artificielle. Son cours actuel est influencé par quelque chose de beaucoup plus familier : l’absence d’esprit.
– L. Winner, « Mythinfonnation in the high-tech era », p. 596.
On ne compare pas des outils mais des systèmes techniques
On peut aisément comprendre que comparer une IAg et un marteau pose au moins un problème d’échelle. Il s’agit de deux systèmes techniques dont les conditions d’existence n’ont rien de commun. Si on compare des systèmes techniques, il faut en déterminer les éléments matériels et humains qui forment le système.
Un système technique peut être par exemple composé d’un menuisier, d’une planche, d’un clou et d’un marteau. Ses conditions socio-technique seront (entre autres) : la formation du menuisier, son humeur du jour, l’industrie qui a fabriqué le métal (du marteau et du clou), l’ingénierie qui a dessiné l’ergonomie du manche du marteau… Somme toute, à part l’industrie (minière et métallifère) et l’économie qui conditionnent le façonnage et le transport du métal du marteau, et comme il y a de forte chance que le marteau ai été importé d’un pays de production, le système technique a finalement assez peu de facteurs. L’empreinte matérielle et les conditions sociales de production sont limitées et assez facilement identifiables. Les conditions et conséquences environnementales, sociales, économiques et politique de la production de marteau, de clous et de planches, ainsi que les déterminants sociaux qui amènent un humain à choisir le métier de menuisier, sont elles aussi facilement identifiables.
Qu’en est-il des IAg ? L’inventaire est beaucoup plus long :
- des datacenters dont les constructions se multiplient, entraînant une croissance vertigineuse des besoins en électricité,
- des réseaux de télécommunication étendus et des usines de production de composants électroniques, ainsi que des mines pour les matières premières qui sont elles mêmes assez complexes (plus complexes que les mines de fer) et entraînent des facteurs sociaux et géopolitiques d’envergure,
- les investissements colossaux (en milliards de dollars) en salaires d’ingénieurs en IA, en infrastructures de calcul pour entraîner les modèles, en recherche, réalisés dans une perspective de rentabilité,
- l’exploitation humaine : des millions de personnes, majoritairement dans les pays du Sud, sont payées à la tâche pour labelliser des données, sans lesquelles l’IA générative n’existerait pas,
- le pillage d’une immense quantité d’œuvres protégées par droits d’auteurs pour l’entraînement des modèles.
- et nous pouvons rattacher plein d’autres éléments en cascade pour chacun de ceux cités ci-dessus.
On conçoit aisément que comparer les deux systèmes techniques, celui du marteau et celui d’une IAg comme ChatGPT, revient à comparer un système dont les conditions socio-techniques restent encore mesurables, avec un système dont l’envergure et les implications sociales sont gigantesques et à l’échelle mondiale. Quant à l’usage lui-même l’action du marteau restant simplissime, on ne peut pas en dire autant d’une IAg qui mobilise toute une infrastructure faite de logiciels, de réseaux, de serveurs dotés de puces électroniques spécifiques.
Postuler la neutralité des techniques revient à minimiser l’importance de leurs enjeux
L’affirmation selon laquelle une IAg ne serait qu’un simple outil s’inscrit dans une vision instrumentale de la technique, qui présuppose que l’objet est neutre, sous le contrôle de son utilisateur, et que ses effets ne dépendent que de l’usage qu’on en fait.
Ce discours cherche à désamorcer les inquiétudes que l’arrivée des IAg suscite. En ramenant cette technologie particulière dans le champ général et indifférencié des « outils » il circonscrit la réflexion dans un cadre connu et rassurant : chacun a une vision assez simpliste de ce qu’est un outil dans le sens d’un prolongement de la main et de l’action mécanique de l’homme sur son environnement, ce que l’anthropologue André Leroi-Gourhan nommait la technogénèse dans son article de l’Encyclopédie Française de 1936, « L’homme et la nature » (Beaune, 2011). Même à ce sujet, on sait désormais que les choses sont… plus compliquées.
Ce discours a pour effet d’invisibiliser de nombreux aspects cruciaux des IAg, tels que leurs conditions d’existence et la manière dont elles transforment la société, comment elles structurent de nouveau habitus du quotidien, ou encore leurs effets sur nos propres structures cognitives, culturelles et épistémiques.
L’autonomie de la technique
Ce discours a en réalité une intention : participer à la banalisation tout en nous empêchant de penser la complexité des effets des techniques et d’adopter les mesures appropriées, par exemple leur régulation. Il propage un sentiment de résignation, affirmant que la technologie est un « déjà-là » et que la question n’est plus de s’opposer ou de réfléchir, mais « comment on va vivre avec ».
Ce faisant cette vision instrumentale de la technique implique un paradoxe : alors qu’elle prétend que l’utilisateur a toujours le contrôle d’une technique supposée neutre, ce « déjà-là » de la technique implique au contraire une absence de contrôle, comme si l’humain était lui-même l’instrument d’une technique en processus d’autonomisation.
C’est mal poser le problème. Il y a effectivement, comme le disait J. Ellul, une forme d’autonomisation des systèmes techniques en ce qu’ils produisent des effets de dépendance. Mais cette autonomie de la technique n’est pas une tragédie dans laquelle nous serions au prises d’un destin décidé par des techno-divinités tissant les fils invisibles de notre soumission aux technologies aliénantes. Tout comme nous serions soumis aux aléas de la nature, notre destin serait non seulement d’utiliser des techniques pour nous extraire de notre condition servile mais aussi de subir les conséquences de nos usages techniques : le mythe de Prométhée sans cesse renouvelé. C’est une mauvaise lecture. Le feu n’a pas été donné par un Titan pas plus que les IAg n’ont été créés par des dieux.
L’exemple de l’automobile est assez parlant. Son déploiement s’est accompagné du développement de vastes infrastructures routières et pétrolières, structurant les banlieues résidentielles et l’industrie. En façonnant un monde adapté à elle, l’automobile est devenue incontournable, entraînant un verrouillage socio-technique où le choix d’utiliser ou non la voiture a perdu une grande partie de son sens. C’est cela l’autonomie des systèmes techniques : pour en sortir, il faut des révolutions socio-techniques : il y en a eu par le passé, il y en aura encore, plus ou moins rapides et subites ou lentes et progressives.
L’informatisation de la société a suivi une trajectoire similaire : un auto-renforcement entre le développement des infrastructures (réseaux, terminaux) et la multiplication des usages encastrés dans nos modes de vie. Ce processus a conduit à des situations où certaines activités quotidiennes ne sont possibles que par la médiation du numérique. Les IAg sont un prolongement de cette trajectoire, s’appuyant sur la disponibilité massive de données et l’habitude d’utiliser des applications numériques.
L’inéluctabilité est un discours néolibéral
La vision instrumentale de la technique présente celle-ci comme le résultat inéluctable de la « poursuite du progrès ». On y retrouve des discours éculés : le défaitisme devant le monde qui change, l’impossibilité d’élaborer des alternatives, le fait de masquer que les techniques sont aussi issues de choix sociaux et politiques (qui subventionne quoi et au nom de qui ?), ou encore l’argument de la jeunesse qui, par définition, serait toujours plus prompte à s’emparer des outils plus complexes que ce qu’ont connu leurs aînés.
On sait néanmoins que l’argument de la jeunesse a fait long feu. La sociologie a su démontrer que les usages des outils numériques dans la jeunesse sont non seulement très différenciés mais mettent aussi à jour les inégalités d’accès et, partant, les inégalités sociales (Cordier, 2023).
Ce qui rend véritablement inéluctable le déploiement d’une technologie est précisément la croyance partagée dans son aspect inéluctable. Or, nous avons vu qu’une technologie n’a rien d’inéluctable, elle est le fruit de tout un faisceau de conditions matérielles et sociales. Prétendre qu’un système technique dans un état E à un instant T est le résultat inéluctable de quoi que ce soit revient à pretendre que cet état est le fruit d’une finalité extrinsèque aux conditions métérielles et sociales, une finalité postulée, un retour à la volonté divine d’ordre prométhéen.
Pire, voici un nouveau paradoxe : prétendre l’inéluctabilité d’une technique reviendrait à figer celle-ci dans le temps, comme le résultat d’une démarche préexistante, au détriment de l’idée même de « progrès », c’est-à-dire de changement permanent dont le bénéfice est tout aussi postulé.
Quelle est l’intention derrière ce discours de l’inévitabilité du déploiement des IAg ? Il s’agit de contribuer à un sentiment de résignation et d’impuissance, suggérant qu’il n’y a pas d’autre choix que de s’adapter. On postulera donc que la jeunesse maîtrise mieux ces outils pour pousser le reste de la population à une adaptation contrainte par la peur du dépassement et de l’inutilité.
C’est toute l’injonction néolibérale qui se trouve ici résumée.
Le néolibéralisme a mit un demi-siècle pour imposer au monde ses principes. Alors que le libéralisme pensait à un « homme économique », le néolibéralisme pense l’homme en situation de concurrence permanente, c’est un humain « entrepreneur de lui-même », un mélange de volontarisme individuel et d’abdication des valeurs collectives et de commun. M. Foucault l’analysait ainsi dès 1979 : « Il s’agit de démultiplier le modèle économique, le modèle offre et demande, le modèle investissement-coût-profit, pour en faire un modèle des rapports sociaux, un modèle de l’existence même, une forme de rapport de l’individu à lui-même, au temps, à son entourage, à l’avenir, au groupe, à la famille. » (Foucault, 2004)
Dans nos subjectivités à tout instant l’injonction néolibérale résonne. C’est l’objet du livre de Barbara Stiegler (Stiegler, 2019) qui résume la conception de Walter Lippmann, selon lequel l’homme est incapable de s’adapter par nature à un état du monde qui s’impose et ne négocie pas (l’état économique industriel et productiviste) et que c’est à l’État d’impulser la transformation de l’humain par l’éducation ou l’hygiénisme. Il en résulte cette injonction permanente, soit par des techniques comme le nudge et le jeu de l’influence-surveillance des individus, soit par l’autorité parfois brutale qui nous soumet aux dogmes néolibéraux.
L’inéluctabilité des IAg est postulée parce que ces IAg ont été créés aussi dans un monde économique néolibéral qui nécessite une adaptation permanente aux techniques produites dans le cadre imposé. C’est un exercice de style qui vise à détruire toute possibilité d’émergence d’alternative qui ne soit pas issue des institutions du néolibéralisme. L’enjeu est de couper court à toute idée d’autogouvernance (pour ne pas dire autogestion) des outils numériques, et à toute possibilité de réflexion collective qui irait à l’encore des logiques de marché.
L’individu devant les IAg
La vision instrumentale de la technique, qui considère que les effets d’une technologie sont intégralement déterminés par les usages individuels, tend à occulter la manière dont les technologies, comme les IAg, transforment et structurent la société tout entière. Les effets sociaux des IAg ne sont pas simplement la somme des effets des usages individuels. L’utilisation des IAg redéfini les standards de productivité : le choix d’utiliser une IAg pour rédiger un rapport d’activité ou un compte-rendu de réunion implique d’y passer moins de temps au risque peut-être des erreurs de transcription que collectivement on choisi ou pas d’accepter, de même à l’école autoriser l’IAg pour rédiger un devoir implique de défavoriser l’élève qui choisirait de ne pas l’utiliser (ou serait contraint de ne pas l’utiliser à cause de l’inégalité d’accès).
On rejoint la question de l’autonomie de la technique : tout système technique implique forcément ses propres normes si bien qu’une société technicienne est une société de la surveillance et de conditionnement.
C’est ce que montrait M. Foucault dans Surveiller et punir (Foucault, 1975) : le panoptique est un modèle de pouvoir où la surveillance devient structurelle : le surveillant est invisible, l’individu conscient d’être potentiellement observé et ce modèle de dispositif s’étend aux écoles, à la clinique (Foucault, 2003), aux administrations, aux entreprises.
L’effet social des IAg s’inscrit dans cette logique : la présence de l’outil qui automatise des tâches crée une forme de contrôle disciplinant, où la conformité (usage ou non de l’IA) produit un état normatif.
On revient de même au discours néolibéral de l’adaptation forcée : la diffusion des IAg devient un instrument de gouvernementalité douce, incitant chacun à optimiser sa propre productivité, comme si nous étions toujours en mesure de choisir et de contrôler l’usage de ce « simple outil ». Ne pas utiliser les IAg reviendrait à se marginaliser socialement.
En fait, l’outil technique s’insère dans un système normatif :
- J. Ellul : la technique impose une standardisation productive, une efficacité comme valeur commune réduisant la liberté individuelle face au système
- M. Foucault : les dispositifs techniques disciplinaires (panoptique, biopolitique) normalisent les corps et les pratiques
Les sociologues comme Langdon Winner, Bruno Latour, ou Andrew Feenberg ont montré que les technologies structurent les relations sociales, les institutions, et autorisent de nouveaux rapports de pouvoir :
- Langdon Winner parle de « technologies politiques » qui incorporent des choix moraux ou politiques dans la structure même des artefacts.
- B. Latour insiste sur les réseaux socio-techniques (théorie de l’acteur-réseau) où les objets techniques jouent un rôle d’actants influant sur les comportements.
- A. Feenberg critique la neutralité technique qui individualise l’usage, proposant une politique de la technologie : l’usage n’est pas suffisant pour comprendre la technique qui, selon lui, est principalement influencée par les structures sociales. D’où l’importance aujourd’hui de (Re) Penser la technique (Feenberg, 2004).
La technique est intrinsèquement politique et sociohistorique
C’est la thèse du philosophe espagnol Almazán Gómez (Almazán Gómez, 2020).
La technique selon Almazán Gómez
- Un objet technique n’est rien s’il est isolé de l’ensemble technique auquel il appartient et des pratiques instrumentales correspondantes. Par exemple, un arc n’est pas seulement un objet, mais est lié à des gestes, à un ensemble technique plus vaste et à des dimensions symboliques (chasse, virilité, rites de passage).
- tout objet technique a un caractère sociohistorique. Les techniques sont des créations sociales radicales qui expriment différentes manières d’appréhender et de se situer dans le monde.
- Le lien entre la société, l’individu et l’objet technique est réversible. La société crée la technique, mais la technique façonne à son tour l’individu et les nécessités sociales (par exemple, le chasseur crée l’arc, mais l’arc crée aussi le chasseur en modelant son corps, sa vision du monde, son rôle social). On pourra aussi se reporter au chapitre de Pierre Clastre L’arc et le panier (Clastres, 2011).
- Le changement technique n’est pas additif, mais transformiste : l’ajout d’une technique (comme la presse à imprimer) transforme qualitativement la société tout entière.
La technologie selon Almazán Gómez
- La Technologie est la forme concrète prise par la technique dans les sociétés capitalistes modernes.
- Son émergence est liée à l’obsession croissante de la mécanique, la constitution du mythe du Progrès et l’apparition de la technoscience.
- La technologie est l’union de la science et de la technique dans un cadre institutionnel visant à systématiser et améliorer le processus d’invention, dans le but d’augmenter la richesse et le bien-être social.
Le paradigme de la neutralité technologique a des conséquences :
- renforce le mythe du progrès comme une amélioration irréversible qui réduit le progrès moral et social au progrès scientifique et technologique.
- conduit à un “credo mécanique” ou “religion industrielle”, où le développement technologique devient un impératif social, déifiant la technologie comme substitut à Dieu et promouvant l’idée de solutions technologiques à tous les problèmes humains.
- masque la nature sociohistorique de la technologie, les choix qui la guident et les intérêts en jeu.
- alors que la technologie a toujours été dépendante des pouvoirs politique et économique (militaires, industriels cherchant à augmenter la productivité et le profit).
À tout cela, selon Almazán Gómez il faut répondre par le paradigme de la non-neutralité de la technique. L’accumulation des techniques a entraîné une transformation qualitative de la société qui ne peut être réduite à une simple somme d’outils neutres. Il faut envisager le rapport à la technique selon une approche totale de la société : le capitalisme industriel, le changement climatique. On y ajoutera une transformation des imaginaires pour en finir avec la technolâtrie et le prométhéisme et revenir à une pensée des limites et de l’autosuffisance. La critique doit porter sur la réversibilité des techniques, une lutte pour se réapproprier la capacité de transformer nos techniques.
Références
ALMAZÁN GÓMEZ, Adrián, 2020. La non-neutralité de la technologie. Une ontologie sociohistorique du phénomène technique. Écologie et politique. 2020. Vol. 61, pp. 27‑43.
BEAUNE, Sophie A. de, 2011. La genèse de la technologie comparée chez André Leroi-Gourhan. Documents pour l’histoire des techniques [en ligne]. 2011. N° 20, pp. 197. [Consulté le 21/7/2025]. Disponible à l’adresse : https://shs.hal.science/halshs-00730327
CLASTRES, Pierre, 2011. La société contre l’État: recherches d’anthropologie politique. Paris, France : les Éditions de Minuit. ISBN 978-2-7073-2159-6.
CORDIER, Anne, 2023. Grandir informés: les pratiques informationnelles des enfants, adolescents et jeunes adultes. Caen, France : C&F éditions. ISBN 978-2-37662-065-5.
ELLUL, Jacques, 1954. La technique ou l’enjeu du siècle. Paris, France : Armand Colin.
FEENBERG, Andrew, 2004. (Re)penser la technique: vers une technologie démocratique. Paris, France. ISBN 978-2-7071-4147-7.
FOUCAULT, Michel, 1975. Surveiller et punir. Naissance de la prison. Paris : Gallimard.
FOUCAULT, Michel, 2003. Naissance de la clinique. Paris, France : Presses universitaires de France. ISBN 978-2-13-053639-0.
FOUCAULT, Michel, 2004. Naissance de la biopolitique: cours au Collège de France, 1978-1979. Paris, France : EHESS : Gallimard : Seuil. ISBN 978-2-02-032401-4.
LEFEBVRE, Olivier, 2025. « ChatGPT, c’est juste un outil ! » : vraiment ? Terrestres [en ligne]. 28/6/2025. [Consulté le 21/7/2025]. Disponible à l’adresse : https://www.terrestres.org/2025/06/28/chatgpt-cest-juste-un-outil/
PLATON, 2024. Gorgias. Paris, France : Flammarion. ISBN 978-2-08-045166-8.
STIEGLER, Barbara, 2019. « Il faut s’adapter » : sur un nouvel impératif politique. Paris, France : Gallimard. ISBN 978-2-07-275749-5.
VASWANI, Ashish, SHAZEER, Noam, PARMAR, Niki, USZKOREIT, Jakob, JONES, Llion, GOMEZ, Aidan N., KAISER, Lukasz et POLOSUKHIN, Illia, 2023. Attention Is All You Need [en ligne]. 2/8/2023. arXiv. arXiv:1706.03762. [Consulté le 21/7/2025]. Disponible à l’adresse : http://arxiv.org/abs/1706.03762
WINNER, Langdon, 1984. Mythinformation in the high-tech era. Bulletin of Science, Technology & Society [en ligne]. 1/12/1984. Vol. 4, n° 6, pp. 582‑596. [Consulté le 21/7/2025]. DOI 10.1177/027046768400400609. Disponible à l’adresse : https://doi.org/10.1177/027046768400400609
WINNER, Langdon, 2022. La baleine et le réacteur: à la recherche de limites au temps de la haute technologie. Herblay, France : Éditions Libre. ISBN 978-2-490403-22-6.