Jump to main content

ENMI 2020 - Prendre soin de l’informatique et des générations.

ENMI 2020 - Prendre soin de l’informatique et des générations.

Cover slide from the talk “ENMI 2020 - Prendre soin de l’informatique et des générations.”

Avant son décès le 5 août 2020, Bernard Stiegler avait projeté l’organisation des Entretiens du Nouveau Monde Industriel 2020 autour des questions de l’informatique et des générations. Lors de ce colloque, nous prolongerons le travail amorcé autour de ces questions, en nous appuyant sur les textes de Bernard Stiegler et sur les travaux des intervenants.

Alombert, Anne, Victor Chaix, and Maël Montévil. 2020. ENMI 2020 - Prendre Soin de l’informatique et Des Générations. https://enmi-conf.org/wp/enmi20/
Link to the Video or audio

Prendre soin de l’informatique et des générations

Rédigé par Anne Alombert (UCL), Victor Chaix (IRI) et Maël Montévil (IRI)

Le fonctionnement des dispositifs numériques et des systèmes d’intelligence artificielle contemporains repose sur des modèles théoriques computationnalistes : la théorie de la calculabilité (élaborée par Turing) et la théorie de la communication (élaborée par Wiener, Shannon et von Neumann). De plus, la cybernétique et le cognitivisme, qui s’inspirent de ces théories, se fondent sur une notion problématique d’information, qui rend possible des analogies entre les machines et le vivant d’une part, et entre les ordinateurs, le cerveau et l’esprit d’autre part.

La notion d’information, qui avait peu été mobilisée dans l’histoire de la philosophie[1], est apparue dans le champ théorique à la suite de plusieurs événements scientifiques : la formalisation de la notion de calcul effectif, la calculabilité, en tant qu’élaboration de l’information dans les année 1930 (Gödel, Church, Turing), la publication de la théorie mathématique de la communication de Shannon en 1948, la mécanisation de certains calculs avec la première implémentation d’une machine équivalente à celle de Turing (ENIAC) en 1945, et la découverte de la structure de l’ADN en 1953. En 1962, cette notion fait l’objet du colloque de Royaumont consacré à la cybernétique[2]. En 1970, elle est mobilisée dans La logique du vivant[3], qui pose les notions d’information et de programme génétique. Dans les années 1980, elle nourrit les sciences cognitives, qui considèrent la pensée comme un processus de traitement de l’information pouvant être implémenté dans une structure électronique.

L’information devient ainsi le fondement d’une conception mécaniste du vivant, qui réduit la vie biologique (l’organisme, l’écosystème, …) à des mécanismes et d’une conception cognitiviste de la pensée, qui réduit la vie noétique (l’esprit) à la cognition. La première conduit à des volontés de maîtrise et de transformation du fonctionnement des êtres vivants, qui ont de nombreuses conséquences problématiques, des OGM à la santé environnementale. La seconde engendre des volontés de contrôle des pensées et des cerveaux, qui se manifestent par les projets transhumanistes de téléchargement de l’esprit ou d’implants cérébraux, mais aussi et d’abord par les « applications », pour smartphone notamment, dont le design a pour objectif de capturer les attentions et d’exploiter les énergies psychiques des individus, notamment à travers l’usage des « nudges ».

En effet, l’information n’est pas seulement un concept opératoire au fondement des technosciences contemporaines et des NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives). Elle est aussi une réalité technique et sociale qui ne cesse de se concrétiser, et de transformer en profondeur les rapports intergénérationnels qui constituent les sociétés.

Dès 1944, alors que les industries culturelles audiovisuelles commencent à se développer, Theodor Adorno et Max Horkheimer dénoncent « la marée de l’information précise et d’amusements domestiqués[4] » qui abêtit les hommes et envahit leurs vies quotidiennes. En 1979, alors que se poursuit « l’informatisation de la société[5] », Jean-François Lyotard déplore la transformation du savoir en « marchandise informationnelle[6] » : les savoirs ne sont plus pratiqués collectivement mais « extériorisés par rapport aux sachants[7] » et réduits à leur valeur d’échange, par ce qui sera ensuite décrit comme un « capitalisme cognitif[8] ».

Une trentaine d’années plus tard, Bernard Stiegler décrira ce capitalisme computationnel comme une « anti-épistémè[9] » : à l’époque de l’intelligence artificielle réticulée, tous les savoirs (faire, vivre et penser), autrement dit, tous les échanges en quoi consiste la vie psychique et sociale, sont soumis aux calculs et aux marchés, après avoir été transformés en données à travers les instruments de statistique, de mesure, de quantification et de logistique que constituent les algorithmes.

Cette « digitalisation généralisée[10] », qui correspond à une marchandisation de toutes les sphères de l’existence, ne cesse néanmoins de révéler son caractère pharmacologique : si l’apparition du web avait pu engendrer un certain nombre d’espoirs quant au renversement des pouvoirs « télé-techno-médiatiques[11] », voire l’émergence de nouvelles utopies, l’avènement des réseaux sociaux, combinés aux smartphones et aux applications détenues par quelques plateformes planétaires, ont mis fin aux rêves de décentralisation, de partage du savoir et de démocratisation[12] : ce sont au contraire des « sociétés de contrôle[13] » qui semblent s’être progressivement instaurées, dominées par des médias sociaux mémétiques, dont la toxicité en terme d’« écologie mentale[14] » est désormais prouvée et dont les enjeux politiques) n’ont pas fini de se manifester.

Soumises au marketing et à la publicité, fondées sur la logique de l’audience et du buzz, les industries culturelles numériques poursuivent ainsi la destruction des relations entre générations que l’avènement de la télévision avait considérablement aggravé[15]. Cette destruction s’opère à travers la « disruption » les différents types de savoirs qui composent et consolident ces relations : depuis les savoirs éducatifs menacés par la surexposition des jeunes enfants aux écrans[16] et la captation toujours plus performante de l’attention des adolescents par les plateformes, jusqu’aux savoirs médicaux et scientifiques réduits à des quantités massives de données et leur traitement automatique[17], en passant par les différents types de savoirs vivre, exister et habiter, que la « smartification[18] » des environnements urbains semble menacer.

A l’heure du « screen new deal », qui correspond à une extension sans précédent du télé-travail et du télé-enseignement, il semble plus que jamais nécessaire de transformer le fonctionnement des « télétechnologies[19] » informatiques et numériques, pour éviter ces effets de « prolétarisation généralisée[20] », qui menacent la vie politique et accélèrent la catastrophe écologique. Une telle tâche suppose néanmoins de repenser les modèles théoriques et économiques qui sont au fondement du fonctionnement de ces technologies.

En effet, les modèles informationnels et computationnels de la vie biologique et noétique qui se sont imposés n’ont rien de nécessaire. Bien au contraire : une contre-histoire reste à écrire, montrant que les premiers spécialistes de la cybernétique se méfiaient de l’analogie entre machine et organisme et qu’Alan Turing lui-même n’aurait jamais osé comparer l’intelligence à un traitement de données. Dans le champ de la philosophie elle-même, de Bergson à Canguilhem, en passant par Lotka, Popper, Leroi-Gourhan et Simondon, une pensée de l’extériorisation technique a vu le jour, qui permet de dépasser les analogies entre machine et organisme comme entre ordinateur, cerveau et pensée.

La machine ou l’ordinateur, produits par des vivants pensants et s’individuant collectivement, ne peuvent servir de modèles pour saisir le « fonctionnement » de ces mêmes vivants : ils ne constituent pas des modèles, mais des organes artificiels, c’est-à-dire, des supports dans lesquels s’extériorisent des fonctions motrices ou noétiques, fonctions qui évoluent donc avec les systèmes d’écritures et de calculs mécaniques, automatiques, analogiques, puis numériques, et transforme le milieu des savoirs. C’est cette co-évolution entre fonctions noétiques et organes exosomatiques que Bernard Stiegler décrivait comme une « exorganogenèse de la noèse », et qui devait selon lui constituer la base d’une « nouvelle informatique théorique[21] » .

Nous tenterons durant ces deux jours d’explorer cette voie, à la fois du point de vue de ses enjeux théoriques (1) et de ses enjeux pratiques et politiques (2).

(1) En quoi la prise en compte du processus d’exosomatisation permet-elle de dépasser le paradigme de l’information, et implique-t-elle de repenser jusqu’à la notion même d’intelligence artificielle ? Comment transformer l’objet de l’interrogation théorique, afin de ne plus se focaliser sur la machine elle-même, et sur ses potentielles performances computationnelles, mais d’envisager son couplage avec les individus psychiques au sein d’organisations sociales, économiques et politiques ? En quoi cette étude des rapports entre organismes psychosomatiques, organes techniques et organisations sociales permet-elle de renouveler les conceptions de la vie, de la technique et de l’esprit ?

(2) Comment cette nouvelle approche « organologique » se traduit-elle en termes de conception et de développement technologiques ? Comment réaliser des dispositifs numériques prenant soin des relations sociales et des fonctions noétiques, en particulier celles des nouvelles générations ? Les technologies numériques peuvent-elles devenir autre chose que des puissances de calculs ? L’efficience des calculs peut -elle être mise au service de luttes locales contre l’Anthropocène, en encourageant de meilleures prises de décisions communes ? Peuvent-elles favoriser la délibération collective, le partage des savoirs et la réactivation des significations transgénérationnelles, plutôt que l’économie des données et le capitalisme computationnel ?


  1. « En plus, le paradoxe intriguant de cette notion c’est que d’une part elle occupe un espace absolument démesuré dans le monde de notre discours et de nos concepts, d’autre part c’est une notion qui a une histoire extrêmement récente. Si je repense à ce que je peux lire, à l’âge classique, chez Descartes ou chez Diderot, il n’est jamais question d’information. Ce n’est pas un terme de la philosophie. », M. Triclot, « La notion d’information dans la cybernétique », Journée « Histoire et didactique des sciences », Lirdhist, Lyon 1, 2004 (https://hal.archives-ouvertes.fr/hal-01526661). ↩︎

  2. Le concept d’information dans la science contemporaine, Cahiers de Royaumont, Paris, Minuit, 1965. ↩︎

  3. F. Jacob, La logique du vivant, Paris, Gallimard, 1970. ↩︎

  4. T. Adorno et M. Horkheimer, La dialectique de la raison (1944), Paris, Gallimard, 1974. ↩︎

  5. S. Nora et A. Minc, L’informatisation de la Société, Paris, La Documentation française, 1978. ↩︎

  6. J.-F. Lyotard, La condition postmoderne, Paris, Minuit, 1979. ↩︎

  7. Ibid. ↩︎

  8. Y. Moulier-Boutang, Le capitalisme cognitif. La nouvelle grande transformation, Éditions Amsterdam, 2007. ↩︎

  9. B. Stiegler, Nanjing lectures 2016-2019, traduction et introduction de Dan Ross, Open Humanities Press, chapitre 9 ↩︎

  10. B. Stiegler, « Noodiversité et technodiversité. Eléments pour une refondation économique basée sur une refondation de l’informatique théorique », texte non publié, printemps 2020. ↩︎

  11. J. Derrida et B. Stiegler, Échographies de la télévision, Paris, Galilée, 1996. ↩︎

  12. G. Lovink, Sad by design. On Platform nihilism, Pluto Press, 2019. ↩︎

  13. G. Deleuze, « Post-scriptum sur les sociétés de contrôle » (1990), Pourparlers, Paris, Minuit, 2003. ↩︎

  14. F. Guattari, Les trois écologies, Paris, Galilée, 1989. ↩︎

  15. B. Stiegler, La télécratie contre la démocratie, Paris, Flammarion, 2006. ↩︎

  16. Sur ce point, voir (entre autres) cette tribune publiée dans Le Monde par un collectif de médecins : https://www.lemonde.fr/sciences/ article/2017/05/31/la-surexposition-des-jeunes-enfants-aux-ecrans-est-un-enjeu-majeur-de-sante publique_5136297_1650684.html ↩︎

  17. C. Anderson, «The End of theory The data deluge makes the scientific method obsolete. », Wired, 2008 (https://www.wired.com/2008/06/pb-theory/). ↩︎

  18. O. Halpern, R. Mitchell et B. Dionysius Geoghegan, « The smartness mandate. Notes towards a critique », Grey Room, n° 68, 2017, p.106-12. ↩︎

  19. J. Derrida, Foi et savoir, Paris, Seuil, 2000. ↩︎

  20. B. Stiegler, La société automatique t. 1 L’avenir du travail, Paris, Fayard, 2015. ↩︎

  21. Dans un message électronique datant du printemps 2020, Bernard Stiegler écrivait : « Ce que j’appelle donc ‘nouvelle informatique théorique’ ne désigne rien d’autre que la théorie hypercritique de l’exorganogenèse de la noèse toujours pharmacologique… ». ↩︎

Video