Jump to main content

Anthropocène, exosomatisation et néguentropie

Bifurquer. Il n’y a pas d’alternative

Après des précurseurs tels que Georgescu-Roegen, nous soutenons que l'économie politique, dans l'ère Anthropocène est un défi qui nécessite un réexamen fondamental de ses cadres épistémiques et épistémologiques.

Abstract

L’économie industrielle a pris forme entre la fin du XVIIIe siècle et le XIXe siècle – d’abord en Europe occidentale puis en Amérique du Nord. Outre les productions techniques, elle aura conduit à des productions technologiques – mobilisant des sciences pour produire des biens industriels – : comme Marx l’aura montré en 1857, le capitalisme fait du savoir et de sa valorisation économique son élément premier.
La physique de Newton et la métaphysique qui l’accompagne sont à l’origine du cadre épistémique (au sens de Michel Foucault) et épistémologique (au sens de Gaston Bachelard) de cette grande transformation – qui est la condition de ce que Karl Polanyi appellera lui-même « la grande transformation ». Dans cette transformation, l’otium (le temps de loisirs productifs) se soumet au negotium (les affaires du monde). Pendant ce temps, les mathématiques sont appliquées à travers des machines à calculer toujours plus puissantes et performatives – appelées computers après la deuxième guerre mondiale.
Après des précurseurs tels que Nicholas Georgescu-Roegen, lui-même inspiré par Alfred Lotka, nous soutiendrons dans le présent ouvrage que l’économie politique, dans ce qui est appelé l’ère Anthropocène (thématisée en 2000 par Paul Krutzen, et dont les caractéristiques ont été décrites par Vladimir Vernadsky dès 19263) est un défi qui nécessite un réexamen fondamental de ces cadres épistémiques et épistémologiques.
Avec Darwin, les êtres vivants sont devenus partie intégrante d’un processus historique en constant devenir. Chez l’homme, les savoirs sont une partie de ce processus qui est performative, au double sens de ce mot : à la fois au sens de l’efficience et au sens de la prescription. Ce processus devient exosomatique, c’est à dire extra-corporel, comme le montre Lotka, qui façonne et remodèle les modes de vie afin, notamment, de limiter les effets négatifs des nouveautés techniques.

Bifurquer couverture

Chapitre 1

Anthropocène, exosomatisation et néguentropie

Maël Montévil, Bernard Stiegler, Giuseppe Longo, Ana Soto, Carlos Sonnenschein

15. Économie industrielle, savoirs scientifiques, technologie et ère Anthropocène

L'économie industrielle a pris forme entre la fin du XVIIIe siècle et le XIXe siècle – d'abord en Europe occidentale puis en Amérique du Nord. Outre les productions techniques, elle aura conduit à des productions technologiques – mobilisant des sciences pour produire des biens industriels – : comme Marx l'aura montré en 1857, le capitalisme fait du savoir et de sa valorisation économique son élément premier.

La physique de Newton et la métaphysique qui l'accompagne sont à l'origine du cadre épistémique (au sens de Michel Foucault) et épistémologique (au sens de Gaston Bachelard) de cette grande transformation – qui est la condition de ce que Karl Polanyi appellera lui-même « la grande transformation » (1) . Dans cette transformation, l'otium (le temps de loisirs productifs) se soumet au negotium (les affaires du monde). Pendant ce temps, les mathématiques sont appliquées à travers des machines à calculer toujours plus puissantes et performatives – appelées computers après la deuxième guerre mondiale.

Après des précurseurs tels que Nicholas Georgescu-Roegen (2) , lui-même inspiré par Alfred Lotka, nous soutiendrons dans le présent ouvrage que l'économie politique, dans ce qui est appelé l'ère Anthropocène (thématisée en 2000 par Paul Krutzen, et dont les caractéristiques ont été décrites par Vladimir Vernadsky dès 1926 (3) ) est un défi qui nécessite un réexamen fondamental de ces cadres épistémiques et épistémologiques.

Avec Darwin, les êtres vivants sont devenus partie intégrante d'un processus historique en constant devenir (4) . Chez l'homme, les savoirs sont une partie de ce processus qui est performative, au double sens de ce mot : à la fois au sens de l’efficience et au sens de la prescription (5) . Ce processus devient exosomatique, c’est à dire extra-corporel, comme le montre Lotka (6) , qui façonne et remodèle les modes de vie afin, notamment, de limiter les effets négatifs des nouveautés techniques.

16. Les relations entre savoirs et techniques : survol historique du point de vue industriel

Dans le contexte de la révolution industrielle, la science et l'économie, en particulier le commerce, étaient considérés comme la nouvelle base de la légitimité, de la sécurité, de la justice et de la paix. Par exemple, Hume fit valoir que l'étalon-or ajustait spontanément la balance des paiements entre les États. Le paradigme scientifique sous-jacent était newtonien – où les lois mathématiques déterministes sont considérées comme la forme ultime de la connaissance.

Dans la perspective newtonienne, l'équilibre et l'optimisation découlent spontanément des relations entre les parties d'un système. Les travaux scientifiques sont donc voués à décrire des équilibres spontanés et optimaux. Ce faisant, et dans cette perspective, les formalisations scientifiques de l’économie et de la production favorisent le retrait de toute supervision rationnelle une fois que la dynamique voulue est mise en place, et il peut être posé en principe qu’une intervention extérieure au fonctionnement spontané du système romprait les propriétés de ces équilibres. En ce sens, les développements scientifiques et technologiques progressent par l'optimisation des processus et la providence des équilibres spontanés.

Cependant, de telles analyses négligent par construction le contexte d'une situation même lorsque ce contexte est la condition de possibilité de cette situation : cette formalisation ignore les localités. De plus, suivant la même logique, tant dans les sciences que dans l’industrie, et sur la base des axiomes de la philosophie moderne, des situations compliquées (co-impliquant une diversité primordiale de facteurs singuliers) sont réduites à une combinaison d'éléments simples qui peuvent être connus et contrôlés.

Par exemple, la production d'un seul artisan peut être décomposée en tâches simples exécutées par plusieurs ouvriers spécialisés puis éventuellement par des machines : c’est ce que décrit Adam Smith dans La richesse des nations (7) , tâche qui sera poursuivie au XIXè siècle par Andrew Ure (8) , Charles Babbage (9) et Frederick Taylor (10) , et appliquée systémiquement au XXè et au XXIè siècle (sur le taylorisme de Google, cf. par exemple Nicholas Carr, Is Google making us stupid ? (11) ).

Cette méthode entraîne la perte progressive des savoirs des travailleurs en raison de leur transfert vers le dispositif technologique. Cette tendance a été décrite pour la première fois par Adam Smith, et soixante-douze ans plus tard par Karl Marx, qui a nommé cette tendance prolétarisation. Cette perte de savoir est l’élément essentiel d'un processus plus général que l’on appelle ici la dénoétisation (12) , c'est-à-dire la perte de la capacité de penser (noésis). La technique devient ici la technologie et, comme la technique, la technologie est un pharmakon : comme les médicaments, elle peut conduire à des résultats toxiques ou curatifs.

17. Science du vivant et théorie de l’entropie - du XIXè siècle au XXè siècle

Parallèlement à ces événements, de nouvelles idées scientifiques émergent avec les perspectives sur le vivant proprement révolutionnaires ouvertes par Jean-Baptiste Lamarck puis Charles Darwin : L’origine des espèces établi une nouvelle et irréversible compréhension évolutionniste de ce qui va ainsi devenir la biologie (la science ainsi désignée étant projetée sous ce nom dès Lamarck, qui frappe le terme). Ce cadre sera interprété par certains comme une autre instanciation du modèle newtonien de la science, tandis que d'autres souligneront l'originalité d’une théorie scientifique basée sur des raisonnements historiques en sciences naturelles – les théories physiques étudiant des lois universelles et permanentes.

Dans la perspective évolutionniste d’où va surgir la biologie à proprement parler, le monde vivant n'est plus une manifestation statique de l'ordre divin : les formes de vie actuelles proviennent d'un processus de devenir historique. Ce changement de perspective aura conduit à s'interroger sur le devenir de l'humanité et sur le rôle joué par l'intelligence humaine et la liberté en quoi elle consiste dans ce processus, pour le meilleur et pour le pire : ainsi ont été développés l’eugénisme et le darwinisme social – contre la vision de Darwin, qui embrassait l’idée d’une singularité des sociétés humaines – cependant que, comme on va le voir, Lotka posera que la forme humaine (c’est-à-dire technique) de la vie instaure une évolution et une sélection orthogéniques, et non simplement biologiques.

Un autre cadre scientifique aura émergé au XIXème siècle également dans le champ de la physique : avec la révolution industrielle se développent les moteurs thermiques, et ces derniers soulèvent les questions théoriques qui donneront naissance à la thermodynamique. Les physiciens développent alors le concept d'entropie, et montrent que celle-ci ne peut qu’augmenter dans des systèmes isolés – ce qui constitue le second principe de la thermodynamique. En physique, l'énergie est conservée par principe mais l'augmentation de l'entropie signifie qu'elle devient moins utilisable pour effectuer des tâches macroscopiques.

En un mot, l'augmentation de l'entropie dans un système physique est le processus qui consiste à passer d'états macroscopiques moins probables à des états macroscopiques plus probables. Il s'ensuit que l'augmentation de l'entropie est la disparition de caractéristiques initiales improbables, et leur remplacement par des caractéristiques plus probables, ce qui a pour conséquence l'effacement du passé. Par exemple, une goutte d’encre aura tendance à se disperser dans l’eau jusqu’à atteindre une situation uniforme, effaçant ainsi la position initiale de cette goutte. Ce cadre récuse la réversibilité de la mécanique classique – cette dernière n'ayant pas de flèche temporelle objectivée – et mène à la perspective cosmologique de la mort thermique de l'univers.

Le concept d’entropie est lié à la découverte des dynamiques chaotiques par Poincaré et la réfutation de l’idée de Laplace suivant laquelle le déterminisme mathématique impliquerait la prévisibilité. Ainsi est réfutée en principe la notion générale de prévisibilité mathématique et de contrôlabilité des phénomènes naturels. En particulier, le travail de Poincaré porte sur le système solaire dont il montre que la stabilité à long terme ne peut être établie. Ces développements scientifiques conduisent à l’idée de la précarité du cosmos.

Le déterminisme au sens de Laplace trouve cependant au XXe siècle un second souffle avec la logique mathématique et les sciences informatiques subséquentes. Ces développements ont lieu alors que la production industrielle se transforme en un capitalisme de consommation, organisé en vue de la production de masse et en série. Les médias devenant eux-mêmes « de masse » sont conçus pour déclencher des réponses standardisées des consommateurs (13) . La tendance à la dénoétisation qui avait commencé par la prolétarisation des producteurs s’étend ainsi aux consommateurs en tant que tels – par exemple, les aliments transformés produits par l’industrie agroalimentaire entraînent une perte croissante des connaissances relevant de la cuisine traditionnelle, contribuent à la pandémie de maladies non transmissibles telles que l'obésité ou le diabète.

18. Le XXè siècle et la théorie de l’information

Dans ce contexte, la notion vague d'information devient centrale. Claude Shannon propose en 1948 un concept formalisé de l'information fondé sur le calcul, et cela, afin de comprendre et optimiser la transmission de messages écrits ou audio dans des canaux de communication bruités (14) – selon des principes qui aboutiront à ce que l’on appelle la compression du signal, qui permet de nos jour, par exemple, de transmettre des images animées de haute définition sur des réseaux de télécommunications. Un concept très différent sera proposé par Andréï Kolmogorov durant les années 1960 pour décrire la difficulté à générer une suite de caractères donnée pour des programmes informatiques.

La théorie de Shannon pose que l’information est ce qui réduit l’ambiguité donc ce qui est improbable une fois posé un modèle probabiliste. Cette idée devient absurde lorsqu'elle est utilisée pour étudier le sens d’un message, au-delà, donc, de la question des difficultés de transmission (bruit), ce qui était la motivation originale de Shannon. Par exemple, des suites, telles que « yyyyy... », portent une information maximale au sens de Shannon par ce que « y » est une lettre peu probable, tandis qu'une séquence aléatoire, par exemple « ldznck... » a une information maximale sensu Kolmogorov – elle ne peut pas être compressée efficament : ces deux cas limites portent plus d'informations dans leurs sens respectifs qu'une pièce de Corneille de même longueur.

Malgré le caractère auto-contradictoire et donc la fragilité théorique de la notion que met en évidence la confrontation ces deux points de vue (15) , l'opinion dominante en sciences cognitives actuelles – elles-mêmes dominant les représentations communes aussi bien que scientifiques dans le capitalisme numérique – est que l'intelligence est un traitement d'information, c'est-à-dire un calcul probabiliste, ou digital, suivant le point de vue privilégié, les deux cadres étant souvent mélangés. De même, l'information joue un rôle central en biologie moléculaire malgré l’absence de caractérisation théorique de la notion. Enfin, ignorant les premières critiques d'auteurs tels que Poincaré (16) , l'économie, à travers les points de vue de Herbert Simon et Friedrich Hayek, a été conceptualisée comme un processus d'optimisation mathématique spontanée par des agents « rationnels », dotés d’une capacité de traitement de l'information – éventuellement biaisée pour des raisons biologiques – , dans les approches cognitives de l’économie.

Au début du XXIe siècle, l'utilisation des ordinateurs se répand sous diverses formes (comme les ordinateurs personnels, les smartphones et les tablettes). Leur connexion en réseaux approfondit et transforme le rôle des médias. Des intérêts privés commencent à rivaliser pour attirer et retenir l'attention des utilisateurs par le calcul (ce qui est anticipé dans une moindre mesure par les médias de masse analogiques en XXè siècle – mais alors ce ne sont pas encore les comportements individuels qui sont analysés et contrôlés).

Avec les technologies digitales réticulaires, les services fournis aux utilisateurs dépendent des données qu’ils produisent, cependant que les fournisseurs de services utilisent ces données pour capter et capturer l'attention d’autres utilisateurs – le tout exploitant les effets de réseau. Ces transformations conduisent à une nouvelle vague d'automatisation : des algorithmes comme ceux utilisés dans les réseaux sociaux formalisent et automatisent des activités qui étaient jusqu’alors structurellement étrangères à l'économie formelle.

Ces changements conduisent à de nouvelles pertes de savoirs et à une dénoétisation provoquée par la captation destructive de l'attention qui est ainsi très gravement mise à mal. Étant donné que l'opinion dominante en sciences cognitives est que l'intelligence est un traitement d'information, plusieurs scientifiques considèrent les algorithmes comme étant de l’intelligence artificielle, négligeant ainsi les conditions de possibilité de l'intelligence humaine telles que l'attention. Dans le même temps, le management aussi bien que les plateformes commerciales décomposent les humains en tableaux de compétences, d'intérêts et de comportements qui alimentent les algorithmes, permettant un marketing politique et commercial ciblé, et façonnant les politiques de formation et de recrutement.

19. La dénoétisation digitale comme « fin de la théorie » dans l’ère Anthropocène

La même tendance existe dans les sciences :

  • les connaissances tendent à être balkanisées en domaines de recherche toujours plus spécialisés,
  • les recherches scientifiques tendent à se réduire en conséquence au déploiement de nouveaux dispositifs technologiques de captation et de traitements de l'information,
  • les définitions opérationnelles remplacent les définitions théoriques.

Or la théorisation est la condition de la science : elle constitue une activité synthétique demandant de réévaluer en fonction de l’expérience les concepts utilisés, l'histoire d'un champ, les observations empiriques et les perspectives d'autres domaines – que ce soit par analogie ou par le développement d’articulations théoriques – en cohérence et en opposition avec les modèles théoriques antérieurs (17) .

Avec l'émergence de l'exploration de données (data mining), Chris Anderson a cru pouvoir proclamer la « fin de la théorie » (18) . Cette perspective a été critiquée dès son énonciation, et dans la même revue, notamment par Kevin Kelly (19) ; cependant, le crépuscule de la théorisation en sciences semble venir principalement d'une autre voie. Suivant la tendance générale de la société, la perte de la capacité à théoriser résulte d’abord de la transformation des activités humaines. Il s’agit tant des restructurations institutionnelles que du poids croissant du marketing scientifique, aussi bien dans les publications scientifiques qu’en ce qui concerne les critères mis en œuvre dans les décisions de financement.

Le recul de la théorisation et la dénoétisaiton scientifique qui en résulte procède également d'une évaluation critique insuffisante des technologies numériques et de leurs conséquences pour les activités scientifiques – qu’il s’agisse de la bibliométrie et de la scientométrie (20) ou des logiciels de statistiques pour expérimentateurs (21) . Il s'ensuit que

  • l'appropriation universitaire et scientifique de ces technologies fait défaut (une telle appropriation supposant une modélisation théorique exposée à la critique des pairs et donc au débat contradictoire),
  • leurs conséquences toxiques (au sens où Socrate met en évidence la « toxicité » de l’écriture telle que la pratiquent en son temps les Sophistes) ne sont pas maîtrisées,
  • ces technologies ne sont pas mises en œuvre en adéquation avec les finalités scientifiques (sauf pour certaines questions purement mathématiques qui ont été traitées en détail).

Aujourd'hui, au début du XXIe siècle, nous assistons également à une prise de conscience croissante des conséquences des activités humaines sur le reste de la planète, conduisant à définir une nouvelle ère : l'Anthropocène. L'Anthropocène se caractérise par des activités humaines tendant à détruire leurs conditions de possibilité – tant au niveau des organisations biologiques (organismes, écosystèmes) qu’à celui de la capacité de penser (noèse). Dans ce contexte, la capacité à générer des connaissances pour atténuer la toxicité des innovations technologiques, et transformer ces dernières, est profondément affaiblie, à tel point que le problème de cette toxicité est la plupart du temps refoulé comme tel par les gouvernements et les sociétés – au risque de n’être reconnu que trop tard.

20. Entropie thermodynamique et néguentropie biologique

L'énergie aussi bien que les ressources minérales, tels les métaux, sont du point de vue de la physique des quantités qui se conservent. Et pourtant, nous observons clairement que ces ressources se raréfient. Comment est-ce possible ? C’est le concept crucial d'entropie qui permet de comprendre ce paradoxe.

L’entropie est une propriété des configurations, et plus précisément, de l’évolution de ces configurations, ce qui la distingue de la question des quantités de matière ou d’énergie. Elle est directement liée à notre (in)capacité principielle à utiliser ces ressources. Les gisements de minerai, par exemple, sont exploitables parce qu’ils sont à une concentration suffisamment élevée ce qui est hautement improbable (improbable au regard de l’état statistiquement dominant de la répartition de cette matière sur la planète). Autrement dit, ces gisements sont exploitables parce que l’entropie de la répartition de ces métaux sur terre n’est pas maximale.

De telles configurations sont générées par des processus géologiques et atmosphériques loin des processus d'équilibre, tels les volcans, et des concours de circonstance survenant aux échelles de temps géologique (22) – , et les activités humaines concentrent plus avant ces métaux par un travail mécanique et chimique. Tous ces processus baissant l’entropie de la répartition des métaux se font au prix d’une dispersion supérieure d’énergie sous forme de chaleur, qu’il s’agisse de l’énergie du soleil dans l’atmosphère, ou de l’énergie, fossile ou non, utilisée pour affiner les métaux. Ce que l’on appelle généralement « consommer de l’énergie » signifie en fait la disperser sous forme de chaleur, c’est-à-dire produire de l’entropie.

Cependant, une simple comptabilité de l'entropie n'est pas adéquate : la mesure de l’entropie, qui est un rapport concentration/dispersion au regard de configurations, n’a de sens qu’au sein de la processualité de l’univers, et, sur Terre, de la biosphère. Nous pouvons imaginer minimiser la production d’entropie sur terre en détruisant le vivant – ce qui est évidemment absurde. Au contraire, saisir de manière précise les enjeux contemporains nécessite de spécifier l'articulation de l'entropie et du vivant, d’une part pour ce qui concerne les diverses formes du vivant, et d’autre part en ce qui concerne le cas spécifique des sociétés humaines.

Du point de vue de la thermodynamique, les situations (ou configuration) biologiques d’une part ne sont pas à un niveau d’entropie maximale, et d’autre part ne tendent pas vers un niveau d’entropie maximale. L'entropie faible et parfois même décroissante des objets biologiques semble contredire le deuxième principe de la thermodynamique, qui stipule que l'entropie ne peut pas diminuer dans un système isolé. Cependant, les situations biologiques, y compris la biosphère dans son ensemble, ne sont pas des systèmes isolés : les situations biologiques sont ouvertes et fonctionnalisent des flux d'énergie, de matière et d'entropie afférente.

Au niveau de la biosphère, le soleil est le principal fournisseur d'énergie libre (à basse entropie) utilisée par les organismes photosynthétiques. Par conséquent, les situations biologiques ne contredisent pas le deuxième principe. Mais ce n’est possible que dans la mesure où les organisations biologiques – et, par extension, les organisations sociales – sont nécessairement locales, différant localement l’augmentation de l’entropie par une différenciation locale et organique (organisée) de l’espace, et dépendent de leur couplage avec leur environnement. Dans les organismes, la relation entre l'intérieur et l'extérieur est matérialisée et organisée par des membranes semi-perméables.

Comment comprendre plus avant les situations biologiques et leur articulation à la thermodynamique? Ici, une brève discussion sur l’épistémologie de l’application des mathématiques est nécessaire afin de comprendre les phénomènes naturels ou sociaux. Prédire nécessite de distinguer théoriquement la situation qui sera réalisée parmi d’autres envisageables. Ainsi, la maximisation de l'entropie distingue un état macroscopique parmi d’autres possibles : l’état qui maximise l'entropie. Les fonctions remplissant ce rôle en physique sont appelées des potentiels. Il existe une diversité de potentiels dans le domaine de la thermodynamique à l'équilibre, qui sont différentes variantes de l'énergie libre, impliquent l'entropie, et dont la pertinence dépend du couplage entre le système étudié et son exterieur.

Par exemple, ce n’est pas la même fonction qui permet de prédire la situation finale d’un système isolé et d’un système opérant des échanges de chaleur avec son mileu, telle une tasse de thé échangeant de l’énergie avec la pièce dans laquelle elle se trouve. Cependant, dans le cas de systèmes loin de l'équilibre thermodynamique – les situations qui nécessitent des flux avec l'extérieur pour durer, comme les organismes, ou un appartement que l’on chauffe –, il n'y a pas de consensus sur l'existence théorique d'une telle fonction ou famille de fonctions.

Par exemple, l’idée fondamentale de Prigogine est que le taux de production d’entropie (c’est-à-dire le taux de dissipation d’énergie) pourrait jouer le rôle théorique d’un potentiel – il serait optimisé spontanément ; cependant, cette idée n'est valable que dans des systèmes (très) particuliers (23) . L’absence de fonction jouant le rôle de potentiel pour les systèmes généraux loin de l'équilibre signifie que notre capacité à les comprendre et à les prédire par le calcul, comme dans les théories physiques usuelles, n'est pas théoriquement justifiée. Le statut epistémologique de la mathématisation ne peut donc plus être le même (24) à travers ces différents cas.

C’est pourquoi la méthode d’analyse économique que nous défendons articule organiquement mathématiques (indicateurs notament) et délibération dans une localité plutôt que l’usage d’un cadre mathématique posé comme universel et permanent (25) . D'un point de vue moins technique, Schrödinger a introduit l'idée que le problème, en biologie, n'est pas de comprendre l'ordre à partir du désordre, comme dans de nombreuses situations physiques tel que la formation de la glace avec sa structure crystaline, mais plutôt de comprendre l'ordre à partir de l'ordre (26) . Pour saisir cette idée, il a proposé d'étudier l'entropie négative, une idée qui a ensuite été élaborée par Brillouin, qui a appelé l'entropie négative correspondante « néguentropie ».

Cependant, l'entropie négative, comme diminution de la dissipation d’énergie, ne coïncide pas purement et simplement avec l’existence d’organisations biologiques. L'entropie peut être abaissée simplement en diminuant les températures, tandis que les organismes biologiques ne restent des organismes que sur une échelle de températures entre un minimum et un maximum. Une glaciation majeure diminuerait l'entropie de la terre (en la libérant inversement et sous forme de chaleur dans le reste de l’univers), mais elle détruirait également le vivant.

De plus, les parties fonctionnelles des organisations biologiques impliquent souvent une augmentation locale de l'entropie pour être fonctionnelles. Par exemple, la diffusion d'un composé depuis son lieu de production vers le reste de la cellule est un processus de production d'entropie physique. Néanmoins, ce processus permet que le dit composé atteigne les endroits où il peut jouer son rôle fonctionnel. Il s'ensuit que l’articulation théorique entre l'entropie et les organisations biologiques nécessite une analyse minutieuse qui dépasse le cadre d’une simple opposition entre entropie (considérée comme désordre) et néguentropie (considérée comme ordre).

21. La biodiversité, les situations anthropiques dans l’Anthropocène et la nouveauté anti-entropique

Les organisations biologiques se maintiennent loin des configurations d'entropie maximales en fonctionnalisant les flux provenant de leur milieu extérieur pour se maintenir. Elles se maintiennent activement par l'interaction entre leurs parties, d’une part, et d’autre part entre ces organisations et leurs milieux. Ce couplage nécessaire entre les organismes et leurs milieux a lieu dans des écosystèmes, eux-mêmes ancrés dans des niveaux plus grands – jusqu’au niveau de la biosphère constituant leur limite supérieure.

La viabilité du vivant découle des propriétés systémiques de ces différents niveaux, mais il ne s’agit pas de situations spontanées, comme les flammes, les volcans ou les ouragans, et on ne peut pas simplement rapporter l’organisation qu’est le vivant et la matière dite organique à l’ordre dont on trouve d’innombrables configurations dans l’univers, et en particulier sur Terre. La manière par laquelle les organisations biologiques se maintiennent provient de l'histoire qui les a engendré, y compris les différents contextes dans lesquels ont vécu les membres d’une lignée .

La façon dont l'organisation biologique se maintient est donc fondamentalement historique : elle découle de l'histoire naturelle de l’espèce comme de l’écosystème ou de l’individu. Dans le contexte de l’ère Anthropocène, cette historicité implique une vulnérabilité particulière aux changements anthropiques rapides qui perturbent simultanément l’ensemble des organisations biologiques à divers niveaux dans la biosphère. L’effet du changement climatique sur les écosystèmes ou celui des perturbateurs endocriniens sur les organismes sont des exemples de tels effets (27) .

De plus, les êtres vivants continuent de changer avec le temps en générant de nouvelles structures et fonctions. Plus que le cas des espèces individuelles, les biologistes mettent l'accent sur la conservation de la biodiversité et surtout sur la conservation du processus buissonnant de l'évolution que nous pouvons appeler la biodiversification. Ce processus est lui-même l'objet de perturbations anthropiques, empêchant le vivant de se réorganiser.

En un mot, les organisations biologiques sont précaires parce que l'existence et la nature de leurs parties sont fondamentalement contingentes. C’est pourquoi ces parties doivent être activement et constamment maintenues. Un organisme ne peut cesser durablement de se nourrir, de s’abreuver ou de respirer sans sombrer irréversiblement dans le devenir entropique : sans mourir.

Les organisations se maintiennent en fonction de comportements et opérations qui émanent de leur articulation avec leurs contextes passés, mais qui peuvent se réorganiser au cours du temps – réorganisations qui sont des formes d’apprentissage. Ces deux processus de maintien d’une part et de réorganisation d’autre part sont perturbés de diverses manières par les changements introduits par les activités humaines, en particulier depuis l’ère Anthropocène (c’est-à-dire industrielle). La présentation des connaissances exposées dans ce chapitre, qui représente l'état actuel des connaissances en biologie, souligne aussi en quoi ces questions, selon nous, ne sont pas encore suffisamment théorisées, en particulier quant aux relations entre l’entropie, la néguentropie, l’anthropie typique de l’Anthropocène et ce que nous appellerons à la fin du chapitre la néguanthropie.

Pour aller plus loin dans l’analyse des dynamiques vivantes non seulement de maintien mais de réorganisation, un concept complémentaire à celui de l'entropie (et à celui de l’entropie négative qui lui est mathématiquement et relativement opposé – comme rapport entre états plus ou moins ordonnés au cours d’un processus) : le concept d’anti-entropie, qui fait référence aux organisations biologiques (organes, fonctions…) (28) . Contrairement à l'information (numérique), qui est une notion unidimensionnelle (chaînes alphanumériques de Shannon et Kolmogorov), la géométrie, l’espace et le temps du vivant lui sont essentielles. Un organisme vivant produit de l'entropie en transformant de l'énergie, il maintient son anti-entropie en créant et en renouvelant en permanence son organisation, et il produit de l’anti-entropie en générant des nouveautés organisationnelles.

Le concept d'anti-entropie vise à rendre compte des organisations biologiques dans leur historicité. Les formes de vie actuelles se maintiennent, à la fois par l’activation de nouveautés fonctionnelles apparues dans le passé (anti-entropie), et par la production de nouveautés fonctionnelles (production d’anti-entropie) issues de l’individu ou du groupe (population, écosystème, etc.). Non seulement ces nouveautés sont imprévisibles, mais leur nature elle-même ne peut être prédite. Cela a pour conséquence que la théorie des probabilités est insuffisante pour décrire le vivant et son évolution. (Cela veut dire aussi, comme on va le voir, qu’il existe également une anti-anthropie factrice du nouveau au sens où l’entendaient aussi bien Arthur Rimbaud qu’Henri Bergson (29) - ce nouveau étant improbable au sens de Maurice Blanchot (30) .)

Ces nouveautés anti-entropiques sont spécifiques en cela qu’elles contribuent à la capacité des objets biologiques à perdurer dans le temps en contribuant à leur organisation dans un contexte donné (que cette organisation peut affecter). L'entropie dépend du couplage d'un système avec son extérieur. De même, l'anti-entropie est relative à une organisation, et tous les objets ne sont pas organisés. Par exemple, considéré seul, un cœur n'a aucune fonction ; ce n'est qu'au niveau de l'organisme qu'il est doté d'une fonction. Par conséquent, toutes les discussions sur l'anti-entropie sont relatives à un objet organisé donné, c'est-à-dire à une localité spécifique – et ouverte aussi bien au milieu extérieur dont elle se nourrit qu’à ses possibilités de réorganisations (31) .

22. La noodiversité et l’anti-anthropie

Comme l'a souligné Lotka, la spécificité des sociétés humaines, considérées du point de vue de leur organisation et donc de leurs organes, est l'importance des objets inorganiques dans leurs structures sociales (leurs organisations), tels que les outils, les textes écrits ou les ordinateurs. Ces objets sont façonnés et entretenus par les activités humaines. Lotka appelle exosomatisation la constitution de tels objets, théoriquement analogues aux organes endosomatiques, mais extérieurs aux corps organiques. Ce processus conditionne de part en part l’évolution des modes de vie humains.

Lotka souligne que comme productions exosomatiques – qui sont les fruits de l’activité économique, et dont l’évolution ne devient sensible, puis évidente (ce que l’on appelle la conscience historique), qu’à partir de l’accélération de l’évolution technique subite que constitue la révolution industrielle, également considérée constituer en cela le début de l’ère Anthropocène – , les nouveaux objets qui surgissent au cours de l’évolution des sociétés et qui constituent leurs organes artificiels ne sont pas spontanément bénéfiques, ni pour les organisations sociales, ni pour les organisations sociales psychiques : ce sont des pharmaka, comme disaient les Grecs, c’est-à-dire des poisons pouvant devenir remèdes, et inversement. Lotka développe ce point de vue en 1945 tout en considérant les souffrances ignobles qui auront été infligées aux humains au cours du deuxième conflit mondial.

Pour que les organes inorganiques que sont les productions exosomatiques issues du travail puissent accomplir un rôle fonctionnel, et afin de limiter la déstabilisation qu'ils introduisent nécessairement (32) , l'évolution et la plasticité développementale et physiologiques ont un rôle majeur dans le cours du processus d'exosomatisation. Par exemple, la lecture recrute la plasticité de plusieurs zones du cerveau qui dépendent du système d'écriture (33) .

Ces réponses purement biologiques et physiologiques sont cependant insuffisantes pour qu’un poison potentiel s’avère constituer un remède actuel : des activités noétiques, toujours collectives, et donc toujours sociales, et liées à des organisations sociales, sont nécessaires pour achever le processus d'exosomatisation. Par exemple, la philosophie socratique, qui peut être interprétée comme une réaction à l'écriture et à son utilisation par les Sophistes (avec des conséquences potentiellement catastrophiques pour la cité – polis), aboutira à la création de l’académie de Platon – et constituera pour longtemps la base du pouvoir à travers diverses transformations du savoir opérées sur cette base.

Dans le contexte contemporain, où l’exosomatisation, devenue de part en part technologique (et non seulement technique), est désormais pilotée par le marketing, il ne suffit pas qu'une technologie ait trouvé son marché pour qu’elle puisse être considérée comme bénéfique. Il est également nécessaire de trouver les modalités positives dont cette technologie est réellement porteuses, et les pratiques et prescriptions sociales qui sauront limiter sa toxicité, qui l’on appellera son anthropie, et intensifier sa curativité, que l’on appellera sa néguanthropie.

Ceci est particulièrement nécessaire dans le contexte actuel tel que le caractérisent le changement climatique, le déclin de la biodiversité et la généralisation de la dénoétisation : l’ère Anthropocène et les excès anthropiques décrit par le GIEC, et qui pourraient détruire l’humanité et la vie dans la biosphère en totalité, sont mises en évidence du fait que le pilotage du processus d’exosomatisation par le marché devenu hégémonique et non seulement toxique, mais proprement mortifère.

Pour qu’une nouveauté exosomatique puisse devenir bénéfique, et limite sa toxicité (l’économise en ce sens), un surcroît de travail est toujours nécessaire, en toute époque de l’évolution anthropologique. Seul le travail ainsi entendu permet d’identifier les nouveautés exosomatiques (techniques ou technologiques) réellement requises par et compatibles avec un avenir souhaitable pour une localité – fusse cette localité la biosphère elle-même et en totalité. Ce travail est celui de la noésis, c’est à dire de la pensée, sous toutes ses formes, et comme savoirs pratiques aussi bien que théoriques, familiaux, artisanaux, sportifs ou artistiques aussi bien que théoriques, juridiques et spirituels au sens large. Il relève de ce que nous nommons en conséquence la noodiversité et la noodiversification.

D’un tel point, élever un enfant, c’est penser, et cette pensée est aussi un soin (et en cela, elle constitue ce que l’on peut appeler un pansement noétique) qui fera de la singularité de cet enfant un potentiel de noodiversité (34) . De nos jours, l’évolution technologique empêche de plus en plus les parents de penser, et donc de prendre soin de leurs enfants en les éduquant (en leur fournissant ces pansements noétiques qui sont appelés des cultures). Dans la perspective de l’exosomatisation telle qu’elle requiert de telles formes de pensée et de soin, les savoirs sous toutes leurs formes, pratiques et théoriques, jouent un rôle crucial : ils permettent de prescrire des variantes fonctionnelles et des pratiques sociales des nouveautés introduites par l'exosomatisation. Les savoirs sont ainsi articulés à l’ethos (comme lieu de l’exosomatisation), et, en cela, à l'éthique (comme on y revient au chapitre six (35) ).

Les ordinateurs, qui participent de nos jours à ce processus à la fois curatif et toxique, peuvent être définis comme des systèmes de réécriture automatique. Avec l'augmentation de leur vitesse et la croissance des bases de données, la capacité des ordinateurs à traiter les informations et à effectuer des catégorisations augmente considérablement. Cependant, les tâches qu'ils peuvent effectuer ne sont pas équivalentes aux nouveautés produites par le travail humain. Ce travail produit du sens qui n’est ni dans les données initiales ni dans leurs combinaisons par des méthodes algorithmiques. C’est pourquoi on verra dans le chapitre trois (36)

  • qu’il est indispensable de distinguer le travail de l’emploi,
  • que le travail hors emploi doit être valorisé économiquement au sein de ce que nous décrivons comme une économie de la contribution – celle-ci consistant à produire de la néguanthropie, et parfois de l’anti-anthropie, c’est à dire à limiter ou même à inverser (anti-anthropiquement) les dimensions anthropiques de toute activité de l’anthropos.

23. Principes, droits et faits

Issu du travail théorique de Galilée, le principe d'inertie décrit une situation qui est très exotique sur Terre – ce principe pose qu’aucune force n'étant exercée sur un objet (par exemple, pas de frottement et ni de gravitation), un objet quelconque en mouvement conserve sa vitesse. Ce principe ne peut évidemment pas être dérivé de données, mais a été posé par Galilée comme un principe asymptotique (limite) permettant de comprendre tous les autres mouvements et d'analyser ce qui peut les affecter, tel que la friction et la gravitation. Il est aussi le premier principe de la physique de Newton.

De même, l'égalité des droits entre les citoyens ou l'égalité des sexes sont des principes politiques, qui posent une rupture avec les situations antérieures, ou existantes et factuelles, et remodèlent les organisations sociales en fonction d’un nouvel état de droit qui ne peut être déduit des situations antérieures. Ces exemples sont historiquement majeurs dans leurs domaines respectifs ; cependant, ce type de processus est, en un sens, ordinaire dans les activités humaines.

De tels processus, où le droit (au sens scientifique comme au sens juridique et au sens politique) se distingue des faits, définissent le travail par opposition avec l’emploi (c’est à dire le labeur) prolétarisé (worklabor en anglais, WerkArbeit, ergonponos en grec ancien) : le premier est aussi la possibilité permanente de l’invention d'une nouvelle configuration de sens. La tendance actuelle n'est malheureusement pas de développer le travail en ce sens; il s'agit plutôt d'une convergence entre algorithmes et activités humaines qui accentue la prolétarisaiton, c’est à dire la perte des capacités d’œuvrer et de travailler en ce sens – en œuvrant à inverser l’anthropie en néguanthropie.

Actuellement, la convergence entre algorithmes et activités humaines telle qu’elle est systématiquement et systémiquement exploitée par des plateformes massivement anthropiques à tout point de vue signifie une stérilisation du travail par sa standardisation – sa transformation en traitement générique de l’information. Un tel état de fait peut parfaitement être modifié – et il devrait venir au centre d’une nouvelle conception du design (cf. sur ce point le chapitre sept infra (37) ).

Le consensus scientifique est que le chemin suivi actuellement par la civilisation conduit à sa destruction, notamment en réduisant et éliminant l'anti-entropie et l’anti-anthropie, (comme extension de l’anti-entropie aux organisations sociales) avec les technologies de l’information elle-même réduite à un calcul, et cela, par un aplatissement unidimensionnel qui génère ce que Ludwig von Bertallanffy décrit en cela comme des systèmes fermés – c’est à dire autodestructeurs de leurs dynamiques. Il apparaît ainsi très clairement que la « destruction créatrice » conceptualisée par Joseph Schumpter est devenue une destruction destructrice – comme le montrera en 1971 l’assistant de Schumpeter qu’aura été Georgescu-Rœgen (38) .

Le travail, à la différence du simple labeur, invente de nouveaux outils et préscrit de nouvelles pratiques, lesquelles engendrent de nouveaux usages, c’est à dire des modes de vie au sens où l’on parle d’us, de coutumes et de cultures (ces usages sont cultivés, ce ne sont pas de simples « modes d’emploi »), construisant ainsi de nouvelles configurations de sens pour les interactions humaines et écosystémiques. Ainsi le travail s'écarte-t-il de la combinatoire alphanumérique probabiliste dans un ensemble de possibilités prédéterminées (traitement informatique des données).

C’est pourquoi une réinvention du travail (et avec lui de l’économie – psychique aussi bien que politique) est nécessaire à tous les niveaux de la société pour faire face à la crise actuelle, et tenter de la surmonter.

C’est pourquoi nous considérons nécessaire – comme cela a été expliqué dans l'introduction (39) – d'étendre et de transposer les concepts d'entropie, de néguentropie et d'anti-entropie à travers les concepts d’anthropie, de néganthropie et d’anti-anthropie afin de préciser le caractère double (comme pharmakon, à la fois poison et remède) de l'organe exosomatique et de ses pratiques et usages en économie, compris par le rapport entropie / néguentropie, et en vue de surmonter l’ère Anthropocène (qui est un Entropocène) en vue de ce qui a été appelé le Néguanthropocène (40) .

Références

  1. (1) Karl Polanyi, La grande transformation, Gallimard
  2. (2) Georgescu-Roegen, N. (1993). The entropy law and the economic problem. In Valuing the Earth: Economics, ecology, ethics, pages 75–88. MIT Press Cambridge, MA.
  3. (3) Vladimir Vernadsky, La biosphère, Seuil.
  4. (5) John Austin Quand dire c’est faire, Seuil.
  5. (6) Lotka, “The law of evolution and the maximal principle”, Human biology, 1945
  6. (11) Nicholas Carr. Is Google Making Us Stupid? The Atlantic Online July/August 2008
  7. (12) Bernard Stiegler, Qu’appelle-t-on panser ?, Les liens qui libèrent
  8. (13) Bernays, E. (2007) Propaganda : Comment manipuler l'opinion en démocratie (trad. Oristelle Bonis, préf. Normand Baillargeon), Zones / La Découverte (1re éd. 1928)
  9. (14) Shannon, C. E. (1948). A mathematical theory of communication. The Bell System Technical Journal, 27:379–423.
  10. (15) Longo, G., Miquel, P. A., Sonnenschein, C., & Soto, A. M. (2012). Is information a proper observable for biological organization?. Progress in Biophysics and Molecular biology, 109(3), 108-114.
  11. (16) , lettre de M. H. Poincaré à M. Léon Walras. Poincaré, Henri, http://henri-poincare.ahp-numerique.fr/items/show/295
  12. (17) Bizzarri, M., A. Soto, C. Sonnenschein, and G. Longo (2017). Why Organisms? Organisms. Journal of Biological Sciences, 1(1):1–2. doi: 10.13133/2532-5876/13871.
  13. (18) Chris Anderson, “The end of theory”, Wired, juin 2008
  14. (19) Kevin Kelly
  15. (20) Geman, D., & Geman, S. (2016). Opinion: Science in the age of selfies. Proceedings of the National Academy of Sciences, 113(34), 9384-9387.
  16. (21) Wasserstein, R. L., & Lazar, N. A. (2016). The ASA statement on p-values: context, process, and purpose.
  17. (22) D.Scott, S., H. D. Holland, and K. K. Turekian, editors (2014). Geochemistry of Mineral Deposits, Treatise on Geochemistry, volume 13. Elsevier, Oxford, 2 edition. ISBN 978-0-08-098300-4.
  18. (23) Nicolis, G. and I. Prigogine (1977). Self-organization in non-equilibrium systems. Wiley, New York.
  19. (24) Longo, G. and M. Montévil (2014). Perspectives on Organisms: Biological time, symmetries and singularities. Lecture Notes in Morphogenesis. Springer, Dordrecht. ISBN 978-3-642-35937-8. doi: 10.1007/978-3-642-35938-5. Kauffman, S. A. (2019). A World Beyond Physics: The Emergence and Evolution of Life. Oxford University Press.
  20. (24) Longo, G. and M. Montévil (2014). Perspectives on Organisms: Biological time, symmetries and singularities. Lecture Notes in Morphogenesis. Springer, Dordrecht. ISBN 978-3-642-35937-8. doi: 10.1007/978-3-642-35938-5.
  21. (24) Kauffman, S. A. (2019). A World Beyond Physics: The Emergence and Evolution of Life. Oxford University Press.
  22. (26) Schrödinger, E. (1944). What Is Life? Cambridge U.P.
  23. (27) Montévil, M. (2021). Entropies and the anthropocene crisis. AI and society.
  24. (28) Bailly, F. and G. Longo (2009). Biological organization and anti-entropy. Journal of Biological Systems, 17(1):63–96. doi: 10.1142/S0218339009002715.
  25. (28) Longo, G. and M. Montévil (2014). Perspectives on Organisms: Biological time, symmetries and singularities. Lecture Notes in Morphogenesis. Springer, Dordrecht. ISBN 978-3-642-35937-8. doi: 10.1007/978-3-642-35938-5.
  26. (31) Montévil, M. (2021). Entropies and the anthropocene crisis. AI and society.
  27. (32) C’est ce qui a été décrit comme double redoublement épokhal à diverses reprises, cf. par exemple Dans la disruption. Comment ne pas devenir fou ?, Les liens qui libèrent, §§
  28. (33) F. Maryanne Wolf, Proust et le calamar, préface de Bernard Stiegler, postface de Bernard Stiegler et Marianne Wolf, éditions Abeille et Castor
  29. (38) Georgescu-Roegen, N. (1993). The entropy law and the economic problem. In Valuing the Earth: Economics, ecology, ethics, pages 75–88. MIT Press Cambridge, MA.
  30. (40) Stiegler, The neganthropocene, Open Humanities Publishing, introduction et traduction par Dan Ross.

Notes

(7) L’ouvrage commence par cette description à travers l’exemple fameux de l’usine produisant des têtes d’épingles.

(25) Chapitre trois

(29) Cela signifie aussi que l’anti-anthropie constitue l’ouvert (aux sens de Rainer Maria Rilke aussi bien que de Gilles Deleuze) – l’ouvert qui sourd d’une néguanthropie luttant contre l’anthropie. Cet ouvert, en grec ancien, se dit noésis.

(34) Et ce potentiel cosntitue toujours en quelque façon la transforamtion de ce qui se présente comme une fragilit en une force inattendue et improbable : c’est ainsi que le dyslexique Leonardo da Vinci, le sourd Thomas Edison et lépileptique Fedor Dostoïevski deviennent pour l’humanité ce que les Grecs de l’Antiquité appelaient des héros.

(35) Chapitre six

(36) Chapitre trois

(37) Chapitre sept

(39) Introduction