samedi 15 mars 2014

Après le Léviathan, suite (8)


Qui fait l’effort de penser la naissance des théorèmes physiques de la relativité dans leur perspective philosophique et mathématique longue, l’histoire du calcul des probabilités et de la raison statistique – comprendra mieux pourquoi la génération d’Einstein et de Fermi exerça si vite tant d’autorité, même dans les domaines en apparence les plus éloignés de leurs propres champs de recherche. Elle donnait le mot de la fin, et avec quelle élégance ! à plus d’un siècle de tâtonnements dans les brumes de la réalité probable, par nature la plus inquiétante de toutes, la plus informe. Chez les savants de ces années, Heisenberg la baptisa d’un nom appelé à faire du bruit : le principe d’incertitude. Avec son Plaidoyer pour l’indéterminisme, Popper lui donna ses lettres de noblesse philosophiques. Mais la réalité probable qui commande à notre monde les avait précédés : nous vivions déjà dans un univers statistique (déjà la Terre était-elle ronde), et c’est à une poignée de physiciens polymathes que revint l’honneur de la divulguer parmi nous et de nous expliquer, non pas qui nous gouverne (personne, justement, ô inquiétante étrangeté !), mais comment ça nous brasse.

Avant de filer vers quelques exemples des affinités puissantes entre la physique relativiste et l’esprit du temps, rappelons en deux mots la thèse quantique, conséquence directe de l’intuition einsteinienne : quand nous mesurons les volumes et les distances à la vitesse de la lumière, et nous utilisons sans cesse ce signal qu’est pour nous la lumière, nous soumettons l’espace mesuré à des déformations proportionnelles à l’accélération induite. Déformations qui ne sont elles-mêmes calculables qu’à la condition de comprendre de quoi se compose l’étalon utilisé : de flux, que nous schématisons sous la forme, soit de lignes ondoyantes, soit de particules élémentaires – dont les coordonnées d’espace-temps ne nous sont connues que par « paquets », autrement dit par groupes d’occurrences dont la valeur numérique n’indexe donc que l’écart statistiquement calculé entre des phases du complexe énergie-matière (ou encore : dissipation-inertie). La physique quantique a pu commencer d’arpenter les grandeurs micro- et nano- grâce à l’outil  statistique : comme il ne traite que des séries et ne connaît d’unités qu’à titre d’échantillons d’une sérialité strictement définie, lui seul lui permettait de contourner le mystère « plastique » des corps électromagnétiques – ni ondes ni corpuscules, mais leur composition – et de les coordonner en langage algébrique. Ce que, un demi-siècle plus tôt, la physique des fluides avait déjà établi par expérimentation sur les corps gazeux – le rapport mesurable entre l’évaluation statistique du micro-état d’un système et la probabilité thermodynamique d’un macro-état du même système –, se vérifiait pour les champs électromagnétiques et les structures nucléaires. Des probabilités d’état analogues s’avéraient ainsi à travers l’ensemble des composés énergie-matière distingués par les sciences physiques.

L’ébranlement sans pareil provoqué par cette nouveauté tient à sa résonance immédiate dans d’autres champs d’expérience déjà familiarisés avec les phénomènes sériels, à commencer par les sciences sociales auparavant conçues par les physiocrates, les premiers théoriciens de l’économie de marché comme fonction prévisible de stocks (la matière) et de flux (l’énergie). L’Occident des révolutions industrielles s’initiait en même temps à la perception statistique, avec les premiers travaux systématiques de Condorcet, jeune collègue de D’Alembert, portant sur les possibles techniques du suffrage électoral étendu à des populations nombreuses. Comment dénombrer commodément des foules, le matériau premier du peuple de la volonté générale – ainsi s’énonçait la question des encyclopédistes peu avant la fin de l’Ancien Régime, quand pointe la citoyenneté censitaire, puis universelle. Mais du point de vue statistique du mathématicien, ces foules d’électeurs n’ont d’abord qu’un seul intérêt : leur sérialité, la répétition mécanique du même geste – «  a voté » – par des quantités de foules dont le dénombrement exact et incontestable sera l’unique garantie de la valeur proprement politique de la procédure juridique. C’est mise en valeur par cette procédure standard que la foule de l’égalité devient peuple et souverain : la volonté populaire émane d’une assemblée populeuse, qu’il faut compter et recenser en bonne et due forme pour que ce fugace agrégat soit Sujet qui déclare sa Volonté. L’égalité de la devise révolutionnaire ne serait qu’une utopie sans l’outil mathématique qui rend possibles l’isonomie et l’adunation : tous devenant égaux parce que dénombrables, et en tout cas au moment où ils le deviennent.

Naissance du pouvoir statistique, et naissance du pouvoir isonomique comme institution statistique : application de la pensée sérielle et probabiliste aux faits et gestes de la collectivité humaine. Rétrospectivement, on ne comprend que trop bien le malheur de Rousseau et son obstination à ne tenir son propre idéal « républicain » pour applicable que dans des unités humaines minuscules ou modestes : s’il ne trouve pas son expression sérielle de volonté générale en acte, le contrat social reste une vue de l’esprit – mais Rousseau, justement, n’avait pour cet aspect des choses, le recensement des volontés particulières, qu’indifférence ou répugnance. Le recensement d’un collège électoral dans une cité esclavagiste de l’Antiquité ne présentait pas de difficultés – quid d’un royaume de 25 millions d’âmes ? Il fallait donc l’invention statistique des encyclopédistes pour élever la foule à l’état de corps juridique et politique régulièrement constitué – et la progressive institution statistique du corps électoral alla ainsi de pair avec celle de l’activité économique (les oscillations de la valeur d’échange sur le marché boursier, les modèles des cycles productifs et de leurs fréquences, la combinatoire du court et du long terme dans les politiques de crédit, … la dyade manchestérienne de l’offre et de la demande censément autorégulées tenant lieu pour ainsi dire de substitut ou de réplique à celle de l’énergie-matière physique – sans oublier le développement rapide des sociétés mutualistes et des techniques d’assurance en tout genre, autant d’applications directes de l’intelligence statistique, inspirant les progrès du raisonnement dit socialiste ou sociologique dans toutes les grandes zones d’industrialisation polytechnique). Il va de soi que les mêmes outils rendirent possibles et perfectibles l’industrie des transports en commun (pas de réseau ferroviaire sans statisticiens calculant la cadence des navettes et la distribution des convois) et celle de la guerre de masse (ses seuils de perte supportables, ses quotas de munitions efficaces par mètre carré) – deux champs de manifestation éminents de la réalité probable sécrétée par le raisonnement statistique, celui dont Musil a si magistralement dépeint la progéniture idéale, l’homme sans qualités. Plutôt que de nous dévergonder en exemples, pointons d’un seul trait ce qu’ont de commun toutes ces techniques de la sérialité (y compris démographique), quel que soit leur champ d’application : « La pratique démocratique moderne consiste, pour le citoyen, à choisir des décideurs, et non à décider » (Marcel Conche, L’Aléatoire, 1989).

Qui dit réalité probable dit décision incertaine, ou stratégie indécise. Indécise quand elle est celle de la dissuasion nucléaire (puisque, entre adversaires, le deterrent qui vise à paralyser la prise de décision de l’adversaire se retourne contre soi-même, aussi bien du fort au fort que du faible au fort) ; mais indécise aussi quand elle est celle de la théorie des jeux enseignée par les managers aux militaires, puisque ses théoriciens prennent toujours soin de nous le préciser : même pour des enjeux vitaux, le comportement des joueurs ne sera jamais que partiellement rationnel, ce qui d’emblée limite la validité systémique de la théorie qui veut décrire leurs comportements possibles et probables. Et indécise quand elle est celle du preneur d’otages, puisqu’il ne transforme la prédation en avantage que si la proie a bien – mais comment le savoir avant ? – la valeur qu’il en attend. Et indécise quand elle est celle des pouvoirs politiques pris en tenailles entre les réalités probables calculées par les instituts de sondage. Et indécise quand elle est celle du manager ne produisant plus qu’à raison de flux tendus – non plus en rupture, mais en absence de stocks.

Voilà bien le comble, à l’ère de la réalité probable statistiquement gouvernable : elle se compose d’actions supposées décisives, « dont les effets systématiques et accumulatifs finissent par annuler les résultats attendus ou aggraver même partiellement l’état de faits, en raison de la nature même de la situation stratégique » (Ed. Luttwak). Situation intensément instable puisqu’il est de l’essence de la grande stratégie de toujours devoir et vouloir permuter ou commuter les fins et les moyens. De fait, l’indécision nichée au cœur de la réalité probable ne joue pas au poker (philosophie canaille de la manipulation par la ruse), elle commet bien pire : elle nous montre, mais après coup, que si « nous savons ce que nous faisons, nous ne savons pas ce que fait ce que nous faisons » (P. Valéry). À l’objet indécidable découvert par les physiciens de la relativité fait pendant le sujet indécis de la réalité probable. Depuis le livre de Myriam Revault d’Allonnes, elle arbore un nouveau nom, qui lui va comme un gant : la crise sans fin. Essai sur l’expérience moderne du temps.

J.-L. Evard, 15 mars 2014


Aucun commentaire: