Qui fait l’effort de penser la
naissance des théorèmes physiques de la relativité dans leur perspective
philosophique et mathématique longue, l’histoire du calcul des probabilités et de
la raison statistique – comprendra mieux pourquoi la génération d’Einstein et
de Fermi exerça si vite tant d’autorité, même dans les domaines en apparence
les plus éloignés de leurs propres champs de recherche. Elle donnait le mot de
la fin, et avec quelle élégance ! à plus d’un siècle de tâtonnements dans
les brumes de la réalité probable,
par nature la plus inquiétante de toutes, la plus informe. Chez les savants de
ces années, Heisenberg la baptisa d’un nom appelé à faire du bruit : le
principe d’incertitude. Avec son Plaidoyer
pour l’indéterminisme, Popper lui donna ses lettres de noblesse
philosophiques. Mais la réalité probable qui
commande à notre monde les avait précédés : nous vivions déjà dans un
univers statistique (déjà la Terre était-elle ronde), et c’est à une poignée de
physiciens polymathes que revint l’honneur de la divulguer parmi nous et de
nous expliquer, non pas qui nous gouverne (personne, justement, ô inquiétante
étrangeté !), mais comment ça nous brasse.
Avant
de filer vers quelques exemples des affinités puissantes entre la physique
relativiste et l’esprit du temps, rappelons en deux mots la thèse quantique,
conséquence directe de l’intuition einsteinienne : quand nous
mesurons les volumes et les distances à la vitesse de la lumière, et nous utilisons
sans cesse ce signal qu’est pour nous la lumière, nous soumettons l’espace mesuré
à des déformations proportionnelles à l’accélération induite. Déformations qui
ne sont elles-mêmes calculables qu’à la condition de comprendre de quoi se
compose l’étalon utilisé : de flux, que nous schématisons sous la forme, soit
de lignes ondoyantes, soit de particules élémentaires – dont les coordonnées
d’espace-temps ne nous sont connues que par « paquets », autrement
dit par groupes d’occurrences dont la
valeur numérique n’indexe donc que l’écart statistiquement calculé entre des phases du complexe énergie-matière (ou
encore : dissipation-inertie). La physique quantique a pu commencer
d’arpenter les grandeurs micro- et nano- grâce à l’outil statistique : comme il ne traite que des
séries et ne connaît d’unités qu’à titre d’échantillons d’une sérialité
strictement définie, lui seul lui permettait de contourner le mystère
« plastique » des corps électromagnétiques – ni ondes ni corpuscules,
mais leur composition – et de les coordonner en langage algébrique. Ce que, un
demi-siècle plus tôt, la physique des fluides avait déjà établi par
expérimentation sur les corps gazeux – le rapport mesurable entre l’évaluation
statistique du micro-état d’un système et la probabilité thermodynamique d’un
macro-état du même système –, se vérifiait pour les champs électromagnétiques
et les structures nucléaires. Des probabilités d’état analogues s’avéraient ainsi à travers l’ensemble des composés énergie-matière distingués par les sciences
physiques.
L’ébranlement
sans pareil provoqué par cette nouveauté tient à sa résonance immédiate dans
d’autres champs d’expérience déjà familiarisés avec les phénomènes sériels, à
commencer par les sciences sociales auparavant conçues par les physiocrates,
les premiers théoriciens de l’économie de marché comme fonction prévisible de
stocks (la matière) et de flux (l’énergie). L’Occident des révolutions
industrielles s’initiait en même temps à la perception statistique, avec les
premiers travaux systématiques de Condorcet, jeune collègue de D’Alembert,
portant sur les possibles techniques du suffrage électoral étendu à des
populations nombreuses. Comment dénombrer commodément des foules, le matériau
premier du peuple de la volonté générale – ainsi s’énonçait la question des
encyclopédistes peu avant la fin de l’Ancien Régime, quand pointe la citoyenneté
censitaire, puis universelle. Mais du point de vue statistique du
mathématicien, ces foules d’électeurs n’ont d’abord qu’un seul intérêt :
leur sérialité, la répétition mécanique du même geste – « a voté » –
par des quantités de foules dont le dénombrement exact et incontestable sera
l’unique garantie de la valeur proprement politique de la procédure juridique.
C’est mise en valeur par cette procédure standard que la foule de l’égalité
devient peuple et souverain : la volonté populaire émane d’une assemblée
populeuse, qu’il faut compter et recenser en bonne et due forme pour que ce
fugace agrégat soit Sujet qui déclare sa Volonté. L’égalité de la devise
révolutionnaire ne serait qu’une utopie sans l’outil mathématique qui rend
possibles l’isonomie et l’adunation : tous devenant égaux parce que dénombrables, et en tout cas au moment où ils le deviennent.
Naissance
du pouvoir statistique, et naissance du pouvoir isonomique comme institution statistique :
application de la pensée sérielle et probabiliste aux faits et gestes de la
collectivité humaine. Rétrospectivement, on ne comprend que trop bien le
malheur de Rousseau et son obstination à ne tenir son propre idéal « républicain »
pour applicable que dans des unités humaines minuscules ou modestes : s’il
ne trouve pas son expression sérielle de volonté générale en acte, le contrat
social reste une vue de l’esprit – mais Rousseau, justement, n’avait pour cet
aspect des choses, le recensement des
volontés particulières,
qu’indifférence ou répugnance. Le recensement d’un collège électoral dans une
cité esclavagiste de l’Antiquité ne présentait pas de difficultés – quid d’un royaume de 25 millions
d’âmes ? Il fallait donc l’invention statistique des encyclopédistes pour
élever la foule à l’état de corps juridique et politique régulièrement
constitué – et la progressive institution statistique du corps électoral alla
ainsi de pair avec celle de l’activité économique (les oscillations de la
valeur d’échange sur le marché boursier, les modèles des cycles productifs et
de leurs fréquences, la combinatoire du court et du long terme dans les
politiques de crédit, … la dyade manchestérienne de l’offre et de la demande
censément autorégulées tenant lieu pour ainsi dire de substitut ou de réplique à
celle de l’énergie-matière physique – sans oublier le développement rapide des
sociétés mutualistes et des techniques d’assurance en tout genre, autant
d’applications directes de l’intelligence statistique, inspirant les progrès du
raisonnement dit socialiste ou sociologique dans toutes les grandes zones
d’industrialisation polytechnique). Il va de soi que les mêmes outils rendirent
possibles et perfectibles l’industrie des transports en commun (pas de réseau
ferroviaire sans statisticiens calculant la cadence des navettes et la distribution
des convois) et celle de la guerre de masse (ses seuils de perte supportables,
ses quotas de munitions efficaces par mètre carré) – deux champs de
manifestation éminents de la réalité probable sécrétée par le raisonnement
statistique, celui dont Musil a si magistralement dépeint la progéniture
idéale, l’homme sans qualités. Plutôt que de nous dévergonder en exemples, pointons
d’un seul trait ce qu’ont de commun toutes ces techniques de la sérialité (y
compris démographique), quel que soit leur champ d’application : « La
pratique démocratique moderne consiste, pour le citoyen, à choisir des
décideurs, et non à décider » (Marcel Conche, L’Aléatoire, 1989).
Qui
dit réalité probable dit décision incertaine, ou stratégie indécise. Indécise quand
elle est celle de la dissuasion nucléaire (puisque, entre adversaires, le deterrent qui vise à paralyser la prise
de décision de l’adversaire se retourne contre soi-même, aussi bien du fort au
fort que du faible au fort) ; mais indécise aussi quand elle est celle de
la théorie des jeux enseignée par les managers aux militaires, puisque ses
théoriciens prennent toujours soin de nous le préciser : même pour des
enjeux vitaux, le comportement des joueurs ne sera jamais que partiellement
rationnel, ce qui d’emblée limite la validité systémique de la théorie qui veut
décrire leurs comportements possibles et probables. Et indécise quand elle est
celle du preneur d’otages, puisqu’il ne transforme la prédation en avantage que
si la proie a bien – mais comment le savoir avant ? – la valeur qu’il en
attend. Et indécise quand elle est celle des pouvoirs politiques pris en
tenailles entre les réalités probables calculées par les instituts de sondage.
Et indécise quand elle est celle du manager ne produisant plus qu’à raison de
flux tendus – non plus en rupture, mais en absence de stocks.
Voilà
bien le comble, à l’ère de la réalité probable statistiquement
gouvernable : elle se compose d’actions supposées décisives, « dont
les effets systématiques et accumulatifs finissent par annuler les résultats
attendus ou aggraver même partiellement l’état de faits, en raison de la nature
même de la situation stratégique » (Ed. Luttwak). Situation intensément
instable puisqu’il est de l’essence de la grande stratégie de toujours devoir
et vouloir permuter ou commuter les fins et les moyens. De fait, l’indécision
nichée au cœur de la réalité probable ne joue pas au poker (philosophie canaille
de la manipulation par la ruse), elle commet bien pire : elle nous montre,
mais après coup, que si « nous savons ce que nous faisons, nous ne savons
pas ce que fait ce que nous faisons » (P. Valéry). À l’objet indécidable
découvert par les physiciens de la relativité fait pendant le sujet indécis de
la réalité probable. Depuis le livre de Myriam Revault d’Allonnes, elle arbore
un nouveau nom, qui lui va comme un gant : la crise sans fin. Essai sur l’expérience moderne du temps.
J.-L. Evard, 15 mars 2014
Aucun commentaire:
Enregistrer un commentaire