Pourquoi la société ne se laisse pas mettre en équations

Pablo JENSEN - Seuil - 2018

Dans son premier livre, « Des atomes dans mon café crème » - 2001, le physicien Pablo Jensen s’inquiétait de la trop grande notoriété des sciences physiques dans le monde de la recherche : « Le danger est de vouloir extrapoler cette méthode à d’autres domaines (…) ou encore de penser que toute connaissance peut être plaquée sur le modèle de la physique, comme certains économistes qui ont tenté de fonder une « physique sociale » (Jensen – 2001- pages 243-244). Manifestement, il ne devait pas connaitre à l’époque l’état de la science économique mais, dix sept ans plus tard, son deuxième ouvrage « Pourquoi la société ne se laisse-t-elle pas mettre en équations » porte justement sur ce problème et plus largement sur celui de la quantification en sciences sociales. La question posée dans ce livre est donc méthodologique – la quantification en sciences sociales améliore-t-elle la connaissance ? - mais elle est également épistémologique : le modèle des sciences physiques peut il servir aux sciences sociales ? Il est vrai qu’il est souvent tentant de légitimer une recherche en sciences sociales par sa quantification et sa référence au modèle des « sciences dures », ces dernières ayant dès le 18ème siècle, pris la place de la religion et de la « nature humaine » comme instance de légitimation des idées. Jensen rappelle, classiquement, que cette quantification est d’abord à relier à la volonté de l’Etat de contrôler le territoire dont il a la charge. Mais au 19ème siècle, c’est la découverte de la constance des moyennes qui intrigue les premiers promoteurs de la sociologie moderne (Quetelet, Durkheim). La quantification va trouver une nouvelle occasion de se développer après 1945 avec l’essor de la comptabilité nationale et de la planification (indicative). Enfin, aujourd’hui, c’est la découverte du « Big Data » qui donne de nouveaux espoirs à cette quantification. L’intérêt du livre ne tient pas tant dans les avancées que nous proposerait Pablo Jensen (il y a peu de choses qu’un bon connaisseur en sociologie ne savait déjà) mais plutôt dans le parcours de l’auteur et son jugement, en tant que physicien, sur la volonté de scientifisation des sciences sociales.

Le livre est composé de vingt deux chapitres courts rassemblés dans cinq parties nous permettant de passer régulièrement des sciences physiques aux sciences sociales. Dans la première partie, il nous montre comment les « sciences naturelles » ont réussi à construire un savoir fiable. Les quatre autres parties portent plus sur les sciences de la société : « Simuler la société »/ « Analyser la société »/ « Quantifier la Société » / « Quelle vision du social ? » (Nous ne suivrons pas nécessairement l’ordre du livre).

 

Comment les « sciences naturelles » ont construit leur savoir

Pablo Jensen s’attache d’abord à montrer comment la science moderne s’est construite historiquement et il le fait à travers trois exemples (chapitres 2, 4 et 18). Il montre d’abord l’apport essentiel de Galilée à travers l’analyse de la chute des corps : avant lui, et depuis Aristote, on expliquait la chute des corps à l’aide d’une propriété intrinsèque à l’objet. Galilée va être à l’origine de deux apports importants : d’une part, en faisant des expériences de chute sur un plan incliné, il crée le premier « laboratoire » et met en avant les trois critères fondateurs des sciences : un phénomène doit être enregistrable, reproductible et on recherche les explications mono causales; d’autre part, il met en évidence l’apport essentiel des mathématiques (qui ont avant tout un rôle logistique ou de traduction en une langue commune). Ainsi, expliquer un phénomène c’est le transformer en problème mathématique et le résoudre à l’aide des outils de la science. Le deuxième exemple utilisé par Jensen est celui de la prévision du temps qui relève de deux grands approches : multiplier les observations ou appliquer les lois de la physique (la seconde, dominante aujourd’hui, a été longtemps peu efficace). Troisième exemple : dans le chapitre 18, Jensen retrace l’histoire de la construction du concept de température et de sa mesure (mesure rendue nécessaire avec la multiplication des machines à vapeur). La première étape, la plus simple, a consisté à déterminer deux états stables et reproductibles auxquels on a donné les valeurs 0 et 100. Mais les stades intermédiaires étaient instables du fait que, dans un thermomètre, la mesure de la température dépend du liquide utilisé (car l’augmentation de la température entraine la dilatation du liquide et du verre). On résolut le problème avec la création d’un thermomètre à air puis on développa le concept de « température absolue », équivalent à ce qu’on obtiendra avec un thermomètre rempli d’un « gaz parfait ». Il fallut dans le même temps « objectiver » le concept de température (car si l’idée de chaleur est subjective, le concept de température suppose une objectivité), ce qui fut rendu possible par le travail d’institutionnalisation (de convention) permettant la standardisation de la mesure.

La science est donc une construction abstraite qui nécessite un usage intelligent de l’abstraction (l’abstraction devenant dangereuse si elle appauvrit l’objet au lieu de l’enrichir). S’y adjoignent des expériences de laboratoire et l’usage de la mathématisation. L’expérience en laboratoire doit transformer le phénomène à étudier mais sans le déformer (sans oublier, notamment, des éléments essentiels) et en le rendant manipulable : la démarche scientifique est alors semblable, nous dit Jensen, à l’action du dompteur qui transforme un tigre sauvage en un animal bien dressé. L’objet scientifique n’est donc pas un objet « naturel » et il faut donc garder à l’esprit qu’il y a une discontinuité entre la « vérité du laboratoire » et la « vérité du réel ». Ne pas présenter cette discontinuité (notamment dans l’enseignement secondaire) c’est risquer deux dérives : l’acceptation béate de la part du public ou, à l'inverse, le rejet aveugle. La construction de  l’objet scientifique implique aussi un mouvement d’objectivation (cas de la température, phénomène objectivé, qu’on distingue de la chaleur) et d’institutionnalisation (dans le cas des relevés de température, par exemple, il y a eu un travail mondial pour collecter et homogénéiser les données). Il apparait donc que la science n’a pas pour objectif de dévoiler une « réalité déjà là » mais est le résultat d’une « construction », mais cela n’autorise cependant pas qu’il n’y ait aucun lien avec la « réalité ». Les modèles utilisés dans les sciences physiques sont aujourd’hui de plus en plus efficaces mais cela tient au fait que les relations physiques fondamentales sont connues et semblables à tous les niveaux d’observation, que les prévisions ne portent que sur des états moyens (par exemple, en climatologie) et que les causes sont additives, ce qui permet de les isoler.

Mais cette situation se retrouve-t-elle dans d’autres disciplines scientifiques, biologie et sciences sociales ?

Le modèle des sciences physiques est-il transposable aux sciences sociales ?

L’efficacité de la mathématisation et, de manière sous-jacente, de la démarche propre aux sciences physiques, dans le domaine des sciences sociales est donc l’objet central des réflexions dans la suite du livre. Depuis le 19ème siècle, la tendance dominante  a été d’importer les habitudes des physiciens dans le domaine des sciences sociales, à savoir privilégier un ancrage empirique fort, privilégier la parcimonie des hypothèses explicatives et développer un lien mathématique entre les deux. Mais, dans le domaine des sciences sociales, ces trois éléments sont fragiles (notamment la question des données empiriques), ce qui fait  que la mathématisation n’est pas toujours garante de la validité des résultats, surtout quand le nombre d’éléments à combiner augmente. Au 19ème siècle, les premiers sociologues sont interpellés par la constance des données sociales. Quetelet y voit l’indice de l’existence d’une cause constante sous-jacente aux phénomènes ; Durkheim développe l’idée plus audacieuse de l’existence de lois propres au niveau de la société. Dans cette tradition c’est la constance et la généralité des données qu’il faut étudier en priorité. Mais il faut ensuite se poser la question des variations : sont-elles significatives ou relèvent-elles du hasard ? Question plus difficile à résoudre qu’en sciences physiques car, pour Jensen, la situation en sciences sociales ne relève pas de la simplicité du lancer de dés pour déterminer la part du hasard. La constance des données sociales étant tout de même relative, Jensen propose de s’intéresser prioritairement à leurs aspects variables mais dans ce cas,  il peut être dangereux de chercher d’emblée des relations simples. Les phénomènes sociaux étant difficilement séparables (à la différence de ce qu’on peut faire en physique), il faut pouvoir dégager une causalité simple à partir d’une combinaison de causes. De quelles méthodes dispose-t-on pour cela ? On peut avoir recours aux essais randomisés contrôlés ou aux techniques de régression multiples mais ces deux méthodes ont leurs limites : les premiers ne sont jamais garantis d’être généralisables. Quant aux secondes, celle- ci supposent qu’on n’oublie pas de variable déterminante. Cependant, l’obstacle majeur est que ces méthodes supposent qu’une cause agit toujours dans le même sens, or il est possible, notamment en sciences sociales,  qu’une cause soit contextuelle et que son action diffère de sens suivant les cas.  Pour appuyer cette dernière idée, Pablo Jensen prend l’exemple particulier de la promotion des femmes au CNRS. Jensen a eu la possibilité, au début des années 2000, d’analyser les promotions au CNRS au titre de « directeur de recherche » en fonction d’un certain nombre de critères (nombre de publications, âge, sexe,…). Il constate que, curieusement, la variable « sexe » n’est pas explicative au niveau le plus général. Cela s’explique par le fait qu’il il ya deux effets contradictoires qui se compensent : peu de femmes jeunes sont promues (1 femme pour 14 hommes) mais, en revanche, il y a une proportion nettement supérieure pour les femmes de plus de 48 ans (probabilité d’être promue de 22% pour les femmes contre 14% pour les hommes), Jensen interprétant cela comme le résultat d’une auto censure aux jeunes âges. Cet exemple montre que l’analyse peut être inefficace si on s’appuie uniquement sur des variables. Il vaut mieux alors comparer non des données mais des combinaisons de données (ou des « profils ») mais on doit alors abandonner l’hypothèse d’additivité des données pour préférer la prise en compte des conjonctions spécifiques qui font qu’un facteur causal peut être pertinent ou non selon le contexte (on notera qu’Howard Becker, en empruntant un tout autre chemin dans « Comment parler de la société », conteste également l’hypothèse sous jacente d’additivité). On peut dans ce cas utiliser  l’ACP (Analyse en Composantes principales), les analyses qualitatives approfondies ou bien les « récits de vie ». Mais dans tous ces cas, on arrive donc aux limites des outils scientifiques « classiques » qui sont dues au fait que le caractère unique de chaque situation sociale limite l’efficacité des expériences contrôlées.

La modélisation

Jensen adopte une attitude circonspecte à l’égard des modèles hypothético déductifs même s’ils peuvent être utiles dans le cas de situations sociales simples. Ainsi il prend l’exemple fameux du modèle de Schelling montrant qu’on peut observer des phénomènes de ségrégation territoriale sans même que les individus soient animés de préjugés (racistes en l’occurrence). Pour Jensen ce modèle est utile pour comprendre que les préjugés individuels ne sont pas nécessaires pour obtenir un effet collectif de ségrégation mais dangereux si on pense qu’il illustre quelque chose de la réalité. S’il a tout de même un avis assez positif sur Schelling, il est en revanche très sévère à l’égard du modèle du physicien Galam qui prétend expliquer les résultats des élections de la décennie 2000 mais qui doit pour cela introduire des hypothèses ad-hoc et parfois héroïques comme celle de l’existence d’un électeur « contrariant » (qui vote systématiquement à l’encontre de la majorité). Enfin, il reprend le non moins célèbre modèle de Hotteling qui montre pourquoi deux candidats à une élection ont intérêt à se situer le plus au centre possible de l’échiquier électoral : reprenant l’illustration de deux magasins situés dans une même rue (ou de deux vendeurs de plage), Jensen montre qu’ils ont effectivement intérêt à se placer le plus  centre de la rue pour rafler le maximum de clientèle dans le cas où les produits (homogènes) ne présentent pas de différences de prix. En revanche, s’il ya une stratégie de différences de prix les magasins ont plus intérêt à se situer aux extrémités de la rue. Ces modèles ne permettent donc de dégager aucune loi générale mais seulement de montrer des conséquences possibles compte tenu d’hypothèses données. Comme il le rappelle, ces modèles permettent de dire tout et son contraire. Jensen ne conteste cependant pas l’intérêt de ce type de modèle pour simuler des situations simples comme le comportement des fourmis (travaux de Grassé sur la « stigmergie ») explicables à partir de quelques règles élémentaires. De même, on a pu simuler efficacement les mouvements de piétons à l’aide de « piétons virtuels » munis de trois règles simples (une force poussant vers la destination souhaitée, une force d’interaction par rapport aux autres piétons, une force de rejet vis à vis des murs). Mais il présente également des modèles liés à des situations plus complexes. Ainsi, il envisage la modélisation des épidémies en prenant en compte à la fois le nombre moyen d’infections provoquées par un porteur et le chemin emprunté par la maladie (famille, hôpitaux, funérailles). L’enchevêtrement possible de chemins donne une moyenne d’infections avec de fortes variations suivant les chemins pris. Jensen propose également un modèle permettant de comprendre la localisation des magasins dans les quartiers de Lyon, par analogie avec l’atomisme : de même que les atomes ont des relations d’attraction-répulsion, les magasins peuvent s’attirer ou se repousser mutuellement : ainsi on trouve facilement des magasins de vêtements côte à côte alors que les boulangeries auraient tendance à se repousser. Jensen explique ce phénomène par le fait que les premiers ne sauraient présenter à eux seuls toute la gamme de produits disponibles pour les clients et ont donc intérêt à être proches les uns des autres pour offrir un panel complet des produits. A l’inverse, les boulangeries peuvent offrir ce panel et n’ont donc aucun intérêt à avoir de la concurrence proche (A l’aide de ces données Jensen a développé le logiciel Lokee qui est assez efficace). Enfin,  il présente le modèle de Manzano censé reproduire les inégalités scolaires à partir de 5000 jeunes virtuels et cinq niveaux d’enseignement et en retenant plusieurs variables ; le diplôme des parents, un calcul coût-avantage et un « conformisme scolaire » envers les amis et les proches. Cependant, ce modèle délaisse des variables importantes comme l’orientation faite par les enseignants et le choix d’établissement.

Les indicateurs sociaux

L’élaboration de la science suppose le développement d’indicateurs et de critères de mesure mais ceux ci ne sont pas sans poser problème aussi bien dans les « sciences naturelles » que dans les sciences sociales : dans le chapitre consacré à la construction du concept de température, Jensen indiquait que si on a mis autant de temps (trois siècles) à construire une mesure objective de l’idée de « chaleur », il valait mieux être modeste quant à notre capacité à construire un indicateur comme le PIB, censé objectiver des phénomènes  beaucoup plus complexes. Il rappelle également combien les indicateurs sociaux peuvent faire l’objet de manipulations (cas du classement de Shangaï ou des classements de chercheurs selon le nombre d’articles ou de citations). Mais le danger le plus important (et particulièrement dans le cas des sciences sociales) vient de leur caractère performatif qui fait que l’indicateur peut devenir un objectif en soit et comme le rappelle l’auteur un indicateur devient souvent un mauvais indicateur dès lors qu’il est vu comme un objectif et pas seulement comme une mesure.

La prévision en sciences sociales

Au regard de tous les obstacles présentés, la prévision en sciences sociales, et notamment en économie, devient carrément héroïque. Pour ce qui est de la prévision en économie, deux possibilités sont à la disposition des chercheurs : le prolongement des tendances passées et l’utilisation d’une économie virtuelle. En s’appuyant sur le cas des prévisions du PIB entre 2010 et 2016, Jensen montre que les prévisions sont systématiquement erronées et que les modèles sophistiqués font à peine mieux que les prolongements de tendance. De plus, les prolongements de tendance ne servent qu’en « temps normal » mais ne servent  à rien dans les cas de retournement de tendance or c’est dans ces cas là qu’on a le plus besoin de prévisions. Les erreurs systématiques étant dues essentiellement au caractère performatif de ce type de prévision , on peut penser que l’intérêt n’est pas tant la prévision elle-même  que l’établissement de bases pour le débat. Mais, avec l’avènement du Big Data, on met de plus en plus d’espoirs dans l’amélioration de nos capacités de prévision. Cependant, Jensen doute de l’efficacité du Big Data et il se base pour cela sur deux expérimentations. La première porte sur une analyse de « retwittages » où on cherche à prédire le nombre de retwittages d’un message sur la base de la prise en compte de 1,5 milliard de twitts. L’idée est que la diffusion d’un twitt dépendra de ses caractéristiques propres et du hasard. Dans cette expérience, on utilise deux méthodes : des algorithmes qui apprennent à partir de données préalablement choisies et la constitution d’un « réseau virtuel de twitts » fonctionnant sur le modèle de l’épidémiologie. Ces deux démarches expliquent entre 20 et 40% de la variabilité de retwittages. Jensen en conclut que le nombre élevé d’interactions possibles rend la vie sociale intrinsèquement imprédictible. Jensen cite également une recherche visant à prévoir la probabilité d’être au chômage à partir des données du Big Data en relevant les données concernant 23 millions de personnes, chacune étant décrite par une dizaine de variables (sexe, âge, niveau de diplôme, PCS, type de ménage, lieu de naissance, résidence,…) . Grâce à la combinaison de toutes les données, on peut construire 138 000 profils différents contenant en moyenne 150 personnes « identiques ». Malgré ce déploiement de données, la connaissance des diverses variables ne permet d’améliorer que très peu la prévision. Comme l’indique Jensen avec humour , « ce n’est que si vous êtes agricultrice, ayant entre 35 à 40 ans, née en France, habitant en Normandie, avec des enfants et possédant le bac, que je peux prédire, sans aucune erreur, que vous n’êtes pas au chômage. Mais il n’y a que 708 personnes dans ce cas ». En fait, pour la grande masse des personnes, l’égalité des variables n’est pas synonyme d’une situation d’emploi identique et pour avoir une prévisibilité parfaite, il faudrait 10 puissance 50 configurations ; on est donc loin des espoirs que fait miroiter le Big Data. En tout cas, selon Jensen, il n’y a aujourd’hui pas d’enseignement majeur tiré du Big Data et il estime que des expérimentations plus modestes et bien menées peuvent être plus fructueuses.

 

Individus et atomes sociaux

En tant que physicien, Jensen s’intéresse évidemment à l’éternelle comparaison des individus à des atomes sociaux. On pouvait s’attendre à ce qu’il s’intéresse à l’homo œconomicus mais il préfère reprendre une formule de Bernard Lahire : « Action = caractéristiques internes stables + contexte présent ». Cette formule pose plusieurs problèmes : comment détermine–t-on les caractéristiques internes à l’individu ? De quelle nature sont –elles (psychologiques, biologiques, sociales) ? Mais le problème essentiel ici est de savoir comment combiner ces caractéristiques internes avec le contexte présent ? Pour cela, plusieurs options sont possibles. Une première solution consiste à donner la priorité à l’un des deux pôles que sont l’individu et le groupe (holisme ou individualiste). On peut, comme le font les économistes néo classiques utiliser un principe de maximisation de l’action ou de rationalité limitée. La démarche individualiste et « émergentiste » consiste à faire émerger les phénomènes collectifs des interactions individuelles. Selon Jensen, cette démarche est utile dans le cas de phénomènes collectifs simples où les individus peuvent être perçus comme interchangeables (mouvements de foule, embouteillages,…) en revanche elle lui semble inopérante dans le cas de phénomènes sociaux plus complexes. Mais on peut également retenir l’hypothèse selon laquelle les individus fabriquent leur contexte. Dans ce cas, l’interaction entre individu et contexte fait que les limites de l’individu ne sont pas aussi claires que dans la pensée « essentialiste ».

La caractéristique commune aux deux approches, individualiste et holiste, est de considérer que le tout est plus complexe que les parties. Jensen propose l’hypothèse inverse à savoir de penser qu’il y a plus de complexité dans l’individu que dans le tout. On ne part alors d’éléments simples homogènes et interchangeables (comme l’Homo-Œconomicus) qui peuvent être assimilés à des atomes mais on part de « monades » représentées par une longue série d’attributs et par les interactions qu’elles entretiennent et on intègre la dynamique en pensant l’individuation plus que l’individu. Il convient alors d’abandonner l’idée de l’existence de deux niveaux que sont l’individu et la société. Ce type d’interactions ajouté au fait que les individus ont une mémoire rend inopérante l’analogie avec les atomes en physique.

 

Conclusion

Jensen avait commencé ce livre avec l’ambition d’utiliser son savoir en sciences physiques pour appréhender le monde social et atteindre, grâce aux sciences « dures », une réalité mathématique non contaminée par les actions humaines. Mais il s’est peu à peu éloigné de ces prétentions naïves et scientistes. En effet, la  tentation est grande d’importer les modèles virtuels dans les sciences de la société mais des obstacles les rendent plus complexes et moins opérants que dans les sciences de la Nature : l’hétérogénéité des individus, le fait qu’aucun élément ne provoque un effet à lui seul et donc que les causes sont toujours contextuelles. A cela il faut ajouter que le grand nombre d’interactions et la mémoire des individus complexifient la situation. Enfin, il faut tenir compte de la réflexivité des individus. La modélisation et la mathématisation sont donc moins performantes dans les sciences sociales qu’en physique , mais elles n’en sont pas pour autant inutiles pour peu qu’on échappe à la « mystique de la mathématisation » et qu’on ne surestime pas le pouvoir explicatif des sociétés virtuelles et du Big Data. La modélisation peut aider à la réflexion et les mathématiques ont avant tout un rôle « logistique », de traduction des phénomènes en un langage qui soit commun aux chercheurs. Jensen termine son ouvrage en distinguant deux sortes de scientifiques, les « romantiques » et les « baroques » (une typologie qui n’est pas éloignée de la partition « idiographique/nomothétique »). Pour les « romantiques », le tout émerge des interactions individuelles et est donc plus complexe que les parties. L’objectif du scientifique est donc de simplifier la réalité et de faire apparaitre des relations stables. C’est alors au scientifique de délivrer son expertise. Les « baroques » au contraire s’intéressent aux diversités et aux conjonctions particulières. Ils pensent que la science a pour objectif de compliquer le réel au sens où les parties sont plus complexes que le tout. Ils s’intéressent donc aux cas particuliers et se méfient du formalisme. A mesure qu’il étudie la question des sciences sociales, Jensen s’éloigne donc de plus en plus de la perspective des scientifiques qu’il appelle « romantiques » pour se rapprocher  des « baroques » et il termine son livre sur ces mots : « Au XIXème siècle, le développement de méthodes statistiques capables de traiter l’avalanche de données sociales, permit aux Etats de gérer leurs populations. De grandes avancées sociales ont résulté de cette vision centralisée de la définition  du bien commun et du pilotage de la société. Aujourd’hui, l’épopée émancipatrices des Lumières ne peut plus reposer sur une expertise scientifique surplombant le corps social pour guider la politique, par la mise au point de nouvelles « statistiques », des modèles mathématiques  capables de digérer ces masses de données de manière aussi centralisée. Le monde commun n’est pas à découvrir dans les laboratoires de science ou d’économie par une élite. Il doit être composé, péniblement,  par tous » (Jensen p314)

 

Post conclusion

Le scepticisme de Pablo Jensen à l’égard  de l’importation des démarches en sciences physiques dans le domaine des sciences sociales, et en particulier en économie, ne peut qu’interpeller, sachant que l’économie « mainstream » et plus particulièrement « walrasienne » fonde ses ambitions scientifiques sur ce modèle des sciences physiques (qui n’est d’ailleurs pas la seule analogie possible, certains travaux relevant  de l’économie institutionnaliste s’appuyant plus volontiers sur les modèles des « sciences de la vie »). Parmi les défenseurs de l’économie mainstream on s’intéressera particulièrement aux propos de Jean Marc Daniel pour qui l’économie est scientifique parcequ’elle s’appuie sur les mêmes démarches qu’en sciences physiques et pour qui un économiste ne peut être que libéral ; deux assertions fortes qui demandent pour le moins vérification. Quelle a été sa réaction à la lecture de ce livre (au cours d’une émission sur BFM)? On pouvait s’attendre à ce qu’il s’attaque aux propos de Jensen sur les modèles économiques puisqu’il dispose manifestement d’un avantage comparatif en ce domaine. Curieusement, il n’en dit mot mais préfère critiquer la présentation de l’Histoire de la physique faite par Jensen qui, en tant que chercheur, dispose d’un avantage non négligeable en ce domaine). Un bel aveu !

PS : la vidéo est en ligne ici mais apparemment elle n’est plus accessible.

(https://bfmbusiness.bfmtv.com/mediaplayer/video/le-duel-des-critiques-francois-lenglet-vs-pablo-jensen-1104-1058307.html )

 

 

ANNEXES : QUELQUES EXTRAITS

 

Extrait n°1

La logique est la suivante : d'abord, on ressuscite la vieille idée de Quételet, l'existence de lois sociales. Un des objectifs de FuturICT est en effet de «dévoiler les lois cachées qui sous-tendent notre société complexe », comme les physiciens l'ont fait pour la matière. Grâce à ces lois, on pourra fabriquer des sociétés virtuelles où seront testés des scénarios d'évolution des systèmes sociaux, pour choisir les « meilleurs ». Il est vrai que cette approche s'est révélée féconde en sciences naturelles. Grâce à la connaissance des lois qui gouvernent les atomes, les physiciens ont construit des creusets virtuels permettant d'explorer — rapidement et à coût presque nul — les propriétés de matériaux originaux. On peut ainsi inventer des alliages originaux et tester s'ils sont capables de transformer le CO2 en combustible, résolvant deux problèmes environnementaux d'un coup. Mais cette approche ne peut être extrapolée à la société : comme nous le verrons, nous ne sommes pas des atomes sociaux ! (Pablo Jensen : Pour quoi la société ne se laisse pas mettre en équations » - Seuil – 2018 - p 18)

Extrait n°2

Ce projet pharaonique représente un cas extrême d'une approche en plein essor : la création de sociétés virtuelles pour mieux comprendre les sociétés réelles. Nous analyserons entre autres un modèle économique quantifiant l'effet de la loi travail sur le marché de l' emploi et un modèle épidémiologique évaluant le risque de pandémie. Ce type de modélisation vise à créer un savoir robuste et partagé grâce à l'outil informatique, aidant à la prise de décision politique. Nous discuterons au cas par cas des succès et limites de ces simulations et tirerons ensuite quelques conclu­sions générales. Mais il existe d'autres manières de construire un savoir partagé en quantifiant la société. Depuis le xixe siècle, les statistiques ont développé un ensemble de techniques mathématiques capables d'analyser des données réelles, pour comprendre les causes des phénomènes, dégager des responsabilités et intervenir. Les inéga­lités de salaire entre hommes et femmes sont-elles dues à une discri­mination sexiste, ou résultent-elles simplement des différences de temps de travail ou de diplôme ? Comment les chercheurs peuvent-ils affirmer que les particules fines « tuent 48 000 personnes en France chaque année », alors qu'aucun de ces décès n'est observable direc­tement ? Comment savoir si les 35 heures ont créé des emplois ? On comprend bien que la légitimité de l'action publique dépend de la robustesse de ces analyses mathématiques. Une troisième manière de construire un savoir partagé sur la société consiste à transformer un phénomène complexe en un nombre. Le produit intérieur brut (PIB), le classement d'un lycée ou le nombre de crimes élucidés par un commissariat ne retiennent du réel que certains aspects jugés pertinents, pour tenter de construire un point de vue «objectif», au-delà des perceptions de chacun. Cette nouvelle méthode de quantification est étroitement liée aux carac­téristiques de la société et aux modes d' action politique, selon la tendance générale révélée par Alain Desrosières. En notant, évaluant et comparant les individus et les organisations, ces méthodes de benchmarking , importées du monde de l'entreprise, s'inscrivent dans la logique de compétition généralisée typique de l'État néolibéral. Pour celui-ci, la société est une juxtaposition d'individus isolés, en concurrence, qu'il convient de piloter par des incitations et des palmarès. La comparaison détaillée du PIB, qui représente une sorte de «thermomètre moral », et de la température nous permettra de comprendre pourquoi les indicateurs physiques sont autrement plus fiables que les indicateurs sociaux. Grâce à l'étude détaillée de ces exemples, nous pourrons en conclusion discuter des questions centrales de ce livre : quel est l'intérêt de l'approche quantitative des systèmes sociaux? Pourquoi la modélisation rencontre-t-elle autant de difficultés ? Après tout, on pourrait imaginer que comme nous connaissons le social de première main, puisque c'est nous qui le faisons, ces sciences seraient plus faciles que celles qui traitent d'objets aussi lointains et exotiques que les galaxies ou les atomes. Et pourtant, les sciences sociales sont les véritables sciences «dures» ! Pour en comprendre la raison, il faut d' abord examiner ce qui fait la force des sciences naturelles. C'est l'objectif de la première partie de ce livre. (Pablo Jensen : Pour quoi la société ne se laisse pas mettre en équations » - Seuil – 2018 - p 18 à 20)

Extrait n°3

A l’école, on nous apprend souvent cette physique idéale, sans recul comme si elle révélait le monde. Mais tout élève normalement constitué  voit bien qu’elle n’a que peu de pertinence pour le monde qu’il connait. Si ces paradis artificiels ne l’amusent pas, il se dira que les sciences ne sont pas pour lui, ce qui est dommage dans un monde où elles comptent autant. Au niveau politique, une telle autorité donnée au savoir expert, en occultant les transformations nécessaires pour construire un fait scientifique robuste, est dangereuse, menant à une acceptation ou un rejet tout aussi aveugles » (Pablo Jensen : Pour quoi la société ne se laisse pas mettre en équations » - Seuil – 2018 - p55)

Extrait n°4

 « Pour apprivoiser le monde, il faut le dompter. Un peu comme quand on transforme un tigre sauvage bondissant dans la foret en un tigre captif pour un numéro de cirque. Par un investissement lourd en temps, en équipements et en institutions, on ne prélève que quelques sauts sur la multitude possible de ceux du tigre sauvage, et on les rend reproductibles. Cette image rend justice à l’inventivité du travail des chercheurs, qui ne font pas que découvrir l’agencement du monde : ils doivent le transformer profondément pour l’apprivoiser, c’est à dire pour pouvoir l’observer et le caractériser à partir du type d’outils, tant conceptuels que techniques, qu’ils mettent en œuvre. Il ya donc continuité et altérité entre le monde extérieur et les résultats scientifiques. Continuité, car c’est bien le tigre qui saute dans sa cage, et non un être inventé qu’on pourrait manipuler  à loisir – les faits scientifiques ne peuvent être réduits à des constructions sociales où la nature ne jouerait aucun rôle. Altérité, car on ne fera jamais sauter un tigre sauvage sous le lumières d’un cirque ! » (Pablo Jensen : Pour quoi la société ne se laisse pas mettre en équations » - Seuil – 2018 - p53-54)

Extrait n°5

Nous avons parcouru  un long chemin, depuis la construction de sociétés virtuelles prétendant simuler la nôtre, jusqu' à l' abandon de toute explication surplombante au profit d'une description aidant le lecteur à être réflexif sur sa propre expérience. Nous comprenons désormais qu'il serait illusoire de chercher la meilleure méthode pour apprivoiser les systèmes sociaux. Notre réalité est trop complexe pour se laisser construire d'une seule manière. Nous pouvons néanmoins tirer de ces exemples quelques enseignements sur la place de la formalisation dans l'exploration du monde social.

Les mathématiques transportent

Il faut d'abord éviter tout mysticisme à propos des mathématiques. Elles jouent un rôle logistique, en permettant d' aller, par déductions rigoureuses, de prémisses en conclusions. Mais elles n' ajoutent pas de certitude le long de ce chemin : les résultats ne seront jamais plus assurés que les hypothèses. Le point crucial, c'est donc la fiabilité de l'ensemble des hypothèses qui fondent le modèle. Les sciences naturelles parviennent à trouver, dans les laboratoires, des relations constantes qui deviennent le fondement d'un savoir fiable pouvant être étendu par les mathématiques. Ainsi, Galilée, partant de la relation stable entre les longueurs parcourues par ses boules roulant sur des plans inclinés, pouvait en déduire une loi plus générale : la distance de chute variant comme le temps au carré. Aujourd'hui, les climatologues utilisent les équations de conser­vation de l'énergie, la masse et la quantité de mouvement, pour transformer les données recueillies en prédictions fiables, grâce à une logistique mathématique d'une tout autre ampleur. Cela permet aux sciences naturelles de construire des faits «têtus », qu'on ne peut éliminer d'un revers de la main quand cela nous arrange. Ainsi, les modèles climatiques montrent qu'il faut prendre en compte les émissions humaines de CO2 pour rendre compte du réchauffement, quoi que prétendent les lobbys pétroliers ; l'existence des atomes implique qu'on ne peut diluer à l'infini une substance dans de l'eau, n'en déplaise aux homéopathes. Il est bien plus difficile de trouver des relations stables pour les systèmes sociaux. La formalisation devient alors moins efficace, mais demeure utile. D'abord, les modèles conceptuels, comme celui de Schelling, rendent plus rigoureux nos raisonnements impli­cites, qui voudraient inférer le racisme des individus de l'obser­vation d'une ségrégation à l'échelle de la ville. En nous forçant à expliciter nos hypothèses et à les relier rigoureusement aux conclu­sions, la modélisation montre qu'une telle déduction est incorrecte. La formalisation nous permet de mieux penser, même si elle ne nous dit rien de la réalité : il se pourrait que dans certaines villes, la ségrégation résulte bien du racisme individuel. Mais les mathématiques peuvent surtout nous aider à mieux appréhender la réalité, pour prendre des décisions ou attribuer des responsabilités. Leur capacité logistique permet aux centres de décision de combiner de nombreuses situations, pensées comme homogènes, et de dégager des causes communes. C'est ainsi qu'on parvient à rendre visible la surmortalité due à la pollution, un phénomène si diffus et lent qu'il est impossible de le détecter dans chacun des décès pris séparément. On supposera par exemple que la mortalité est due à l'addition de plusieurs causes (pollution, âge, cigarettes, obésité...), et on tentera de rendre compte de la variabilité de mortalité entre différentes villes où ces facteurs ont des intensités différentes. Moyennant un certain nombre d'hypothèses, souvent cachées au coeur du formalisme, la logistique mathématique permettra de trouver les forces de chaque cause qui rendent compte des données. La même approche permet d'établir les discrimina­tions de salaire à l'égard des femmes, la reproduction des inéga­lités scolaires ou l'effet positif des 35 heures sur l'emploi. Sur tous ces sujets, le formalisme peut nous aider à construire des faits aussi robustes que possible, pour guider l'action publique. Cet apport doit constamment être défendu face aux pressions des puissants. Ainsi,  aux États-Unis, le lobby des armes rend très difficile les recherches sur le sujet ou même la collecte de données. On sait pourtant que le  nombre de civils tués par les armes dans ce pays, rien que ce dernier demi-siècle, dépasse le nombre de soldats morts durant toutes ses  guerres depuis l'Indépendance ! Notons cependant que ces faits, pour têtus qu'ils soient, empêchent de simplifier la discussion mais ne dictent pas la politique à suivre. De plus, le grand nombre d'hypothèses, aussi nécessaire qu’incertaines, rend ces résultats fragiles. Leur fiabilité ne peut venir que d'une communauté scientifique pluraliste, capable d’objecter, de mettre en doute les suppositions et les calculs des « chers collègues ». L'importance actuelle des algorithmes prédictifs utilisant les big data rend indispensable une discussion ouverte des modèles mathématiques utilisés, par les experts mais également par les citoyens. (Pablo Jensen : Pour quoi la société ne se laisse pas mettre en équations » - Seuil – 2018 - p 309-311)

 

Ajouter un commentaire

Vous utilisez un logiciel de type AdBlock, qui bloque le service de captchas publicitaires utilisé sur ce site. Pour pouvoir envoyer votre message, désactivez Adblock.

Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site

×