Le discrétisme méthodologique
par Franck Varenne
Paru dans Le numérique en débat : des nombres, des machines et des hommes, G. Chazal (dir.), Dijon, Editions Universitaires de Dijon, 2017, p. 45-65
Introduction[1]
En dépit des apparences, les épistémologies appliquées qui accompagnent aujourd’hui la pratique croissante des modèles computationnels à base d’individus ou à base d’agents n’impliquent pas logiquement l’adoption d’un individualisme méthodologique strict, que ce soit dans les sciences biologiques, dans les sciences de l’environnement ou dans les sciences sociales. Je propose de nommer discrétisme méthodologique la version la plus large et la plus générique de ces épistémologies appliquées. C’est un discrétisme au sens où c’est une épistémologie qui s’applique à des modèles et des simulations fondés sur des symboles discrets et sur des agrégats discrets de symboles discrets. C’est un discrétisme méthodologique dans la mesure où il n’engage pas le modélisateur ni à une réification ni à une fictionnalisation unilatérale et valable une fois pour toutes pour les choses qui sont dénotées par les symboles ou par les agrégats de symboles présents dans le modèle, dans le programme ou dans la computation. Ce chapitre entend montrer en quoi une telle épistémologie peut compléter la lecture critique que l’ont doit certes faire par ailleurs des modèles computationnels à base d’individus et à base d’agents.
Ces dernières années, les historiens et philosophes des modèles formels[2] ont de mieux en mieux rendu compte de l’essor particulier de la simulation sur computer[3]. Ils ont montré que cet essor s’est produit dans le prolongement mais parfois aussi en parallèle des pratiques de modélisation mathématique ou formelle plus traditionnelles. Dans mon propre travail, j’ai tâché de montrer que la simulation sur computer est elle-même une pratique qui se décline en trois formes distinctes, au moins : la simulation numérique, la simulation algorithmique et la simulation informatique[4]. Il se trouve que, depuis les années 1990, en partie sous l’effet de la large mise à disposition de langages de programmation dits « orientés objets », c’est la simulation informatique qui s’est le plus développée dans les sciences du vivant, comme aussi dans les sciences humaines et sociales. Dans ce cadre-là, une simulation relève d’une série de computations d’un modèle formel - ou le plus souvent d’un ensemble de sous-modèles formels - dont les symboles dénotent des entités élémentaires plutôt que des valeurs de variables d’état du système cible. Ces modèles de simulation, en écologie scientifique, ont été appelés modèles à base d’individus[5]. En sciences sociales, on les nomme plutôt modèles à base d’agents[6]. Dans la simulation (ou computation) de tels modèles, le computer sert à mettre en action et en interaction des systèmes de symboles discrets dénotant souvent directement des entités supposées réelles, cela de manière à donner à voir des effets d’émergence eux-mêmes parfois supposés réalistes dont on cherche ensuite à mesurer la robustesse (c’est-à-dire leur faible sensibilité aux variations des valeurs initiales, des paramètres initiaux ou de la structure initiale).
Or, dans ce genre de modèle conçus dès le départ pour être traités par simulation sur computer[7], il semble que la représentation réaliste discrète opérationnalise et, par là, entérine, voire matérialise en quelque sorte, une conception individualiste des phénomènes collectifs. Il semble que le discrétisme, de par cette nouvelle iconicité, y valorise une forme métaphysique ainsi que politique de l’individualisme, un individualisme non pas même seulement méthodologique mais aussi et avant tout ontologique. De la sorte, avec l’essor des simulations de ce genre de modèles, le « numérique » ou plus exactement le computationnel peut être accusé de faire implicitement le nouveau lit exclusif et indiscuté d’une idéologie individualiste et libérale.
Ce chapitre aura pour objectif de déterminer s’il convient ou non de condamner tout uniment, et pour cette raison, ce type de simulation. On s’y posera en particulier la question de savoir si le biais idéologique est consubstantiel à cette technique particulière de simulation sur computer, ou s’il lui est au contraire contingent. À cette fin, dans une première section, je présenterai de manière plus détaillée les choix techniques sur lesquels reposent les modèles computationnels à base d’individus et d’agents. Dans une deuxième section, en m’appuyant d’abord sur des analyses historiques et techniques, j’exposerai quelles sont les motivations manifestes de ce type de modèles ainsi que les facteurs qui ont pu les favoriser. Puis, en reprenant un certain nombre de publications d’épistémologie et de méthodologie critique à ce sujet, je formulerai plus précisément les inquiétudes qui peuvent légitimement apparaître au vu de l’essor de cette pratique de modélisation. Dans une troisième section, je rendrai compte des réponses à la fois techniques et méthodologiques qui ont d’ores et déjà été apportées pour tenter de faire taire ces critiques. Enfin, dans une dernière section, après avoir évoqué succinctement les limites de ces réponses exclusivement techniques, je proposerai l’idée que l’on se trouve aujourd’hui dans la nécessité de développer une épistémologie plus précise et plus sensible aux modes variés de formalisation, cela afin d’éviter les amalgames épistémologiques comme le retour prématurée des procès en idéologie. J’essaierai de montrer que, devant l’essor des approches de simulation par individus ou par agents, il est possible de penser et de caractériser une épistémologie de soutien qui soit à la fois discriminante et critique pour de telles pratiques. Elle pourrait prendre la forme d’un discrétisme méthodologique, c’est-à-dire d’un discrétisme qui ne serait ni un atomisme ontologique ni un individualisme ontologique.
Conclusion
En proposant la reconnaissance d’un discrétisme méthodologique, j’en appelle donc ici à une sorte de travail d’approfondissement, un peu austère il est vrai. Il ne s’agit pas de nier que maintes approches par IBM ou ABM aient été ou soient encore chargées d’un implicite idéologique de type spécifiquement libéral, ou d’un type qui soit apparenté à la sociobiologie, par exemple. Au contraire. Mais il s’agit de se donner les moyens conceptuels pour qu’une épistémologie puisse faire la différence entre ces facteurs idéologiques et techniques favorisant une solution technique particulière, à une époque donnée, et les raisons méthodologiques d’un succès et d’un essor qui, il faut le reconnaître, se révèlent aujourd’hui inexplicablement persistants. La véritable question est la suivante : pourquoi la discrétisation et l’élémentarisation ou atomisation suit-elle son chemin encore aujourd’hui et se développe-t-elle encore dans les sciences et techniques alors même que nous sommes peut-être entrés récemment dans une époque post-libérale (au moins dans les idées si pas dans les actes), post-émergentiste, néo-communautariste, pour laquelle, symptomatiquement, le numérique n’est plus parfois pensé que comme « big data » à la fois inerte et mystérieusement promoteur de prédictions sans concepts ?
J’ai suggéré ici qu’il ne fallait pas tomber de nouveau dans l’idée d’un individualisme faussement méthodologique, celui-ci ayant en réalité longtemps été pratiqué comme un individualisme ontologique. Je propose de plaider plus largement pour un discrétisme, plutôt que pour un individualisme, car l’individu ni l’individuation ne me semble finalement être la clé. C’est la séparation et le hachage formel qui me semble être la clé de toutes les articulations. Mais reconnaître ce point suppose de remonter en-deçà de bien des désirs de mathesis universalis, il faut le reconnaître. C’est que ce hachage formel permet ensuite de résoudre un certain nombre de problèmes aujourd’hui majeurs pour le traitement scientifique des phénomènes complexes, à commencer par l’articulation et l’interaction entre échelles, entre aspects hétérogènes et non mono-théorisés, entre individus et collectifs, ou encore entre l’esprit simulé (modèle BDI de l’IA) et la matière implémentée (environnement matériel simulé).
Note terminologique
Sur les termes computer, computation, numérisation et numérique
Je « traduis » désormais le terme anglais computer par le mot computer, la vieille traduction « ordinateur » (machine à ordonner et traiter des données) ne convenant manifestement plus, comme le montre en particulier l’essor de l’adjectif français « computationnel ». La langue française étant réticente à la non-traduction des termes techniques, elle a plus récemment choisi - malencontreusement là encore - de nommer cette fois-ci « numérique » ce qui parfois relève plus largement du computationnel et pas seulement du digital. Pourtant, comme cet article entend le suggérer entre autres choses, la « computerisation » de la science n’est pas seulement sa « numérisation » ou son tournant numérique. Une computation est une opération discrète de modification de symboles discrets - ou d’agrégats discrets de symboles discrets - sous l’effet d’une règle. Une numérisation, quant elle, est une application surjective qui fait correspondre des symboles discrets ou des agrégats de symboles discrets à des signes, signaux, images ou formes de nature analogique, i.e. qui peuvent être distingués entre eux par des variations continues. Ce qui est commun ici à la numérisation et à la computation, c’est le caractère discret du symbole résultant. En revanche, à la différence de ce qui se produit dans un computer, une numérisation au sens strict peut ne pas reposer entièrement sur des computations : un convertisseur analogique numérique n’est pas une machine computationnelle. Enfin, de par l’effet d’un déplacement de sens majeur là encore, ce qui est nommé « le numérique » en France recouvre principalement non pas même les résultats d’une numérisation mais l’ensemble des dispositifs de stockage et de communication massive et à longue portée - souvent interconnectés - de symboles aujourd’hui massivement discrets (mais ce ne fut pas toujours le cas) car résultant soit directement de numérisations, soit de computations. Le déplacement de sens ici relève d’une métonymie imparfaite : on utilise le nom du contenu aujourd’hui le plus fréquent (le résultat d’une numérisation ou d’une computation, qui est certes de nature discrète, digitale en ce sens) pour dénoter le contenant (les dispositifs d’affichage, d’interfaçage et les réseaux de circulation des signaux électriques codant les symboles discrets). Mais contenu et contenant ne sont pourtant pas logiquement liés comme le voudrait la règle stricte d’une métonymie, même si, historiquement bien sûr, la massification des numérisations a à la fois motivé et permis l’essor des réseaux de circulation de symboles discrets. Il est bon aujourd’hui de rappeler qu’il peut y avoir des réseaux (électriques, fluviaux) traversés par des courants ou des flux ayant des valeurs pouvant être considérées comme des signaux par ceux qui les observent (signaux de surconsommation, de crues), signaux qui ne sont pas pour autant discrets. Ainsi, cette métonymie - le numérique - ne s’impose en français que parce qu’elle déplace le sens non pas vers ce qui lui est logiquement lié, mais vers ce qui est vécu comme lui étant de fait le plus fréquemment et le plus visiblement lié par le plus grand nombre de nos contemporains : l’internet, le smartphone, la tablette, la télévision numérique, les objets connectés.
Références
–Cossentino, M., Gaud, N., Galland, S., Hilaire, N., Koukam, A. (2007), “A metamodel and implementation platform for holonic multi-agent systems”, Proc. of the 5th European Workshop on Multi-Agent Systems (EUMAS’07), Hammameth, 13-14 December 2007, 1-14.
–Duboz, R., Ramat, E. & Preux, P. (2003), “Scale transfer modeling: using emergent computation for coupling an ordinary differential equation system with a reactive agent model”, Systems Analysis Modelling & Simulation, 43, 793-814.
–Durrett, R, Levin, S (1994), “The importance of being discrete (and spatial)”, Theoretical population biology, 46, 363-394.
–Ferber, J., (1999, [1995]), Multi Agent-Systems: An Introduction to Distributed Artificial Intelligence, Harlow, Addison Wesley Longman.
–Galison, P. (1997), Image and Logic, Chicago, University of Chicago Press.
–Gilbert, N. (1996). “Holism, individualism and emergent properties ” in Hegselmann, R., Mueller, U. & Troitsch, K. (eds.), Modelling and Simulation in the Social Sciences from the Philosophy of Science Point of View, Dordrecht, Boston, London, Kluwer Academic Publisher, 1-12.
–Gilbert, N. (2008), Agent-Based Models, Thousand Oaks (Ca.), Sage.
–Goodman, N. (1976 [1968]), Languages of art: An approach to a theory of symbols. Indianapolis, Bobbs-Merrill.
–Goodman, N. (1981), Routes of reference. Critical Inquiry, 8, 121-132.
–Grimm, V. (1999), “Ten years of individual-based modelling in ecology: what have we learned, and what could we learn in the future?” Ecol. Model. 115, 129–148.
–Grimm, V. et al. (2006), “A standard protocol for describing individual-based and agent-based models”, Ecological Modelling, 198, 115-126.
–Grimm, V. et al. (2010), “The ODD protocol: A review and first update”, Ecological Modelling, 221, 2760-2768.
–Grimm, V., Railsback, S.F., Individual-Based Modeling and Ecology, Princeton, Princeton University Press, 2005.
–Holland, J. (1975), Adaptation in Natural and Artificial Systems, MIT Press.
–Humphreys, P. (2004), Extending Ourselves: Computational Science, Empiricism and Scientific Method, Oxford, Oxford University Press.
–Levin, S. (1974), “Dispersion and population interaction”, American Naturalist, 108 (960), 207-228.
–Manzo, G. (2007), « Progrès et ‘urgence’ de la modélisation en sociologie. Du concept de ‘modèle générateur’ et de sa mise en œuvre », Année sociologique, 57(1), 13-61.
–May, R. (1973), Stability and complexity in model ecosystems, Princeton University Press.
–Menger, C. (1892), “On the origin of money”, Economic Journal, vol. 2, 239-255.
–Mitchell, S.D. (2003), Biological Complexity and Integrative Pluralism,Cambridge, Cambridge University Press.
–O’Sullivan, D., Haklay, M., (2000), “Agent-based models and individualism: is the world agent-based?”, Environment and Planning A, 32, 1409- 1425.
–Phan D. & Varenne F. (2010), “Agent-Based Models and Simulations in Economics and Social Sciences: from conceptual exploration to distinct ways of experimenting”, Journal of the Artificial Societies and Social Simulation (JASSS), 13(1), 2010, http://jasss.soc.surrey.ac.uk/13/1/5.html
–Rouchier, J. (2001), “Review on ‘Multi-Agent System: An Introduction to Distributed Artificial Intelligence’by J. Ferber (1999)”, http://jasss.soc.surrey.ac.uk/4/2/reviews/rouchier.html
–Schillo, M., Fischer, K. (2003), “Holonic Multiagent Systems”, KI, 17(4), 54.
–Varenne, F. (2001), “What does a computer simulation prove?”, in Giambiasi, N. & Frydman, C. (eds.) Simulation in industry – ESS, Proc. of the 13th European Simulation Symposium, SCS Europe Bvba, Ghent, 549-554 . https://www.researchgate.net/publication/232607535_What_does_a_computer_simulation_prove
–Varenne, F. (2007), Du modèle à la simulation informatique, Paris, Vrin.
–Varenne, F. (2009), Qu’est-ce que l’informatique ?, Paris, Vrin.
–Varenne, F. (2010a), Formaliser le vivant : lois, théories, modèles ?, Paris, Hermann, 2010.
–Varenne, F. (2010b), “Framework for Models & Simulations with Agents in regard to Agent Simulations in Social Sciences: Emulation and Simulation”, in A. Muzy, D. Hill & B. Zeigler (eds), Modeling & Simulation of Evolutionary Agents in Virtual Worlds, Clermont-Ferrand, Presses Universitaires Blaise Pascal, 53-84.
–Varenne, F. (2010c), « Les simulations computationnelles dans les sciences sociales », Nouvelles Perspectives en Sciences Sociales, 5 (2), 2010, 17-49. www.erudit.org/revue/npss/2010/v5/n2/index.html
–Varenne, F. (2011), Modéliser le social – Méthodes fondatrices et évolutions récentes, Paris, Dunod.
–Varenne, F. (2013), “Chains of Reference in Computer Simulations”, working paper sélectionné et publié par la FMSH, FMSH-WP-2013-51, 2013, 32 pages. www.fmsh.fr/en/c/4002
–Winsberg E. (1999), “Sanctioning models: the epistemology of simulation”, Science in Context, 12, pp. 275-292.
–Winsberg, E. (2003), “Simulated experiments: methodology for a virtual world”, Philosophy of Science, 70, 105-125.
–Winsberg E. (2009), “A Tale of Two Methods”, Synthese, 169 (3), pp. 575-592.
–Winsberg, E. (2010), Science in the Age of computer Simulation, Chicago, University of Chicago Press.
–Wooldrige, Jennings, (1995), “Intelligent Agents. Theory and Practice”, Knowledge Engineering Review, 10(2), 115-152.
[1] Ce travail a été présenté pour la première fois, à l’oral, lors d’une conférence prononcée au colloque international de juin 2016 organisé par l’Institute of Advanced Study MECS (Media Culture for Computer Simulations), colloque intitulé “Agent Cultures and Zombieland”. Il s’est tenu à l’Université de Leuphana, à Lüneburg, en Allemagne. Je remercie Gérard Chazal de me donner l’opportunité d’en présenter ici une version écrite et en français.
[2] (Galison, 1997), (Humpreys, 2004), (Varenne, 2007, 2010), (Winsberg, 2010).
[3] Voir la note terminologique en fin d’article.
[4] (Varenne, 2007).
[5] (Grimm, 1999).
[6] (Gilbert, 2008).
[7] C’est pourquoi on peut aussi considérer qu’ils font partie des modèles que l’on dit parfois « computationnels ».
[8] Ou plus généralement non pas de « dénoter » strictement mais de « se référer à ».
[9] Cité dans (Volker Grimm & Steven F. Railsback, 2005), p. 3.
[10] Voir (Ferber, 1999 [1995]).
[11] Voir (Ferber, 1999 [1995]), (Wooldridge & Jennings, 1995), (Rouchier, 2001).
[12] (Gilbert, 2008), p. 21. Suivant le modèle BDI (Belief, Desire, Intention) issu notamment du travail en modélisation pour l’intelligence artificielle de Michael Bratman, dans les années 1980, ils peuvent avoir individuellement des croyances, des désirs et des intentions.
[13] Ibid. C’est ce que Gilbert appelle encore la proactivité.
[14] (Galison, 1997).
[15] (May, 1973).
[16] (Levin, 1974), (Durrett & Levin, 1994).
[17] (Holland, 1975).
[18] Notamment en France, où il est habituel de pourchasser les projections, et les idéologies supposées massivement - et parfois exclusivement - à l’œuvre dans toute forme de modélisation : voir les travaux de Bachelard, Althusser, Badiou et Lecourt.
[19] (O’Sullivan, D., Haklay, M., 2000).
[20] Ibid., p. 1409. Ma traduction. Toute autre traduction sera de mon fait aussi.
[21] Ibid., p. 1413.
[22] Ibid., p. 1413.
[23] La question de savoir ce qu’est la nature d’une théorie est évidemment à la traverse : je n’épiloguerai pas ici sur ce point controversé. Mais il est de fait que les critiques à l’encontre des modèles à agents ou désagrégées font souvent fond sur ce reproche d’une trop faible théorisation : dans ce contexte, les auteurs entendent implicitement par théorie quelque chose de proche de ce qu’entendait le positivisme logique, à savoir un système formel homogène et unique, valant pour tout un domaine (ici du social), producteur d’énoncées observationnels généraux, dont on peut vérifier, sur la foi des seuls axiomes de base, aussi bien la compréhensibilité que la cohérence interne.
[24] Ibid., p. 1413.
[25] (Varenne, 2010c).
[26] Cette théorie de l’action sociale et de la société réintroduit une forme de holisme, et est proche en un sens de la théorie des champs et des habitus de Bourdieu.
[27] Ibid., p. 1415.
[28] (Gilbert, 2008), p. 5.
[29] (Schillo, Fischer, 2003), p. 54.
[30] (Cossentino, Gaud, Galland, Hilaire, Koukam, 2007).
[31] (Varenne, 2011). Voir sur cette notion (Manzo, 2007).
[32] (Grimm et al. 2006), (Grimm et al. 2010).
[33] Seule l’histoire à venir des sciences et des méthodologies scientifiques pourra le dire.
[34] (Galison, 1996), (Varenne, 2001).
[35] (Winsberg, 1999), (Winsberg, 2009).
[36] (Grimm et al., 2010), p. 2763.
[37] Ainsi par exemple de la modélisation mixte et bi-niveaux (à base d’équations et ABM) de la dynamique d’une population de zooplancton par (Duboz et al., 2003).
[38] Voir (Phan Varenne, 2010), (Varenne, 2010b), (Varenne, 2013).
[39] Voir (Varenne, 2013).
[40] Mais il ne faut pas confondre simulation et émulation, cette dernière étant une simulation parfaite, sans reste. Voir (Varenne, 2009) et (Varenne, 2010b).