Le discrétisme méthodologique

par Franck Varenne

Paru dans Le numérique en débat : des nombres, des machines et des hommes, G. Chazal (dir.), Dijon, Editions Universitaires de Dijon, 2017, p. 45-65

Introduction[1]

En dépit des apparences, les épistémologies appliquées qui accompagnent aujourd’hui la pratique croissante des modèles computationnels à base d’individus ou à base d’agents n’impliquent pas logiquement l’adoption d’un individualisme méthodologique strict, que ce soit dans les sciences biologiques, dans les sciences de l’environnement ou dans les sciences sociales. Je propose de nommer discrétisme méthodologique la version la plus large et la plus générique de ces épistémologies appliquées. C’est un discrétisme au sens où c’est une épistémologie qui s’applique à des modèles et des simulations fondés sur des symboles discrets et sur des agrégats discrets de symboles discrets. C’est un discrétisme méthodologique dans la mesure où il n’engage pas le modélisateur ni à une réification ni à une fictionnalisation unilatérale et valable une fois pour toutes pour les choses qui sont dénotées par les symboles ou par les agrégats de symboles présents dans le modèle, dans le programme ou dans la computation. Ce chapitre entend montrer en quoi une telle épistémologie peut compléter la lecture critique que l’ont doit certes faire par ailleurs des modèles computationnels à base d’individus et à base d’agents.

Ces dernières années, les historiens et philosophes des modèles formels[2] ont de mieux en mieux rendu compte de l’essor particulier de la simulation sur computer[3]. Ils ont montré que cet essor s’est produit dans le prolongement mais parfois aussi en parallèle des pratiques de modélisation mathématique ou formelle plus traditionnelles. Dans mon propre travail, j’ai tâché de montrer que la simulation sur computer est elle-même une pratique qui se décline en trois formes distinctes, au moins : la simulation numérique, la simulation algorithmique et la simulation informatique[4]. Il se trouve que, depuis les années 1990, en partie sous l’effet de la large mise à disposition de langages de programmation dits « orientés objets », c’est la simulation informatique qui s’est le plus développée dans les sciences du vivant, comme aussi dans les sciences humaines et sociales. Dans ce cadre-là, une simulation relève d’une série de computations d’un modèle formel - ou le plus souvent d’un ensemble de sous-modèles formels - dont les symboles dénotent des entités élémentaires plutôt que des valeurs de variables d’état du système cible. Ces modèles de simulation, en écologie scientifique, ont été appelés modèles à base d’individus[5]. En sciences sociales, on les nomme plutôt modèles à base d’agents[6]. Dans la simulation (ou computation) de tels modèles, le computer sert à mettre en action et en interaction des systèmes de symboles discrets dénotant souvent directement des entités supposées réelles, cela de manière à donner à voir des effets d’émergence eux-mêmes parfois supposés réalistes dont on cherche ensuite à mesurer la robustesse (c’est-à-dire leur faible sensibilité aux variations des valeurs initiales, des paramètres initiaux ou de la structure initiale).

Or, dans ce genre de modèle conçus dès le départ pour être traités par simulation sur computer[7], il semble que la représentation réaliste discrète opérationnalise et, par là, entérine, voire matérialise en quelque sorte, une conception individualiste des phénomènes collectifs. Il semble que le discrétisme, de par cette nouvelle iconicité, y valorise une forme métaphysique ainsi que politique de l’individualisme, un individualisme non pas même seulement méthodologique mais aussi et avant tout ontologique. De la sorte, avec l’essor des simulations de ce genre de modèles, le « numérique » ou plus exactement le computationnel peut être accusé de faire implicitement le nouveau lit exclusif et indiscuté d’une idéologie individualiste et libérale.

Ce chapitre aura pour objectif de déterminer s’il convient ou non de condamner tout uniment, et pour cette raison, ce type de simulation. On s’y posera en particulier la question de savoir si le biais idéologique est consubstantiel à cette technique particulière de simulation sur computer, ou s’il lui est au contraire contingent. À cette fin, dans une première section, je présenterai de manière plus détaillée les choix techniques sur lesquels reposent les modèles computationnels à base d’individus et d’agents. Dans une deuxième section, en m’appuyant d’abord sur des analyses historiques et techniques, j’exposerai quelles sont les motivations manifestes de ce type de modèles ainsi que les facteurs qui ont pu les favoriser. Puis, en reprenant un certain nombre de publications d’épistémologie et de méthodologie critique à ce sujet, je formulerai plus précisément les inquiétudes qui peuvent légitimement apparaître au vu de l’essor de cette pratique de modélisation. Dans une troisième section, je rendrai compte des réponses à la fois techniques et méthodologiques qui ont d’ores et déjà été apportées pour tenter de faire taire ces critiques. Enfin, dans une dernière section, après avoir évoqué succinctement les limites de ces réponses exclusivement techniques, je proposerai l’idée que l’on se trouve aujourd’hui dans la nécessité de développer une épistémologie plus précise et plus sensible aux modes variés de formalisation, cela afin d’éviter les amalgames épistémologiques comme le retour prématurée des procès en idéologie. J’essaierai de montrer que, devant l’essor des approches de simulation par individus ou par agents, il est possible de penser et de caractériser une épistémologie de soutien qui soit à la fois discriminante et critique pour de telles pratiques. Elle pourrait prendre la forme d’un discrétisme méthodologique, c’est-à-dire d’un discrétisme qui ne serait ni un atomisme ontologique ni un individualisme ontologique.

  • I.Les modèles à base d’individus (IBM) et les modèles à base d’agents (ABM)
  • Définition et contextes des modèles à base d’individus et à base d’agents
  • Il nous faut d’abord caractériser la notion de modèle. Renonçons ici à présenter la richesse sémantique de cette notion. Proposons seulement une caractérisation partielle, à la fois substantielle et fonctionnelle, d’un modèle formel, car les modèles à base d’individus en dérivent. Le plus souvent, donc, dans le contexte qui nous intéresse, ce qu’on appelle aujourd’hui un modèle est un construit formel (logique et/ou mathématique) mettant en œuvre des relations systématiques entre symboles et ayant pour fonction de dénoter[8] en bloc ou par morceaux des aspects d’un système cible ou de phénomènes qui y interviennent.
  • Les modèles à base d’individus (IBM) sont des modèles formels particuliers : ils dénotent non prioritairement des états ou des variables d’état d’un système entier mais des individus cibles ou des parties d’un système cible et ils en représentent aussi les interactions dans un environnement donné. Ces individus cibles peuvent être des plantes individuelles, des animaux individuels en écologique scientifique, ou encore des cellules en biologie. Ainsi, comme l’écrivit en 1992 l’écologue et biologiste évolutionnaire Adam Lomnicki, « l’essence de l’approche à base d’individus est la dérivation de propriétés de systèmes écologiques à partir des propriétés des individus constituant ces systèmes »[9].
  • Les modèles à base d’agents ou ABM - de facture similaire aux IBM - se sont développés quant à eux non prioritairement en écologie mais en algorithmique et en intelligence artificielle distribuée, cela à partir des années 1980[10]. Le terme d’agent y désigne à la fois l’entité informatique (un « objet » au sens de la programmation orientée objets) et un individu cible appartenant au système cible, d’où bien sûr déjà les confusions et les raccourcis possibles entre modèle et système cible. Un modèle pris en charge par computer est dit à agents au sens strict si les entités informatiques qui le composent dénotent des entités physiques ou virtuelles interagissant dans un environnement cible et si ces entités[11] :
  • 1.Peuvent agir (en suivant des « méthodes » au sens que le terme a en programmation orientée objets) : c’est-à-dire modifier leur état interne, se déplacer, interagir avec d’autres agents, etc.
  • 2.Peuvent percevoir leur environnement au moins partiellement, c'est-à-dire modifier au moins leur état interne en réaction à certaines informations - à source plus ou moins lointaine - qu’ils sont autorisés à recevoir au sujet de leur environnement
  • 3.Peuvent communiquer directement avec d’autres agents proches ou éloignés : c’est-à-dire en échangeant directement des messages et non par simple stigmergie (qui est une communication indirecte procédant par dépôt et détection de traces - ainsi des phéromones - sur l’environnement).
  • 4.Sont autonomes au sens où elles ne dépendent pas d’un contrôleur global[12]
  • 5.Ont des compétences qui leur permettent de développer des tendances à agir d’une certaine manière et de tendre vers un but[13]
  • Développés initialement dans le contexte de l’intelligence artificielle distribuée (DAI), ces modèles se sont ensuite diffusés dans les années 1990 pour faire naître ce versant des sciences sociales que l’on dit parfois « computationnel » : la sociologie computationnelle ou encore l’économie computationnelle à base d’agents.
  • Pour terminer cette présentation très succincte et générale des modèles à agents, remarquons que la richesse d’une telle modélisation permet de produire des agents de différents types. Jacques Ferber fait notamment la différence entre les agents réactifs, les agents actifs et les agents cognitifs. Les agents réactifs ne peuvent que réagir directement à l’action des autres agents ou à des modifications de leur environnement. Les agents actifs ont, en plus de cela, des buts simples et ils peuvent être à l’origine d’action intervenant sous l’effet de leur seule « spontanéité » (à savoir une modification simple de leur état intérieur, de leurs croyances, etc.), c’est-à-dire sans que cela soit dû à une réaction directe à leur environnement. Les agents cognitifs enfin sont les plus complexes : ils peuvent être à l’origine d’actions intervenant comme le résultat de calculs intérieurs complexes procédant à partir de leurs désirs, de leurs représentations, d’analyses internes de type coûts/bénéfices, de valeurs, de normes ou d’usages, d’anticipations, de théories qu’ils se font des esprits des autres agents, etc.
  • II.Leurs motivations manifestes et les inquiétudes sur leurs motivations cachées
  • Historiquement, donc, nous observons l’essor et la diffusion de ces modèles à base d’individus et à base d’agents depuis les années 1990, spécialement dans les sciences de l’environnement, dans les sciences biologiques et dans les sciences sociales. Quelles en sont les raisons plus ou moins évidentes ? Quelles en sont éventuellement les motivations cachées ? Et, quelles sont les inquiétudes qui peuvent naître à leurs sujets ?
  • Les facilitations matérielles et technologiques
  • Notons d’abord qu’un des facteurs matériels et techniques évidents est le développement large à partir des années 1980 de langages de programmation - comme C++ ou JAVA ou NetLogo - dédiés à la programmation orientée objets (OOP). Ces langages ont fait suite aux langages - comme FORTRAN ou Pascal - dédiés à la programmation dite procédurale. L’OOP se concentre sur des entités informatiques - les objets - et permet de gérer une grande autonomie dans les interactions entre ces entités. L’accroissement en termes de puissance de calcul des PC, d’accessibilité des PC, d’ergonomie de ce type de programmation OOP pour des chercheurs non versés dans la programmation, tout cela a beaucoup fait aussi pour la diffusion de ce type de modélisation formelle.
  • Les facilitations méthodologiques et conceptuelles
  • De tels modèles formels présentent des entités formelles aux formats plus souples et plus diversifiés. Cela est précieux quand le domaine de connaissance en question ne dispose pas de théories ou de lois supposées valoir à l’échelle de tout le système ou au moins à l’échelle de variables d’état du système. La conception des programmes de modélisation est aussi rendue plus intuitive pour les écologues, les biologistes, les sociologues ou les économistes : on passe d’une réflexion d’emblée abstraite, conçue en termes de procédures et de fonctions (mathématiques), à une réflexion et une représentation en termes d’éléments, éléments pour lesquels on peut avoir des informations plus directement accessibles d’un point de vue empirique. Ensuite, les formats des entités modélisantes (les individus ou les agents informatiques) sont souvent mieux adaptés aux données les plus qualitatives : structures, relations de réseaux, comportements, valeurs, croyances, etc. Enfin, ce format d’entités n’interdit pas une pluralité de types d’entités formelles coexistant dans un même programme : ainsi, la modélisation à base d’agents est plus adaptée à la prise en compte simultanée - c’est-à-dire dans le même modèle - de données et de règles de types fortement hétérogènes.
  • Un contexte scientifique favorable
  • Parmi les autres facteurs qui furent à l’origine de cet essor des approches à base d’individus et d’agents en sciences biologiques et sociales, on peut bien entendu ranger aussi l’influence qu’ont pu avoir certains développements en modélisation pour la physique. Depuis les années 1920 au moins, avec le modèle d’Ising et ses variantes, les approches désagrégées en physique retrouvent à s’employer pour résoudre des problèmes complexes, comme ceux du magnétisme par exemple. La physique statistique du début du 20ème siècle s’essaie aussi à des modélisations faisant en sorte de se passer de l’hypothèse du champ moyen. Dans plusieurs autres domaines de la physique, on retrouve également un intérêt à remonter d’une approche eulérienne (par les champs) à une approche lagrangienne (par les suivis de particules). Un des exemples éclatants est le recours aux simulations Monte-Carlo - neutron par neutron - sur computer pour servir à l’estimation du dimensionnement de la bombe H, travaux effectués au laboratoire de Los Alamos, dans les années 1940 par Ulam, Metropolis et Von Neumann[14].
  • En chimie, les simulations dites ab initio sur computer (atomes par atomes ou molécules par molécules) servant à la modélisation de la dynamique moléculaire se sont développées largement dans les années 1980, après des succès pionniers dès les années 1950. En ingénierie, la modélisation de systèmes plus complexes qu’avant - car nettement hétérogènes en termes de processus mécaniques et physiques couplés - a imposé de quitter l’approche par les lois et d’adopter le développement de programmations et de modélisations orientées objets : au départ, avec le recours aux langages Simula 67 puis ensuite avec C++ ou encore JAVA. En biologie, l’approche probabiliste portée dans des directions très nombreuses et très riches de par la problématique massive de la théorie darwinienne dès la fin du 19ème siècle (avec la naissance en son sein de la biométrie) a également fait son miel des tendances à la désagrégation des effets d’interaction, en particulier donc, comme on peut s’en douter, en biologie évolutionnaire computationnelle. En écologie, des doutes sont apparus assez tôt au sujet de la fécondité prétendument universelle des modèles équationnels : la reconnaissance de l’existence probable de phénomènes de chaos déterministe dans la nature[15], la reconnaissance aussi des obstacles que pose à toute tentative d’inférence à la meilleure explication la sous-détermination par les données des modèles fortement abstractifs[16], tout cela y a fait beaucoup.
  • La psychologie sociale, la sociologie et l’économie se sont quant à elles de plus en plus intéressées à l’étude des comportements transitoires, non asymptotiques, intervenant dans des populations non infinies : certains effets sociaux de la finitude ont été étudiés pour eux-mêmes. Le computer pouvait exemplairement y aider. L’économie a quant à elle cherché à opérationnaliser dans des modèles plus réalistes la théorie - déjà ancienne (Menger, 1892) - de l’émergence de la monnaie ou des normes à partir des interactions individuelles. Les modèles à agents permettent en effet de rapprocher ces émergences de l’émergence computationnelle. Enfin, l’étude des phénomènes d’auto-organisation et des systèmes complexes auto-adaptatifs[17] a beaucoup fait pour donner du crédit à ces approches désagrégées, dans leur généricité supposée.
  • Un contexte intellectuel, culturel et politique favorable
  • Avec une approche moins directe et plus critique, on pourrait aussi faire remarquer que cet essor des approches par individus ou par agents individuels coïncide historiquement avec la certaine suprématie du néo-libéralisme dans la pensée et dans la pratique économique et politique (Reagan, Thatcher). Le néo-émergentisme libéral est à une certaine époque très populaire : lorsqu’il s’agit de régler des problèmes d’ajustement collectif, les marchés sont réputés « mieux savoir » (« markets know best ») et être plus compétents que toute économie planifiée ou régulatrice. Les sociologues ont noté aussi que, dans la vie quotidienne, l’individualisme - la déliaison sociale - n’avait cessé de croître dans cette période, dans les sociétés occidentales. À partir des années 1980, également, commence à prospérer une philosophie de masse, médiatiquement très relayée, que l’on peut qualifier de post-marxiste ou post-structuraliste donc, en un sens, et pour faire très bref là aussi, post-holistique. L’individualisme méthodologique en sociologie (Menger, Hayek, Lazarsfeld) continue à faire des émules bien qu’il se fraie des chemins toujours plus complexes et prend une tournure plus nettement cognitiviste en France (Boudon).
  • Inquiétudes épistémologiques et accusations possibles
  • Ayant rappelé brièvement ces quelques points d’histoire des idées, on ne peut qu’être incité à développer une certaine inquiétude, traditionnelle finalement dans les épistémologies des modèles[18], à savoir celle qui se formulerait ainsi : ne sont-ce pas les facilitations idéologiques plutôt que les facilitations technologiques (les déblocages techniques) qui ont prioritairement déterminé l’essor des modèles à individus et à agents en sciences biologiques et en sciences sociales depuis les années 1980 ? Les IBM et ABM se développeraient dans la science contemporaine essentiellement parce que l’époque serait favorable à une conception individualiste du fonctionnement social. Afin d’instruire un peu mieux ce procès, je citerai ici non pas un épistémologue mais des géographes. Je me fonderai en effet essentiellement sur le travail de David O’Sullivan et Mordechai Haklay[19] dès lors qu’il présente l’intérêt de proposer une sorte de synthèse des critiques.
  • Ces derniers auteurs, même s’ils leur reconnaissant un intérêt, accusent en effet les approches à agents de ne se fonder que sur une prolongation déguisée de l’individualisme méthodologique, approche issue d’une certaine conception du fait social, cette individualisme méthodologique ayant souvent été un individualisme ontologique de fait. O’Sullivan et Hakley écrivent : « Les ABM vont fortement dans le sens d’une vision individualiste du monde social »[20]. Pour prouver leurs dires, ces auteurs mettent en lumière quatre propriétés limitatives que possèdent plus ou moins implicitement la plupart des modèles que nous avons évoqués :
  • 1. « Cet engagement en faveur de l’individualisme est accompagné d’une notion de l’émergence à sens unique : le social peut émerger de l’individuel, mais pas l’inverse »[21]. Il n’y a donc pas, le plus souvent, de réentrance du social dans l’individuel.
  • 2.« Il y a souvent une faible considération des sous-entendus théoriques du modèle présenté »[22]. La théorisation formelle ayant en effet traditionnellement concerné des variables valant à échelle agrégée (macro), comme chez Durkheim par exemple, ce qui est disponible sous un format formel à la science sociale pour l’échelle micro n’est pas théorisé lui-même de façon formelle, mais souvent de manière uniquement verbale, comme chez Max Weber ou d’autres sociologues relevant de la sociologie dite « compréhensive »[23].
  • 3.« Il y a un engagement fort en faveur d’une complexité comportementale minimale. Cela est souvent présenté comme un mal nécessaire. La simplicité est requise pour permettre la construction du modèle et pour le rendre compréhensible »[24]. Ici, la critique porte sur une approche méthodologique des ABM spécifique nommée souvent KISSS : Keep It Simple Stupid. Il s’agit du conseil de simplicité : pour éviter la sous-détermination du modèle (accentuée il est vrai lorsqu’on augmente le nombre de paramètres) et permettre sa compréhensibilité directe pour un esprit humain non aidé. En réalité, cette approche méthodologique a été elle-même critiquée par les tenants d’une construction d’ABM plus complexes et plus réalistes[25].
  • 4.[Même dans une application de la « théorie de la structuration » d’Anthony Giddens telle qu’elle est proposée par Nigel Gilbert[26]], « il demeure ce problème que les agents sont toujours les seules entités réellement existantes dans le monde ainsi modélisé. Les structures sociales deviennent seulement ce que les agents pensent qu’elles sont. »[27] Les structures sociales conservent donc toujours une modalité d’existence de seconde classe puisqu’elles n’existent que comme propriétés des agents (leurs croyances) et non comme agents au sens fort.
  • Il me semble que ces auteurs ont décelé effectivement les principaux points faibles à partir desquels il est possible d’instruire le procès en idéologie - à savoir plus exactement en « individualisme ontologique » plus ou moins larvé - d’un grand nombre de ces modèles à base d’individus et d’agents. Dans la suite de ce chapitre, je souhaite montrer d’une part quelles peuvent être les réponses techniques et méthodologiques à de telles critiques, critiques pour la plupart justifiées. D’autre part, j’essaierai d’introduire aussi une réponse interprétative et explicative pour ces modèles, réponse de nature plus nettement épistémologique.
  • III.Les réponses techniques et méthodologiques à ces inquiétudes
  • Réponses au sujet de la référence des agents informatiques
  • On peut d’abord rappeler que la confusion entre agents informatiques et agents sociaux (au sens où l’agent serait ici l’acteur rationnel individuel, par exemple) est contingente, même si le formalisme des agents informatiques y prédispose fortement, il faut le reconnaître, de par l’ergonomie et l’iconicité directe que nous avons déjà signalées. Ainsi, Nigel Gilbert prend-il lui-même la peine de rappeler explicitement dans son ouvrage de synthèse sur les ABM de 2008 que les « agents [du système cible] peuvent être des organisations, des institutions, des corps sociaux ou des états »[28].
  • On doit ajouter qu’il existe une approche méthodologique recourant à des agents informatiques également distribuées et interactifs mais donnant aussi une place explicite à une catégorie d’agents spécifiques, les agents holoniques, à savoir des agents qui représentent directement des corps sociaux intermédiaires ou des institutions. Pour présenter ce type d’agents, je citerai d’abord ce passage d’un article de Schillo et Fischer :
  • Bien qu’il soit possible d’organiser des structures holoniques d’une manière complètement décentralisée, pour des raisons d’efficacité, il est parfois plus efficient d’utiliser des agents individuels pour représenter un holon. Cela peut être réalisé en sélectionnant un ou plusieurs agents parmi ceux qui existent déjà pour en faire des représentants du holon sur la base d’une procédure élective fixée. Ou bien, de nouveaux agents sont explicitement créés pour représenter le holon pendant sa durée de vie. Les représentants sont appelés la tête du holon (ou le « médiateur »), les autres agents sont alors des parties du corps du holon. Dans les deux cas, les agents représentatifs (et seulement eux) se présentent pour défendre les intentions partagées et pour négocier ces intentions avec les autres agents existant dans l’environnement du holon aussi bien qu’avec les agents internes au holon. La force de liaison qui maintient la tête et le corps ensemble dans un holon peut être vue comme un engagement. C’est cela qui distingue cette approche des méthodes classiques comme la programmation orientée-objets : les relations ne sont pas (statiquement) exprimées au niveau du code, mais dans des engagements formés au cours du temps de computation[29].
  • Les agents holoniques sont appelés parfois agents récursifs ou composés. Le terme de holon lui-même a été popularisé par un ouvrage d’Arthur Koestler (Le fantôme dans la machine, 1967) : il sert à dénoter une entité qui est à la fois un tout et une partie d’un tout. Ce terme est repris dans les années 2000 par une partie de la communauté des informaticiens et des modélisateurs des systèmes composites ou complexes. Récemment, Massimo Cossentino et Nicolas Gaud, de l’Université de Technologie de Belfort-Montbéliard, ont montré l’intérêt qu’il y avait à recentrer cette notion de holon sur celle de « rôle »[30].
  • Réponses à l’accusation d’émergence à sens unique
  • À partir des années 1980, la partie de la théorisation sociologique issue de l’école de l’individualisme méthodologique (Boudon, Colman, Dupuy, Manzo) complexifie ses concepts et admet la nécessité de proposer un « individualisme méthodologique complexe »[31] : c’est celui qui admet que des faits sociaux émergents ont, comme tels, des effets en retour sur les individus. La figure 1 schématise les liens causaux admis dans le cadre de cet individualisme méthodologique complexe.
  • Figure 1 : Les liens causaux admis dans l’IM complexe
  • À la différence de l’individualisme méthodologique traditionnelle, la seule influence causale qui est désormais rejetée est celle qui interviendrait du niveau macro sur le niveau macro. Le holisme résiduel (à rejeter) serait celui qui autoriserait que des phénomènes macro, en tant que macro, aient un pouvoir causal direct sur d’autres phénomènes macro. L’influence causale du macro sur la micro est en revanche reconnue nouvellement et explicitement. Or, le formalisme des ABM leur permet tout à fait de représenter des relations causales entre le niveau macro et le niveau micro des agents : il suffit que les agents perçoivent les patterns émergents, les mesurent, les évaluent, et soient programmés pour y réagir.
  • Réponse à l’accusation de faiblesse théorique et de masquage d’hypothèses
  • Face au problème de la faiblesse théorique, assez largement reconnu dans la littérature scientifique elle-même, la communauté des écologues modélisateurs par agents computationnel s’est saisie, dès les années 1990, de plusieurs solutions méthodologiques possibles. Une de celles qui a le plus prospéré et qui s’est le plus développée aujourd’hui consiste à partir d’abord de distinctions claires entre théories, ontologies et protocoles. Partant d’abord du constat aujourd’hui largement reconnu que la pratique de modélisation sur computer recourant à des modèles de ce type - c’est-à-dire désormais complexes eux-mêmes - possède des caractéristiques partiellement semblables à celles d’une expérimentation réelle (avec des choix d’observables, des contraintes d’aseptisation, des choix d’instruments de mesure, des choix d’échelles d’observation, des hypothèses de travail, des réitérations avec variations, des analyses statistiques de résultat, etc.), l’écologue Völker Grimm et son équipe parlent d’entrée de jeu de protocole de modélisation. Tout modélisateur se voit par conséquent incité à fournir la description détaillée de ce protocole dans toute publication de son modèle[32]. Un modèle formel n’est plus simplement le calcul ou la concrétisation partielle d’une théorie préalablement exposée, encore moins un simple intermédiaire entre des données et cette théorie. Grimm et son équipe ont montré que leur approche par protocole analytique et descriptif est suffisamment souple pour être adaptée aux approches par IBM ou ABM qu’ils préconisent justement, ces approches dont j’ai rappelé brièvement plus haut qu’elles ont le mérite de faire droit à la diversité des formats des données, des lois, des règles et des mécanismes, ainsi qu’à l’hétérogénéité axiomatique.
  • Eléments du Protocole ODD
    • Aperçu (Overview)
  • 1.But (purpose)
  • 2.Entités, variables d’état, échelles
  • 3.Aperçu du processus et ordonnancement
    • Concepts de conception (Design concepts)
  • 4.Concepts
  • a.Principes de base
  • b.Emergence
  • c.Adaptation
  • d.Objectifs
  • e.Apprentissage
  • f.Prédiction
  • g.Mesure/capteurs
  • h.Interaction
  • i.Stochasticité
  • j.Collectifs
  • k.Observation
    • Détails
  • 5.Initialisation
  • 6.Données d’entrée
  • 7.Sous-modèles
    • Figure 2 : Le Protocole ODD (Overview-Design-Details) de l’équipe de Grimm
    • L’autre grand mérite de cette approche ODD (voir figure 2) est de faire entrer dans les définitions et les classifications la différence entre la théorie et une ontologie : si un modèle peut ne pas faire apparaître d’entrée de jeu une théorie ou ne pas sembler faire fond sur elle, ce qu’il montre en revanche assez vite et assez directement, dans ses formulations même, c’est son ou ses ontologies, à savoir les types d’entités et de processus qu’il admet à l’existence et auxquels ils donnent un rôle. Il y a donc un rapport de précellence essentiel à noter : on ne peut pas s’enquérir de la ou des théories qu’implémente un modèle à agents si on ne s’enquiert d’abord des ontologies dans lesquels ils commandent que l’on s’engage lorsqu’on l’utilise. Pour s’enquérir des hypothèses explicites ou implicites sur lesquelles fait font un modèle complexe à agents, il faut donc d’abord adopter un grain d’analyse ordinairement plus fin que celui de conceptions théoriques directement relationnelles ou fonctionnelles. Remarquons dans le tableau ci-contre (figure 2), que, si la fonction épistémique ou but du modèle (purpose) demeure bien comme ce qui est à caractériser en premier (Aperçu 1.), l’ontologie vient tout de suite après. De surcroît, les entités (Aperçu 2.) y sont définies avant les processus (Aperçu 3.). L’ontologie des IBM et ABM est ainsi d’apparence préalablement réifiante plutôt que d’emblée processuelle et fonctionnelle.
    • Les « concepts de conception » rassemblent les propriétés particulières que possèdent, de par leur construction ou conception, les agents ainsi que les perspectives que le modèle engage et s’engage à adopter sur eux. C’est là que l’on choisit par exemple si les agents seront seulement réactifs ou plutôt cognitifs ou encore adaptatifs, si nous nous intéressons ou non aux patterns émergents, si le hasard sera iconiquement représenté ou pas, si les collectifs d’agents le seront ou pas, etc.
    • Bref, une telle grille d’analyse a pour ambition de permettre de mettre tout sur la table avant même de présenter les hypothèses théoriques de haut niveau. En ce sens, elle entend bien répondre à l’accusation de flottement théorique et de soumission idéologique implicite en nous donnant au moins les moyens d’en juger, chaque fois, collégialement.
    • IV.Une réponse épistémologique : le discrétisme méthodologique
    • L’apport de l’épistémologie : distinguer davantage pour légitimer ou critiquer mieux
    • En poursuivant l’analyse du côté de l’épistémologie cette fois-ci, mon idée est que l’on peut et que l’on doit aller plus loin. Elle consiste d’abord à faire remarquer que le simple fait de clarifier les types d’entités à l’œuvre dans le modèle pourrait ne pas suffire si les relations de référence entre les entités du modèle et du programme, d’une part, et les entités du système cible, d’autre part, ne sont pas elles aussi précisément explicitées, expliquées et légitimées.
    • Il faudrait proposer à cette fin une épistémologie explicite et pas seulement une méthodologie. Mais qu’est-ce qu’une épistémologie dans ce contexte ? On peut dire en première approximation qu’il s’agit au moins d’une méta-méthodologie : il ne s’agit donc pas seulement d’une méthodologie parmi d’autres, mais au minimum d’un regard comparatif et critique sur les méthodologies. Une épistémologie acquiert, ce-faisant, une dimension normative et pas seulement descriptive. Une épistémologie devrait en particulier pouvoir permettre de rendre claire et explicite ce qui garantit l’applicabilité et la valeur d’une méthodologie, notamment au regard de ses implications souvent inaperçues en termes d’engagement ontologique et de métaphysique des sciences. L’épistémologie peut arriver à dire par exemple que l’individualisme ontologique de Menger légitime son individualisme méthodologique, ou encore que l’instrumentalisme (ou le subjectivisme) de Laplace en termes de modélisation formelle par les probabilités lui permet de ne pas être en contradiction avec lui-même dès lors que sa métaphysique des sciences, quant à elle, est nettement déterministe.
    • Ainsi, l’épistémologie - même si elle n’y parvient sans doute qu’imparfaitement et temporairement[33] - tend à ne pas être aliénée à une seule et unique métaphysique des sciences. Davantage elle devra pouvoir rester la plus possible ouverte, en particulier lorsque, comme aujourd’hui, dans son analyse des fondements d’une méthodologie complexe, elle est confrontée à plusieurs métaphysiques des sciences simultanément à l’œuvre. En fait, de plus en plus, l’épistémologie aura à rendre clairs et explicites les garants d’une méthodologie aux prises avec plusieurs métaphysiques des sciences. Si l’on regarde comment les philosophes des sciences ont réagi à l’émergence des simulations sur computer, on voit qu’alors que certains plaidaient encore unilatéralement pour la reconnaissance d’une fonction principale et unique de toutes les simulations (tantôt expérience, quasi-expérience, analogie, argument théorique ou encore calcul, etc.), d’autres choisissaient de partir de la reconnaissance de cette pluralité des fonctions des simulations[34] et du fait qu’elle devait chaque fois être décidée à la lumière de la « connaissance d’arrière-plan »[35] des modélisateurs.
    • Ainsi, si l’on se penche, avec les yeux de l’épistémologue, sur les concepts du protocole ODD, on peut distinguer les entités du modèle, les symboles discrets (entités du programme et de la simulation) et les entités du système cible. Or en 2010, Grimm et ses collègues écrivent seulement ceci :
    • Une entité est un objet ou acteur distinct ou séparé qui se comporte comme une unité et qui peut interagir avec d’autres entités ou être affecté par des facteurs environnementaux extérieurs. Son état courant est caractérisé par ses variables d’état ou par des attributs[36].
    • Une entité peut donc être un agent, un environnement une unité spatiale, un collectif d’agents. Cette pluralité est féconde et gage de souplesse. Mais, significativement, la caractérisation de Grimm et de ses collègues ne précise pas s’il est question des entités symboles ou des entités du système cible : cette caractérisation semble en fait valoir indistinctement pour les deux mondes, le monde du modèle et le monde réel ou visé. Mais posons-nous la question : si l’environnement est lui-même une entité, comme le suggèrent Grimm et ses collègues, qu’en est-il des parties de l’environnement ? Sont-elles aussi des entités ? À lire la caractérisation de Grimm, il ne le semble pas. Pourtant, que peuvent-elles être d’autre que des entités, discrètes elles aussi par définition (« discrete » signifiant aussi distinct en anglais) ? Par exemple, qu’en est-il des entités et sous-entités des modèles multi-échelles et hybrides (sous modèle ABM + sous-modèles à base d’équations) qui mixent au moins deux niveaux ou deux échelles de phénomène, cela en permanence au cours de la computation ?[37] En fait, la terminologie de Grimm est encore trop imprécise car elle mélange encore implicitement les entités symboles et les entités symbolisées.
    • Mais ce qui est plus grave, et qui va avec : elle ne permet pas de distinguer les symboles discrets du modèle des symboles discrets servant pour la computation du modèle et de ses sous-modèles dans le computer. Ces symboles eux-aussi peuvent être des entités différentes, encore plus désagrégées, discrétisées en ce sens, car le modèle - surtout quant il est mixte, multi-aspects ou multi-échelles - peut nécessiter lui-même des simulations supplémentaires partielles ou locales. Ainsi, ces distinctions conceptuelles du protocole ODD, par ailleurs si utiles et clarifiantes, conserve une forme d’imprécision qui peut conduire encore à confondre le modèle et la simulation. Il faudrait donc veiller d’abord à les distinguer.
    • Distinguer modèle et simulation
    • Je ne reviendrai pas ici en détail sur les distinctions et les articulations que j’ai proposées ailleurs entre modèle formel et simulation sur computer[38]. Je rappellerai simplement l’intérêt et la fécondité interprétative que l’on trouve à caractériser une simulation sur computer non pas prioritairement comme le traitement d’un modèle formel pré-donné mais comme une stratégie de symbolisation et de traitement symbolique procédant au minimum en deux phases et recourant pour cela à un modèle formel, à un modèle de simulation ou à un système de modèles et de sous-modèles.
    • Une première phase, dite opératoire, est celle pendant laquelle une certaine quantité de computations est effectuée sur des entités discrètes et symboliques, constamment prises comme telles, c’est-à-dire dont on ne perd pas de vue le caractère référentiel. Ces entités symboliques réfèrent à des entités ou à des règles discrètes sur ces entités qui sont quant à elles présentes réellement ou fictivement dans un système cible. Il y a donc au moins les entités symboliques, d’une part, et les entités réelles ou fictives du système cible, d’autre part. Entre elles, il y a des rapports de référence à un ou plusieurs niveaux. Les symboles opérant dans cette phase de la simulation sont donc toujours au moins fictivement considérés comme référentiels (dénotationnels ou au contraire exemplifiants par exemple), et donc symboliques en ce sens large qui est propre à l’approche analytique des symboles adoptée par Nelson Goodman et que je reprends ici.
    • La seconde phase de toute simulation sur computer est dite phase observationnelle. Au cours de cette phase, une observation, une mesure ou tout réemploi mathématique ou statistique des résultats des computations de la phase précédente est effectué. Or, à cette fin, la simulation commande un changement de niveau d’observation des entités dénotantes : il faut voir les résultats de la computation précédente comme des symboles référants eux aussi. Ces agrégats de symboles discrets sont aussi des symboles discrets, mais pris en bloc, à un niveau dénotationnel éventuellement inédit. L’observation de patterns résultants impose donc une remontée dans ce que Goodman appelle une hiérarchie dénotationnelle. Une simulation est donc un traitement symbolique faisant alterner des computations servant à représenter des interactions réelles ou fictives et des changements de niveaux permettant une observation et une mesure, à un niveau symbolique autre, des résultats de ces computations.
    • Or, bien comprendre la spécificité du pouvoir et des limites de la discrétisation dans les simulations sur computer suppose certes de comprendre que toute simulation par discrétisation sur computer impose un traitement symbolique, une computation puis un changement de niveau de symbole discret pour servir à ce traitement. Mais elle suppose aussi de bien comprendre qu’elle met en rapport - plus exactement en regard - des remontées et des redescentes dans différentes hiérarchies dénotationnelles. Or, ces hiérarchies dénotationnelles - celle du modèle, celle de sa stratégie de simulation et celle du système cible - n’ont pas à être strictement parallèles ni isomorphes : ce n’est pas parce que j’ai construit une discrétisation d’une entité symbolique de mon modèle à un nouveau niveau micro - ou niveau n-1 - qu’il y correspond une entité également agissante dans la hiérarchie dénotationnelle du système cible. C’est pourquoi d’ailleurs dès le début de la caractérisation d’une simulation sur computer, il faut considérer que les éléments ou agents discrets peuvent être seulement fictivement référants, sans cesser pour autant d’être des symboles.
    • Ainsi, idéalement, à un protocole méthodologique de type ODD, il devrait s’ajouter une analyse protocolaire épistémologique : certaines entités discrètes dans le modèle ou encore dans une de ses simulations peuvent être à fonction exclusivement méthodologique sans imposer d’engagement ontologique sur les référents possibles de ces entités symboliques dans le système cible. Ainsi, les éléments discrets d’une simulation dite numérique procédant par éléments discrets ou par différences finies en mécanique des fluides ne sont pas réputés être réalistes, mais ils ont un usage fonctionnel indéniable permettant le traitement symbolique final : ils ne peuvent donc être oubliés s’il s’agit de déclarer comme le voudrait, dans un protocole exhaustif, une présentation intégrale de l’ontologie des diverses entités à l’œuvre. On pourrait qualifier ces entités symboliques sans référent - ou référant fictivement - d’« entités symboliques méthodologiques ». Auxquelles il faudrait opposer par exemple des « entités symboliques ontologiques », entités symboliques qui, quant à elles, imposent un engagement ontologique fort sur l’existence de référents réels à un niveau dénotationnel similaire dans le système cible, malgré le caractère lourd et quelque peu pléonastique de l’expression « entité…ontologique ». Dans un protocole exhaustif, il faudrait bien ainsi distinguer les entités discrètes du système cible des entités discrètes du modèle ou des sous-modèles ou encore de celles des processus de traitement éventuellement associés (simulations).
    • La clé : le caractère discret des entités
    • Tous ces nouveaux rapports complexes - que je n’ai pu ici qu’évoquer - entre modèles formels et simulations et même entre différents types de simulations, ne donnent pas d’entrée de jeu une réponse simple et univoque à la question de la valeur de connaissance que l’on acquiert par ces modèles ou par ces simulations ni non plus - corrélativement et logiquement - à la question du degré d’idéologie qui y serait nécessairement impliqué. Ce n’est pas le moindre des paradoxes qu’il n’y ait pas d’épistémologie générale ni même automatique en cette affaire. La diversité et la complexité de ces nouveaux rapports entre modèles et simulations incitent en revanche à développer un cadre conceptuel et interprétatif toujours plus fin, sensible aux engagements ontologiques différenciés portés par les connaissances d’arrière-plan reconnues et par les symboles discrets en jeu[39]. Au-delà de leur diversité, une clé de leur puissance et de leur développement semble cependant résider justement dans le caractère discret et le pouvoir de formalisation accru qu’apportent la désagrégation et l’élémentarisation. Ce n’est pas que le « plus petit » explique tout (« small is powerful ») ou que le réductif serait la clé : la discrétisation permet plus prosaïquement la désarticulation, le hachage formel, clé de toutes les réarticulations au moins méthodologiques. Car cet usage natif du discret dans les modèles computationnels doit être considéré d’abord comme ayant une fécondité méthodologique inédite, d’où son essor continu actuellement, même si des considérations métaphysiques, ontologiques voire idéologiques ont pu historiquement inciter aux premiers développements des IBM et des ABM, comme je l’ai suggéré également.
    • L’imposition d’un caractère discret pour un symbole n’est pas équivalente à l’imposition d’un langage spécifique contraignant, de type mathématique discrète, car les mathématiques du continu peuvent y être simulées justement, quoique de manière approchée il est vrai[40]. La symbolisation discrète généralisée (mais pas nécessairement homogénéisée axiomatiquement) permet la coexistence, au cours de la computation, de différents types de sous-modèles, diversement axiomatisés, mais aussi de différentes voies de la référence vers le système cible, voies débouchant elles-mêmes sur des entités réelles ou fictives. Il est vrai que, de par sa forme, la symbolisation discrète favorise - en la facilitant comme on l’a dit - la représentation quasi-iconique d’individus discrets ou d’agents réellement individualisés. Mais il est faux d’en conclure qu’elle l’impose : la représentation atomisante et désagrégée n’implique pas logiquement la représentation iconique d’individus réels dans le système cible. Le rapport de représentation reste ici interne à une décision épistémique : il n’est pas déductif. Il est vrai que les simulations impliquent au minimum deux niveaux. Mais cette approche bi-niveaux peut elle-même continuer à être mobilisée comme un truc de calcul plutôt que comme une entreprise de symbolisation réaliste et à visée théorico-explicative.

    Conclusion

    En proposant la reconnaissance d’un discrétisme méthodologique, j’en appelle donc ici à une sorte de travail d’approfondissement, un peu austère il est vrai. Il ne s’agit pas de nier que maintes approches par IBM ou ABM aient été ou soient encore chargées d’un implicite idéologique de type spécifiquement libéral, ou d’un type qui soit apparenté à la sociobiologie, par exemple. Au contraire. Mais il s’agit de se donner les moyens conceptuels pour qu’une épistémologie puisse faire la différence entre ces facteurs idéologiques et techniques favorisant une solution technique particulière, à une époque donnée, et les raisons méthodologiques d’un succès et d’un essor qui, il faut le reconnaître, se révèlent aujourd’hui inexplicablement persistants. La véritable question est la suivante : pourquoi la discrétisation et l’élémentarisation ou atomisation suit-elle son chemin encore aujourd’hui et se développe-t-elle encore dans les sciences et techniques alors même que nous sommes peut-être entrés récemment dans une époque post-libérale (au moins dans les idées si pas dans les actes), post-émergentiste, néo-communautariste, pour laquelle, symptomatiquement, le numérique n’est plus parfois pensé que comme « big data » à la fois inerte et mystérieusement promoteur de prédictions sans concepts ?

    J’ai suggéré ici qu’il ne fallait pas tomber de nouveau dans l’idée d’un individualisme faussement méthodologique, celui-ci ayant en réalité longtemps été pratiqué comme un individualisme ontologique. Je propose de plaider plus largement pour un discrétisme, plutôt que pour un individualisme, car l’individu ni l’individuation ne me semble finalement être la clé. C’est la séparation et le hachage formel qui me semble être la clé de toutes les articulations. Mais reconnaître ce point suppose de remonter en-deçà de bien des désirs de mathesis universalis, il faut le reconnaître. C’est que ce hachage formel permet ensuite de résoudre un certain nombre de problèmes aujourd’hui majeurs pour le traitement scientifique des phénomènes complexes, à commencer par l’articulation et l’interaction entre échelles, entre aspects hétérogènes et non mono-théorisés, entre individus et collectifs, ou encore entre l’esprit simulé (modèle BDI de l’IA) et la matière implémentée (environnement matériel simulé).

    Note terminologique

    Sur les termes computer, computation, numérisation et numérique

    Je « traduis » désormais le terme anglais computer par le mot computer, la vieille traduction « ordinateur » (machine à ordonner et traiter des données) ne convenant manifestement plus, comme le montre en particulier l’essor de l’adjectif français « computationnel ». La langue française étant réticente à la non-traduction des termes techniques, elle a plus récemment choisi - malencontreusement là encore - de nommer cette fois-ci « numérique » ce qui parfois relève plus largement du computationnel et pas seulement du digital. Pourtant, comme cet article entend le suggérer entre autres choses, la « computerisation » de la science n’est pas seulement sa « numérisation » ou son tournant numérique. Une computation est une opération discrète de modification de symboles discrets - ou d’agrégats discrets de symboles discrets - sous l’effet d’une règle. Une numérisation, quant elle, est une application surjective qui fait correspondre des symboles discrets ou des agrégats de symboles discrets à des signes, signaux, images ou formes de nature analogique, i.e. qui peuvent être distingués entre eux par des variations continues. Ce qui est commun ici à la numérisation et à la computation, c’est le caractère discret du symbole résultant. En revanche, à la différence de ce qui se produit dans un computer, une numérisation au sens strict peut ne pas reposer entièrement sur des computations : un convertisseur analogique numérique n’est pas une machine computationnelle. Enfin, de par l’effet d’un déplacement de sens majeur là encore, ce qui est nommé « le numérique » en France recouvre principalement non pas même les résultats d’une numérisation mais l’ensemble des dispositifs de stockage et de communication massive et à longue portée - souvent interconnectés - de symboles aujourd’hui massivement discrets (mais ce ne fut pas toujours le cas) car résultant soit directement de numérisations, soit de computations. Le déplacement de sens ici relève d’une métonymie imparfaite : on utilise le nom du contenu aujourd’hui le plus fréquent (le résultat d’une numérisation ou d’une computation, qui est certes de nature discrète, digitale en ce sens) pour dénoter le contenant (les dispositifs d’affichage, d’interfaçage et les réseaux de circulation des signaux électriques codant les symboles discrets). Mais contenu et contenant ne sont pourtant pas logiquement liés comme le voudrait la règle stricte d’une métonymie, même si, historiquement bien sûr, la massification des numérisations a à la fois motivé et permis l’essor des réseaux de circulation de symboles discrets. Il est bon aujourd’hui de rappeler qu’il peut y avoir des réseaux (électriques, fluviaux) traversés par des courants ou des flux ayant des valeurs pouvant être considérées comme des signaux par ceux qui les observent (signaux de surconsommation, de crues), signaux qui ne sont pas pour autant discrets. Ainsi, cette métonymie - le numérique - ne s’impose en français que parce qu’elle déplace le sens non pas vers ce qui lui est logiquement lié, mais vers ce qui est vécu comme lui étant de fait le plus fréquemment et le plus visiblement lié par le plus grand nombre de nos contemporains : l’internet, le smartphone, la tablette, la télévision numérique, les objets connectés.

    Références

    –Cossentino, M., Gaud, N., Galland, S., Hilaire, N., Koukam, A. (2007), “A metamodel and implementation platform for holonic multi-agent systems”, Proc. of the 5th European Workshop on Multi-Agent Systems (EUMAS’07), Hammameth, 13-14 December 2007, 1-14.

    –Duboz, R., Ramat, E. & Preux, P. (2003), “Scale transfer modeling: using emergent computation for coupling an ordinary differential equation system with a reactive agent model”, Systems Analysis Modelling & Simulation, 43, 793-814.

    –Durrett, R, Levin, S (1994), “The importance of being discrete (and spatial)”, Theoretical population biology, 46, 363-394.

    –Ferber, J., (1999, [1995]), Multi Agent-Systems: An Introduction to Distributed Artificial Intelligence, Harlow, Addison Wesley Longman.

    –Galison, P. (1997), Image and Logic, Chicago, University of Chicago Press.

    –Gilbert, N. (1996). “Holism, individualism and emergent properties ” in Hegselmann, R., Mueller, U. & Troitsch, K. (eds.), Modelling and Simulation in the Social Sciences from the Philosophy of Science Point of View, Dordrecht, Boston, London, Kluwer Academic Publisher, 1-12.

    –Gilbert, N. (2008), Agent-Based Models, Thousand Oaks (Ca.), Sage.

    –Goodman, N. (1976 [1968]), Languages of art: An approach to a theory of symbols. Indianapolis, Bobbs-Merrill.

    –Goodman, N. (1981), Routes of reference. Critical Inquiry, 8, 121-132.

    –Grimm, V. (1999), “Ten years of individual-based modelling in ecology: what have we learned, and what could we learn in the future?” Ecol. Model. 115, 129–148.

    –Grimm, V. et al. (2006), “A standard protocol for describing individual-based and agent-based models”, Ecological Modelling, 198, 115-126.

    –Grimm, V. et al. (2010), “The ODD protocol: A review and first update”, Ecological Modelling, 221, 2760-2768.

    –Grimm, V., Railsback, S.F., Individual-Based Modeling and Ecology, Princeton, Princeton University Press, 2005.

    –Holland, J. (1975), Adaptation in Natural and Artificial Systems, MIT Press.

    –Humphreys, P. (2004), Extending Ourselves: Computational Science, Empiricism and Scientific Method, Oxford, Oxford University Press.

    –Levin, S. (1974), “Dispersion and population interaction”, American Naturalist, 108 (960), 207-228.

    –Manzo, G. (2007), « Progrès et ‘urgence’ de la modélisation en sociologie. Du concept de ‘modèle générateur’ et de sa mise en œuvre », Année sociologique, 57(1), 13-61.

    –May, R. (1973), Stability and complexity in model ecosystems, Princeton University Press.

    –Menger, C. (1892), “On the origin of money”, Economic Journal, vol. 2, 239-255.

    –Mitchell, S.D. (2003), Biological Complexity and Integrative Pluralism,Cambridge, Cambridge University Press.

    –O’Sullivan, D., Haklay, M., (2000), “Agent-based models and individualism: is the world agent-based?”, Environment and Planning A, 32, 1409- 1425.

    –Phan D. & Varenne F. (2010), “Agent-Based Models and Simulations in Economics and Social Sciences: from conceptual exploration to distinct ways of experimenting”, Journal of the Artificial Societies and Social Simulation (JASSS), 13(1), 2010, http://jasss.soc.surrey.ac.uk/13/1/5.html

    –Rouchier, J. (2001), “Review on ‘Multi-Agent System: An Introduction to Distributed Artificial Intelligence’by J. Ferber (1999)”, http://jasss.soc.surrey.ac.uk/4/2/reviews/rouchier.html

    –Schillo, M., Fischer, K. (2003), “Holonic Multiagent Systems”, KI, 17(4), 54.

    –Varenne, F. (2001), “What does a computer simulation prove?”, in Giambiasi, N. & Frydman, C. (eds.) Simulation in industry – ESS, Proc. of the 13th European Simulation Symposium, SCS Europe Bvba, Ghent, 549-554 . https://www.researchgate.net/publication/232607535_What_does_a_computer_simulation_prove

    –Varenne, F. (2007), Du modèle à la simulation informatique, Paris, Vrin.

    –Varenne, F. (2009), Qu’est-ce que l’informatique ?, Paris, Vrin.

    –Varenne, F. (2010a), Formaliser le vivant : lois, théories, modèles ?, Paris, Hermann, 2010.

    –Varenne, F. (2010b), “Framework for Models & Simulations with Agents in regard to Agent Simulations in Social Sciences: Emulation and Simulation”, in A. Muzy, D. Hill & B. Zeigler (eds), Modeling & Simulation of Evolutionary Agents in Virtual Worlds, Clermont-Ferrand, Presses Universitaires Blaise Pascal, 53-84.

    –Varenne, F. (2010c), « Les simulations computationnelles dans les sciences sociales », Nouvelles Perspectives en Sciences Sociales, 5 (2), 2010, 17-49. www.erudit.org/revue/npss/2010/v5/n2/index.html

    –Varenne, F. (2011), Modéliser le social – Méthodes fondatrices et évolutions récentes, Paris, Dunod.

    –Varenne, F. (2013), “Chains of Reference in Computer Simulations”, working paper sélectionné et publié par la FMSH, FMSH-WP-2013-51, 2013, 32 pages. www.fmsh.fr/en/c/4002

    –Winsberg E. (1999), “Sanctioning models: the epistemology of simulation”, Science in Context, 12, pp. 275-292.

    –Winsberg, E. (2003), “Simulated experiments: methodology for a virtual world”, Philosophy of Science, 70, 105-125.

    –Winsberg E. (2009), “A Tale of Two Methods”, Synthese, 169 (3), pp. 575-592.

    –Winsberg, E. (2010), Science in the Age of computer Simulation, Chicago, University of Chicago Press.

    –Wooldrige, Jennings, (1995), “Intelligent Agents. Theory and Practice”, Knowledge Engineering Review, 10(2), 115-152.


    [1] Ce travail a été présenté pour la première fois, à l’oral, lors d’une conférence prononcée au colloque international de juin 2016 organisé par l’Institute of Advanced Study MECS (Media Culture for Computer Simulations), colloque intitulé “Agent Cultures and Zombieland”. Il s’est tenu à l’Université de Leuphana, à Lüneburg, en Allemagne. Je remercie Gérard Chazal de me donner l’opportunité d’en présenter ici une version écrite et en français.

    [2] (Galison, 1997), (Humpreys, 2004), (Varenne, 2007, 2010), (Winsberg, 2010).

    [3] Voir la note terminologique en fin d’article.

    [4] (Varenne, 2007).

    [5] (Grimm, 1999).

    [6] (Gilbert, 2008).

    [7] C’est pourquoi on peut aussi considérer qu’ils font partie des modèles que l’on dit parfois « computationnels ».

    [8] Ou plus généralement non pas de « dénoter » strictement mais de « se référer à ».

    [9] Cité dans (Volker Grimm & Steven F. Railsback, 2005), p. 3.

    [10] Voir (Ferber, 1999 [1995]).

    [11] Voir (Ferber, 1999 [1995]), (Wooldridge & Jennings, 1995), (Rouchier, 2001).

    [12] (Gilbert, 2008), p. 21. Suivant le modèle BDI (Belief, Desire, Intention) issu notamment du travail en modélisation pour l’intelligence artificielle de Michael Bratman, dans les années 1980, ils peuvent avoir individuellement des croyances, des désirs et des intentions.

    [13] Ibid. C’est ce que Gilbert appelle encore la proactivité.

    [14] (Galison, 1997).

    [15] (May, 1973).

    [16] (Levin, 1974), (Durrett & Levin, 1994).

    [17] (Holland, 1975).

    [18] Notamment en France, où il est habituel de pourchasser les projections, et les idéologies supposées massivement - et parfois exclusivement - à l’œuvre dans toute forme de modélisation : voir les travaux de Bachelard, Althusser, Badiou et Lecourt.

    [19] (O’Sullivan, D., Haklay, M., 2000).

    [20] Ibid., p. 1409. Ma traduction. Toute autre traduction sera de mon fait aussi.

    [21] Ibid., p. 1413.

    [22] Ibid., p. 1413.

    [23] La question de savoir ce qu’est la nature d’une théorie est évidemment à la traverse : je n’épiloguerai pas ici sur ce point controversé. Mais il est de fait que les critiques à l’encontre des modèles à agents ou désagrégées font souvent fond sur ce reproche d’une trop faible théorisation : dans ce contexte, les auteurs entendent implicitement par théorie quelque chose de proche de ce qu’entendait le positivisme logique, à savoir un système formel homogène et unique, valant pour tout un domaine (ici du social), producteur d’énoncées observationnels généraux, dont on peut vérifier, sur la foi des seuls axiomes de base, aussi bien la compréhensibilité que la cohérence interne.

    [24] Ibid., p. 1413.

    [25] (Varenne, 2010c).

    [26] Cette théorie de l’action sociale et de la société réintroduit une forme de holisme, et est proche en un sens de la théorie des champs et des habitus de Bourdieu.

    [27] Ibid., p. 1415.

    [28] (Gilbert, 2008), p. 5.

    [29] (Schillo, Fischer, 2003), p. 54.

    [30] (Cossentino, Gaud, Galland, Hilaire, Koukam, 2007).

    [31] (Varenne, 2011). Voir sur cette notion (Manzo, 2007).

    [32] (Grimm et al. 2006), (Grimm et al. 2010).

    [33] Seule l’histoire à venir des sciences et des méthodologies scientifiques pourra le dire.

    [34] (Galison, 1996), (Varenne, 2001).

    [35] (Winsberg, 1999), (Winsberg, 2009).

    [36] (Grimm et al., 2010), p. 2763.

    [37] Ainsi par exemple de la modélisation mixte et bi-niveaux (à base d’équations et ABM) de la dynamique d’une population de zooplancton par (Duboz et al., 2003).

    [38] Voir (Phan Varenne, 2010), (Varenne, 2010b), (Varenne, 2013).

    [39] Voir (Varenne, 2013).

    [40] Mais il ne faut pas confondre simulation et émulation, cette dernière étant une simulation parfaite, sans reste. Voir (Varenne, 2009) et (Varenne, 2010b).