« La conscience profonde qu'il existe un facteur personnel inévitable au sein du gouvernement est le meilleur moyen de réduire au minimum les effets néfastes de ce facteur personnel. » (Frank, 1942)

Une des plus importantes leçons que l’on apprend quand on fait des mathématiques, c’est qu’avant de chercher à résoudre un problème, il faut commencer par bien le poser : à quelle question exactement cherche-t-on à répondre ? Il arrive souvent que la première formulation qui vient à l’esprit, celle qui a motivé que l’on se lance dans notre quête, n’est pas la bonne, car elle n’est pas bien définie. En réalité, elle n’a souvent même pas de sens.

Un exemple extrême de cette situation a surgi il y a quelques années quand on a commencé à parler d’application de l’intelligence artificielle dans le domaine des décisions de justice. Une expression étrange a fait florès, la « justice prédictive ». Certains se sont appliqués à construire des « algorithmes » capable de prédire la décision que prendrait un magistrat sur un dossier donné, d’autres, beaucoup plus nombreux, se sont inquiétés des dérives d’une justice qui serait rendue par les machines, une justice robot, déshumanisée, qui se passerait de juges comme d’avocats. On soupçonne que, parmi ces derniers, certains ont joué à se faire peur et que d’autres ont agité un épouvantail pour disqualifier d’avance tout changement.

Qu’est-ce qui rend la question de « prédire la justice » mal posée ? Comme souvent, le point de départ est une appréciation erronée du but à atteindre. Un exemple aidera à comprendre où est le problème.

Transposons la question dans le domaine des marchés financiers, et admettons que nous nous mettions en tête de « prédire » la valeur de l’action de la société X demain. Nous nous armons de toutes les informations utiles : l’historique des cours, l’étude fine de la valeur fondamentale de cette société, ses perspectives, les nouvelles économiques et géopolitiques, … Nous mettons à contribution les ordinateurs les plus puissants. Cependant, nous avons omis d’interroger la nature profonde du phénomène que nous voulons comprendre : ce qui déterminera la valeur de cette action demain résulte d’un arbitrage entre les actions des intervenants qui croient que sa valeur va monter, et donc l’achètent, et de ceux qui croient qu’elle va descendre, donc la vendent. Si Alice souhaite vendre son actif pour 100 euros, c’est, la plupart du temps, qu’elle pense qu’elle gagnera plus d’argent ou en perdra moins en réalisant cette opération. Si Bob est prêt à acheter ce même actif à ce prix, c’est que lui croit qu’il va accroître sa richesse en le faisant : s’il était possible de prédire avec certitude que l’action allait descendre par exemple de 100 à 98 euros, Bob ne placerait probablement pas son ordre d’achat.

Cette analyse est bien sûr une simplification très grossière du fonctionnement général des marchés financiers. Nous avons, entre autres très nombreux points, ignoré l’existence d’échelles de temps différents pour les divers intervenants, négligé la possibilité que certains agents, même s’ils sont certains que l’action va monter, vont peut-être tout de même vendre celles qu’ils possèdent parce qu’ils y sont contraints, par exemple par un besoin de liquidités à ce moment-là... Mais il reste qu’une partie importante des mouvements est due au fait qu'à un instant donné, une partie des intervenants va chercher à acheter l'action parce qu'ils croient qu'elle va monter, alors qu'une autre va au contraire chercher à la vendre en anticipant qu'elle va descendre. Il est important de noter que tous ces acteurs sont devant la même situation et ont essentiellement les mêmes informations, mais qu’ils les apprécient différemment.

Ainsi, prédire les mouvements des marchés financiers n’a pas de sens, tout simplement parce que leur fonctionnement même est fondé sur le fait qu’ils sont par essence aléatoires. A part quelques marginaux, personne ne se lance aujourd’hui dans cette entreprise.

Ceci ne signifie toutefois pas que l’on doive abandonner toute analyse : « aléatoire » n’est pas synonyme de « totalement arbitraire ». En travaillant correctement, on peut produire tous les scénarios possibles d’évolution des cours, et même calculer leur probabilité ; ainsi, la bonne question à poser dans ce domaine est : « sachant que la nature même des marchés financiers est d’évoluer de façon aléatoire, comment construire une modélisation mathématique capable d’estimer la probabilité que telle ou telle modification se réalise » ? Chercher à répondre à cette question a donné naissance à un champ de recherche extrêmement fécond en mathématiques, qui fait avancer à la fois les connaissances les plus théoriques et les applications dans divers domaines bien au-delà de la finance.

Il est frappant que ce schéma se produise ces dernières années en droit. Tout au culte de l’intelligence artificielle, pour certains, ou au contraire à l’inquiétude quant aux effets délétères dont elle serait porteuse pour d’autres, les intervenants à ce débat ont oublié de se pencher sur le caractère bien posé de leur question de départ. Les interventions se sont focalisées sur les moyens techniques (les « algorithmes ») à mettre en œuvre pour prédire les décisions de justice ainsi que sur les avantages supposés de telles prédictions et leurs dangers, au lieu de commencer par valider la pertinence de l’interrogation initiale.

Loin de nous l’idée de mettre sur le même plan marchés financiers et système judiciaire. La matière du second est l’humain, celle du premier est inerte. Cette seule différence, fondamentale, oblige à une grande prudence. Une autre distinction notable est la suivante : sur les marchés, le donneur d’ordre sait que, sauf cas exceptionnel, son intervention ne va avoir qu’une influence imperceptible sur le cours de l’action. Au procès, au contraire, les parties, par leurs arguments, leurs avocats, leurs prétentions, tentent de (et arrivent parfois à) peser sur le processus décisionnel, donc sur la décision. Une partie de l’aléa, celle provenant de l’élément « irrationnel » qu’est la conviction du plaideur ou du trader, est donc agrégée sur de nombreuses actions sur les marchés financiers alors que ce n’est pas la cas en droit. De ce point de vue, l’incertitude est en conséquence plus grande en ce qui concerne les décisions de justice, même si cet aspect est contrebalancé par le fait que les règles y sont plus présentes et plus contraignantes. C’est une des raisons pour lesquelles le bon niveau d’étude pour une modélisation probabiliste n’est pas la décision individuelle, mais l’ensemble des décisions sur un domaine donné du droit.

Il existe bien évidemment d’autres différences importantes entre les deux champs, mais nous nous concentrons plutôt dans la suite sur plusieurs parallèles éclairants pour notre propos.

Le fonctionnement des marchés financiers est le résultat d’actions humaines (et, depuis quelques temps, algorithmique, avec ce que l’on appelle le « trading haute fréquence »), que l’on peut en principe décrire exhaustivement : tel intervenant a vendu telle quantité de tel actif à tel prix à telle date, et de tous ces mouvements on garde la trace. Cependant, pour comprendre les marchés, on ne descend pas en général à une telle description, appelée « microscopique », qui rend compte de toutes les actions individuelles. On préfère une vision « macroscopique », dans laquelle on caractérise les marchés par des quantités globales, comme l’évolution du prix des actifs, celle des volumes échangés, etc. Autrement dit, on « oublie » que le système que nous étudions est le fruit d’interventions individuelles pourtant parfaitement connues, mais trop nombreuses pour être embrassées dans tous leurs détails, et on le considère comme s’il s’agissait d’un « phénomène naturel », que l’on modélise à l’aide d’un petit nombre de paramètres. Cette approche a été initialement proposée au tout début du vingtième siècle par le mathématicien français Louis Bachelier. Elle permet de mettre en évidence et d’expliquer des propriétés appelées « émergentes », c’est-à-dire qui ne sont pas présentes au niveau de chaque intervenant, mais qui n’apparaissent que quand on considère le système dans son ensemble, par exemple le fait que les moments de forte - ou au contraire de faible – volatilité (c’est-à-dire pendant lesquelles le marché est très – ou peu - « agité ») ont tendance à se regrouper.

La méthodologie qui consiste à analyser un ensemble d’interactions d’origine purement humaine en ignorant les principes et les règles détaillées qui régissent leur fonctionnement microscopique et en le considérant plutôt « de l’extérieur », c’est-à-dire à partir de ses manifestations visibles et mesurables, n’est pas unique aux marchés financiers, mais est au contraire assez courant. On la retrouve par exemple dans l’étude du trafic Internet : les procédures qui permettent d’envoyer un courrier électronique comme de consulter un site sur le réseau, comme par exemple la commutation de paquets, sont bien sûr spécifiées de façon exhaustive par les ingénieurs qui mettent au point les protocoles et conçoivent les réseaux, mais pour comprendre le comportement global, à grande échelle, du trafic Internet, il est fécond de le considérer lui aussi comme un « phénomène naturel » dont on analyse les traces macroscopiques, en « oubliant » ces procédures. Comme dans le cas des marchés financiers, ceci permet de révéler des comportements qui n’apparaissent qu’au niveau global, et que la modélisation permet d’expliquer, comme par exemple le fait que l’état du trafic Internet à un instant donné est bien plus fortement corrélé avec son passé que dans le cas du trafic téléphonique.

Les spécialistes de la modélisation des marchés financiers et du trafic Internet n’ont en la matière rien à enseigner aux juristes : le courant du réalisme juridique s’inscrit exactement dans la même démarche. Il n’entre pas dans notre propos de nous lancer dans une description détaillée de ce courant, et nous renvoyons aux nombreuses excellentes références sur ce sujet. Il nous suffira de rappeler la définition concise de M. Troper (Troper, 2007) : « le réalisme juridique prétend concevoir le droit comme un objet empirique et non comme un ensemble d'entités idéales dotées d'une valeur obligatoire. Cet objet empirique est formé de manifestations de volonté telles qu'elles apparaissent notamment dans les décisions judiciaires ». Le réalisme juridique tente de dépasser l’aura qui enveloppe l’ordre juridique pour en traiter les éléments dans une perspective objective et scientifique (Cohen, 1935), et de passer des dispositifs à l’analyse des faits empiriques (W. O. Douglas). On pourra aussi consulter (Guastini, 2013) (Schouppe, 1987).

Le réalisme juridique ne prend pas comme objets d’étude les règles de droit, tout comme l’analyse macroscopique du trafic Internet ne considère pas la commutation par paquets. La version du réalisme juridique que nous adopterons ici analysera les décisions judiciaires dans leur ensemble dans un domaine donné, et non individuellement, tout comme l’analyse financière modélise l’agrégation des comportements individuels. Cette manière de procéder nous permettra, comme décrit dans les deux exemples ci-dessus, de mettre en évidence des propriétés systémiques grâce à la mise en œuvre de techniques probabilistes. Comme on le verra, celles-ci incluent notamment des effets de seuil et de « sourires d’indemnisation ».

Nous sommes conscients qu’en droit, davantage encore qu’en ce qui concerne l’étude des marchés financiers et du trafic Internet, l’approche empirique macroscopique a ses limites, surtout dans le cadre d’un projet de modélisation probabiliste mettant en œuvre l’intelligence artificielle pour « faire parler les données », c’est-à-dire ici la jurisprudence. Pour citer A. Pekelis, « les cas concrets ne peuvent pas être résolus par des propositions générales - ni sans elles ». Il conviendra donc de procéder à un soigneux dosage entre principes et pratiques : fonder le travail de la machine uniquement sur des règles générales conduirait à une application rigide de la loi, alors que ne s’appuyer que sur la jurisprudence entraînerait toutes sortes de biais. La procédure en trois étapes que nous rappelons plus bas nous semble être de nature à garantir un tel équilibre.

Si, comme dans nos deux domaines exemples, construire une analyse du droit sur le modèle des sciences de la nature n’a en soi rien de nouveau et se révèle fécond, ce qui permet réellement des progrès décisifs dans l’analyse financière et celle du trafic Internet est de reconnaître et de modéliser rigoureusement leur caractère aléatoire au niveau macroscopique. L’apport principal de notre travail consiste à faire de même en droit, à savoir construire une modélisation probabiliste des décisions de justice analysées dans leur ensemble dans un domaine du droit donné. Ainsi, notre approche peut être appréhendée comme une tentative de réaliser de façon concrète le programme de Holmes résumé dans sa célèbre formule « the prophecies of what the courts will do in fact, and nothing more pretentious, are what I mean by the law », où le terme « prophecies » est entendu dans le sens de « calcul des distributions de probabilité ». Cette réalisation s’appuie à parts égales sur une analyse juridique poussée et sur des outils mathématiques avancés, et est rendue possible par des progrès récents en intelligence artificielle.

Détaillons maintenant les arguments en faveur d’une approche probabiliste.

« Prédire la justice » : une question mal posée

Revenons à notre interrogation initiale : pour quelles raisons la question de « prédire » une décision de justice n’a-t-elle pas de sens ?

Un point de départ possible est la remarque de Hart : « certains affirment que la connaissance du caractère du juge, de ses habitudes, de ses vues politiques, économiques, sociales, même dans son état de santé, sont des éléments aussi importants à prendre en considération pour prévoir la décision judiciaire que la doctrine juridique » (The Basic Legal Myth).

A l’appui de cette thèse, plusieurs études empiriques ont mis en évidence l’influence de facteurs contingents dans les décisions rendues, comme par exemple l’heure à laquelle l’audience à lieu (Danziger, Levav, & Avnaim-Pesso, 2015). En général, il n’est un secret pour personne qu’un grand nombre de facteurs incontrôlables interviennent dans la prise de décision. Comme dans le cas du trafic Internet, il est vain de chercher à décrire dans tous leurs détails les comportements individuels (ce qui, de plus, poserait de sérieux problèmes déontologiques). De plus, même si l’on pouvait faire la liste de tous les facteurs susceptibles d’influer sur une décision, en pratique on ne pourrait jamais les mesurer et cette liste ne serait d’aucune utilité. Ce constat posé, la question naturelle se transforme et consiste alors à savoir si travailler à une modélisation probabiliste au niveau macroscopique peut ou non se révéler fécond.

L’observation fondamentale est que, tout comme le fonctionnement des marchés financiers, vu de l’extérieur, celui des juridictions est essentiellement aléatoire :  comme expliqué ci-dessus, nous voulons signifier par cette expression que l’aspect imprévisible d’une décision de justice est intégré par les parties (tout comme les mouvements imprévisibles des marchés le sont par les intervenants) et est souvent une condition du fait qu’elles décident de porter leur différend devant une juridiction.  De fait, les parties qui choisissent d'aller au tribunal ont, la plupart du temps, des anticipations différentes[1], voire opposées, de ce que sera la décision du juge : comme les acteurs sur les marchés financiers, ils partent de la même situation de départ et disposent essentiellement des mêmes informations, et pourtant chacun pense pouvoir au moins en partie faire pencher la balance de son côté et est prêt à mettre son sort entre les mains du juge. Autrement dit, la décision de justice possède un aspect fondamentalement aléatoire, qui est fréquemment la condition même de leur existence : dans de nombreux cas, au civil, les parties n’iraient tout simplement pas au procès si elles pouvaient connaître d’avance la décision, tout comme les acteurs ne placeraient pas leurs ordres sur les marchés financiers si l’évolution des cours était prévisible. On pourrait même dire que, dans le cas du droit, cette incertitude est encore plus marquée : en effet, si tout un chacun peut s’improviser « trader », à quelques exceptions près, le concours d’un avocat est nécessaire pour ester en justice. Ainsi, alors qu’on pourrait arguer qu’une partie de l’imprévisibilité des mouvements des cours financiers est due au fait des interventions hasardeuses de non professionnels, ce n’est pas le cas dans le domaine judiciaire. Les avocats sont des experts, ils ont souvent une longue expérience à la fois de leur domaine et de leur juridiction, et pourtant, le conseil d’au moins une des deux parties considère, à chaque action contentieuse, que l’intérêt de son client est d’aller devant le juge. Il a donc nécessairement une anticipation de la décision qui est différente de celle de son confrère de la partie adverse, tout aussi expert que lui. Cet état de fait est tout à fait souhaitable : à l’audience, les avocats peuvent défendre leur point de vue de toutes sortes de manières et avec une panoplie infinie d’arguments, et une décision de justice doit rester le résultat d’une confrontation humaine dont le déroulement ne peut pas être anticipé. Renoncer à cet aspect, et donc promouvoir une barémisation généralisée de la justice, n’est évidemment pas souhaitable. C’est pourtant ce que l’expression « justice prédictive » suggère.

En ignorant ce constat de départ, simple mais fondamental, qu'est le caractère partiellement aléatoire d’une décision de justice, il est impossible d'avoir une analyse saine par la suite, et en particulier de se poser les bonnes questions quant à ce que peut apporter l’intelligence artificielle et plus généralement la modélisation mathématique dans ce domaine. On en arrive à des énoncés totalement dépourvus de sens, comme « ce système de prédiction est capable de deviner la décision du juge dans 85 % des cas », ou « pour vérifier la fiabilité d’un système de prédiction, on va comparer son verdict à la décision qui a été réellement rendue ».  Mais de quelles décisions parlerions-nous dans de tels énoncés ? Celles prises après la pause déjeuner un lundi ou celles du vendredi soir tard ? Celles dans laquelle l'avocat a su trouver, dans ses échanges avec le magistrat ce jour-là, les bons accents, ou celles du jour où il avait mal dormi et a été moins performant ?

Se placer dans un cadre probabiliste permet d’éviter de formuler des questions mal posées ou de tenter de mesurer les performances d’un modèle selon des critères qui n’ont finalement pas de sens : pour ce qui est des décisions de justice, puisque l’aléa est consubstantiel à l’activité des tribunaux comme il l’est dans le cas des marchés financiers, le but ne sera pas de prédire mais de présenter toutes les issues possibles accompagnées de leur probabilité de réalisation. C’est ce que nous désignons par les expressions « quantification de l’aléa judiciaire » ou « modélisation probabiliste du processus de décision judiciaire ».

Un autre bénéfice d’une formulation claire et fondée du problème à résoudre est qu’il est ensuite possible de déployer des techniques mathématiques précises et d’évaluer les résultats des modèles de façon quantitative. Au contraire d’une grande partie de la littérature sur ce sujet, qui reste à un niveau général et n’aborde pas de points techniques, cela permet de disposer de méthodes opératoires pour valider ou infirmer des arguments. C’est la meilleure façon d’éclairer utilement le débat en fournissant des éléments solides à la société, qui pourra ainsi  décider de l’opportunité de mettre en place ou non de tels outils.

Fondements d’une approche probabiliste

L’approche que nous avons développée reproduit en grande partie celle qui est mise en œuvre dans de nombreux autres domaines, comme en médecine ou ingénierie financière. On peut la décrire brièvement comme suit :

● le point de départ est une « intelligence juridique » : pour un domaine donné du droit (par exemple l’indemnisation du préjudice corporel ou le versement d’une prestation compensatoire), des juristes experts dressent la liste des éléments des dossiers sur lesquels les magistrats se fondent pour prendre leur décision ;

● la quasi-exhaustivité des arrêts d’appel sur le domaine est analysée à la lumière de ces éléments : des juristes lisent les arrêts et notent, pour chacun, les valeurs des critères définis par les experts ;

● des modèles sont construits pour rendre compte de la manière dont les critères déterminent les décisions. Autrement dit, des procédures mathématiques sont mises au point qui, quand on les nourrit avec les éléments caractérisant un dossier, fournissent une « distribution de décisions virtuelles ». Cette distribution permet de tenir compte de l’aspect aléatoire du processus de décision : ainsi, pour un dossier présenté à la machine, celle ne « prédira » pas quelle sera l’issue, mais présentera l’éventail de toutes les décisions qui pourraient être prises par une juridiction donnée.

Cette manière de procéder permet d’éviter un certain nombre d’écueils : tout d’abord, puisque les critères d’analyse sont définis par des juristes spécialistes, le modèle ne peut pas se fonder sur des éléments non pertinents pour parvenir à ses résultats. Il n’est pas influencé par des corrélations fortuites, et le sens de la causalité est nécessairement respecté. D’autre part, l’analyse manuelle des décisions et le caractère quasi-exhaustif de la base constituée garantissent à la fois sa qualité et sa représentativité: le modèle apprend à partir de données fiables et complètes. Enfin, l’usage rigoureux de l’intelligence artificielle permet d’une part de vérifier la performance du modèle et d’autre part de limiter l’effet « boite noire » : en ce qui concerne le premier point, l’apprentissage est effectué sur une partie de la base (typiquement les deux tiers ou les trois quarts), puis les formules obtenues sont testées sur les décisions qui n’ont pas été vues ; on peut ainsi calculer la proportion de cas pour lesquels la machine reflète fidèlement la réalité, et présenter cette valeur de fiabilité à l’utilisateur en toute transparence. L’effet « boîte noire » est évité par le fait que le modèle est capable « d’expliquer » ses résultats : pour toute décision virtuelle, il décrira l’impact de chacun des critères du dossier, ce qui permet de reconstituer en partie le cheminement de la machine. Cette hiérarchie des critères présenté par la modélisation peut fournir des pistes pour une hiérarchie correspondante et corrélative des arguments à faire valoir.

Utilité de la modélisation mathématique

Disposer d’un modèle mathématique fiable, en droit comme dans d’autres disciplines, permet d’interroger la réalité en procédant à des simulations. En épidémiologie, par exemple, on utilisera un modèle pour tester l’impact de telle ou telle action sur la propagation d’une maladie et prendre ainsi les mesures les plus adaptées. Dans notre domaine, cela peut se traduire par la définition d’une stratégie qui limite les risques de condamnation ou au contraire maximise les indemnités que l’on peut espérer obtenir.

Ainsi, par exemple, le modèle développé concernant la rupture brutale des relations commerciales établies, qui prend en compte une trentaine de critères et l’analyse de la quasi-totalité des arrêts de la cour d’appel de Paris depuis 2012, nous indique que, dans le cas d’une relation ayant durée 12 ans entre un distributeur et un fournisseur ayant procédé à des investissements dédiés, liés par un contrat prévoyant 3 mois de préavis (tous les critères ne sont pas repris ici pour ne pas alourdir l’exposé), si le distributeur offre 3 mois de préavis en rompant la relation par une notification écrite, la probabilité qu’il soit condamné pour rupture brutale est de 93 %. Le modèle précise de plus que les critères ayant le plus fort impact pour l’entrée en voie de condamnation sont la présence d’un investissement dédié et la durée du préavis proposé par le distributeur. Ce dernier est donc amené à tester ce qui se passerait s’il acceptait de proposer par exemple 5 mois au lieu de 3. Le modèle indique alors que la probabilité d’entrée en voie de condamnation tomberait à 56 %. D’autres modifications hypothétiques peuvent être testées, correspondant à autant « d’expériences » que l’on peut simuler pour connaître les réponses chiffrés du modèle.

Il est important de comprendre que l’usage du modèle s’arrête là : celui-ci permet de compléter l’information du juriste de façon nouvelle et utile, mais c’est bien évidemment à ce dernier que revient la décision d’appliquer telle ou telle stratégie en fonction de tous les éléments dont il dispose, de même que les autorités de santé décident des mesures pour répondre à une épidémie en tenant compte de tous les facteurs humains, sociétaux, économiques, etc.

Une autre vertu des modèles est qu’ils permettent de mesurer précisément des effets connus mais qui sont difficilement quantifiables, ou même de découvrir des réalités insoupçonnées. Nous avons décrit ailleurs (Gayte Papon de Lameigné, Legrand, & Lévy Véhel, 2020) un tel effet, que nous avons baptisé « sourire d’indemnisation » en référence au « sourire de volatilité » observé dans la modélisation des marchés financiers. En un mot, le modèle est capable de quantifier le fait que, en ce qui concerne l’indemnisation de certains postes de préjudice corporel, l’assureur n’a en général pas intérêt à proposer un montant trop faible, car il risque d’être condamné à verser une indemnisation plus élevée que s’il avait été plus « généreux ». Le même processus est en œuvre en ce qui concerne la rupture brutale des relations commerciales établies. D’autres effets intéressants peuvent être perçus et quantifiés, par exemple en droit de la famille : le modèle permet en effet de rendre compte précisément du fait que le montant de la prestation compensatoire décidé par une cour commence, toutes choses égales par ailleurs, par augmenter avec la durée du mariage, avant d’atteindre un plateau, puis de diminuer pour des durées très élevées. Pour prendre un dernier exemple, il y a de nombreuses situations où l’on peut observer des effets de seuil. Ainsi, il est connu que le critère principal permettant d’apprécier la validité d’une clause de non-concurrence est sa rémunération. On pourrait croire que la probabilité qu’une clause soit reconnue valide augmente régulièrement avec le taux de rémunération. Or le modèle indique plutôt qu’il y a une valeur critique en dessous de laquelle la clause sera très majoritairement considérée comme non valide, alors que sa validité sera largement acceptée au-dessus de  cette valeur. Qui plus est, la valeur critique n’est pas fixe, mais dépend d’autres critères comme par exemple les étendues géographiques ou temporelles.

A chaque fois qu’un tel effet est mis à jour et quantifié, un travail juridique passionnant peut commencer pour tenter d’expliquer son origine, mesurer son impact, et questionner sa pertinence  et sa contribution au bon fonctionnement du système judiciaire. Prenons un exemple. La modélisation permet, dans de nombreux domaines, de confirmer et de mesurer précisément un« effet plateau ». Nous désignons par là le fait que, dès lors qu’une sanction a été prévue par le législateur et est appliquée par le juge, celui-ci arrêtera sa réflexion lorsqu’il considérera que l’indemnisation aura atteint son but. Ainsi l’effet plateau en matière de rupture brutale de relations commerciales établies fait apparaître que, toutes choses égales par ailleurs, au-delà d’un certain nombre d’années de relation, il n’y aura plus d’augmentation de la durée du préavis donnée par le juge : ce dernier estimera, que dans une espèce donnée,  donner plus de X mois de préavis à la partie indemnisée n’accroîtrait pas ses chances de reconstruire un nouveau modèle, que la relation ait duré dix ou trente ans. Le modèle vérifie que cette hypothèse est bien soutenue par les expériences, et permet de la préciser en quantifiant ses diverses déclinaisons.

Nous avons noté plus haut que, si un modèle peut être utilisé en vue de tester différentes hypothèses, les décisions doivent ensuite être prises par les juristes en tenant compte de tous les facteurs. Il est important de comprendre qu’il en est de même ici : le modèle n’est utile que pour refléter de façon fine et nouvelle la réalité des pratiques judiciaires, à charge pour les juristes d’entreprendre ensuite, le cas échéant, les actions adéquates à la lumière des informations qui ont été apportées. Cet aspect est relié à la problématique de la performativité de la modélisation mathématique en droit, et plus généralement en sciences sociales, que nous n’aborderons pas ici faute de place.

Bibliographie

Liaigre, L. (2020). Communication privée.

Cohen, F. (1935). Transcendental Nonsense and the Functional Approach. Columbia Law Review, 35, 822-842.

Danziger, S., Levav, J., & Avnaim-Pesso, L. (2015). « Qu'a mangé le juge à son petit-déjeuner ? » De l'impact des conditions de travail sur la décision de justice. Les Cahiers de la Justice, 4(4), 579-587.

Frank, J. (1942). If Men Were Angels, Some Aspects of Government in a Democracy. New York: Harper & Brothers.

Gayte Papon de Lameigné, A., Legrand, P., & Lévy Véhel, J. (2020). La modélisation de l’indemnisation du préjudice corporel. Dans Le Big Data et le Droit. Dalloz.

Guastini, R. (2013). Le réalisme juridique redéfini. Revus, 19, 113-129. doi:https://doi.org/10.4000/revus.2511

Schouppe, P. (1987). Le réalisme juridique.  Bruxelles: Story-Scientia.

Troper, M. (2007). Le réalisme et le juge constitutionnel. Cahiers du Conseil Constitutionnel, 22.



[1] Nous entendons « anticipations différentes  » dans un sens large, qui peut inclure par exemple la position du défendeur qui ne consiste qu'à se défendre (sans demande) ou même la position de celui qui décide de se battre sur un autre terrain (i.e. un autre fondement juridique) (Liaigre, 2020)