Depuis que l'intelligence artificielle et plus généralement la modélisation mathématique ont atteint une puissance telle qu'elles ont une influence considérable sur les affaires humaines, garantir des applications éthiques est devenu une nécessité.

Malheureusement, il est en général malaisé de distinguer la voie à adopter pour s'assurer de faire des choix vertueux, même lorsque l'on s'arme des meilleures intentions du monde. Ce qui semblera éthique à certains apparaîtra inacceptable à d'autres, et réciproquement. Un exemple célèbre et extrême concerne en particulier les voitures autonomes.

C'est pourquoi, sauf exception, nous nous contenterons de poser des questions, étant persuadés que ce n'est pas à nous, Case Law Analytics, d'apporter des réponses, mais à la communauté des juristes, et même parfois à la société dans son ensemble.

Étant une entreprise à la jonction du droit et des mathématiques, nous nous interrogeons en permanence sur l'impact de tel ou tel choix dans le développement de nos outils. Nous avons la chance de pouvoir bénéficier des conseils d'un réseau de magistrats, avocats, universitaires et autres juristes expérimentés. Toutefois, il nous est apparu que solliciter l'avis du plus grand nombre, à travers notre newsletter, enrichirait nos réflexions et guiderait peut-être nos décisions plus sûrement. C'est pourquoi nous vous proposons à partir de ce numéro de nous faire part de vos réponses sur diverses questions éthiques que nous rencontrons quotidiennement.

Pour aujourd'hui, nous prenons comme point de départ le remarquable article "Algorithmes et droit pénal : quel avenir ?", écrit par Elise Berlinski, Imane Bello et Arthur Gaudron. Sans rentrer dans les détails, ce travail met en évidence la distinction entre "sujet réel", soit la personne concernée par une enquête ou un jugement, et "sujet numérique", qui en est la représentation construite par des algorithmes d'apprentissage automatique. Suivant le type d'algorithme utilisé, les données récoltées sur le sujet réel et celles qui ont servi à entraîner l'algorithme, les caractéristiques du sujet numérique apparaissent comme une amplification, une hiérarchisation, ou encore une reconstruction déterministe de celles du sujet réel. Ces transformations sont nécessaires au fonctionnement du modèle, mais constituent des prismes d'observation qui sont autant de biais. L'intérêt d'une telle distinction (qui n'est qu'une partie du riche article en question) est qu'elle fournit un outil opérationnel et puissant pour analyser ces biais.

Il est incontestable que prendre conscience des prismes à travers lesquels procèdent les algorithmes est crucial. Trop de gens pourraient avoir tendance à prendre pour vérité un résultat pourvu que celui-ci sorte d'une machine. Toutefois, un aspect semble assez systématiquement occulté. Pointer les limites des seuls algorithmes ne rend compte que de la moitié de la réalité : il semble tout aussi incontestable que les humains, et en particulier les juges, sont eux aussi soumis à des biais. Alors que ceux d'une intelligence artificielle peuvent être exposés, pourvu que l'on soit assez rigoureux, en examinant soigneusement les codes et surtout en répétant les expériences à l'infini (la machine ne se fatigue jamais), il est bien plus difficile d'étudier et d'évaluer les biais humains, qui dépendent de l'histoire et de la personnalité de chacun et ne sont pas reproductibles à volonté.

Et vous, que pensez-vous de cette distinction entre biais algorithmique et biais humain ?

Donnez-nous votre avis sur notre page LinkedIn.

Crédit photo : Photo by Adrien Olichon on Unsplash