Comment calculer la valeur d’une vie

Blade Runner (le vieux, le vrai) : test dit de Voight-Kampff. «Vous êtes dans le désert. Vous voyez une tortue couchée sur son dos sous un soleil brûlant. Vous savez qu’elle est en péril mais vous ne pouvez rien faire. Pourquoi ?». En voilà, une question ! Mais Léon ne sait pas répondre : il panique. Pourquoi ? Parce que c’est un robot… Les robots paniquent ? Bon, c’est une fiction. Mais pas n’importe laquelle ! D’abord, c’est l’adaptation d’une super petite nouvelle de Philip K. Dick, Les androïds rêvent-ils de mouton électrique. Mais le test, là, c’est en fait l’adaptation romancée d’un test bien réel, enfin réellement proposé sur papier, par le mathématicien Alan Turing, un des pères de l’informatique moderne. Dans un article très sérieux, pas de la fiction. Le but était de déterminer à quelle condition un homme serait capable de comprendre qu’il a affaire à un ordinateur, et non à un autre homme.

Bref, de l’ordinateur inventé dans les années 1950 à son délire, l’Intelligence artificielle, il n’y a que quelques années. Intelligence artificielle ? Il n’y a pas très longtemps, un robot a fait un vibrant discours à l’ONU, et tout le monde a applaudi. Si on applaudit de la ferraille à l’ONU, c’est que ça ne vole pas haut. La bêtise, pas de problème, un ordinateur sait la simuler : ce n’est pas de l’intelligence, c’est de la bêtise artificielle. Les échecs ? Ce n’est que du calcul stratégique, il n’y a rien à comprendre. Presque. L’intelligence artificielle, une escroquerie ?

Peut-être, mais ça gagne du terrain. Remplacer les médecins par des robots ? Bonjour ! fièvre ? Doliprane ! C’est sûr, si les hommes ont une approche mécanique et irréfléchie de leur santé, un robot peut bien s’en charger ! Les tribunaux ? Depuis deux ans et la réforme de la justice, introduire les robots dans nos tribunaux, c’est le truc tendance. Et puis il y a 10 jours, le premier ministre a signé un décret un peu sordide :

« Publié le 29 mars, le décret signé par le Premier ministre Édouard Philippe et la garde des Sceaux Nicole Belloubet autorise cette dernière «à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel». L’objectif final est la mise en place du système algorithmique nommé «DataJust».

De quoi s’agit-il? Le site officiel du projet le décrit comme la construction d’un «référentiel d’indemnisation des préjudices corporels». En clair, un barème algorithmique destiné à automatiser et normaliser le calcul des sommes auxquelles les victimes peuvent prétendre en cas de litige. (…)

Interrogeant Me Hervé Gerbi, France Bleu Isère pose une question aux accents complotistes mais pas tout à fait anodine pour autant: «Le gouvernement aurait-il anticipé des centaines de recours juridiques des malades du Covid-19?» Selon Me Gerbi, DataJust –qui, c’est à noter, est loin d’être opérationnel– est le fruit d’un intense lobbying de la part des sociétés d’assurance.

«Demain, certains iront demander des comptes pour toutes les questions liées au Covid-19. S’ils aboutissent dans leur procédure, on leur dira ceci: “Décès d’un parent, 9.000 euros!”», déclare ainsi abruptement l’avocat, qui refuse qu’une machine se substitue au juge et conteste l’opacité et le timing de la mise en œuvre de DataJust. »

Pour la version complète de l’article de l’article, c’est là. Hum… Une machine pour calculer la valeur de mes parents… D’un autre côté, quand on dit que la vie n’a pas de prix, c’est joli, mais un enfant perd son père dans un accident du travail, il faut bien qu’on l’indemnise ! Parce que, son père n’a pas de prix, mais il payait : la nourriture, le logement, l’éducation, etc. Qui va payer maintenant ? L’indemnisation est de droit. Mais comment un robot peut-il calculer un truc pareil ! Il ne sait même pas ce que c’est qu’une tortue !

Ce n’est pas bien rassurant, ça, d’être jugé par des machines. Juger, c’est comprendre une situation : ce n’est pas juste rassembler des informations statistiques. Aristote l’a bien dit : la loi est nécessairement injuste, parce qu’elle est générale et est incapable de tenir compte par elle-même des circonstances. Alors une machine, qui ne fait que des calculs statistiques ! « Vous venez de Reims, vous avez donc 75% de chances d’être un looser. Votre dossier scolaire est bon, mais les statistiques de Reims sont mauvaises. Les algorithmes nous déconseillent de vous prendre en post-bac ». Quoi que je fasse ? C’est sans espoir ? Mais c’est … étouffant, ce truc !

Le problème, la philosophe Antoinette Rouvroy le résume bien :

« Les algorithmes pourraient-ils un jour se substituer aux décisions humaines ? Pouvez-vous nous donner des exemples ?

Dans le domaine de la justice, en France, on envisage de fournir aux juges de l’application des peines des algorithmes de recommandations qui, en définissant les risques de récidive, pourront aider le juge à déterminer, par exemple, si un détenu doit être libéré et selon quelles modalités. Dans certains Etats américains, ces logiciels sont déjà utilisés. On me répondra que ces recommandations ne contraindront pas la décision du magistrat. Cependant, si une décision contraire à la recommandation est prise, et que la personne libérée récidive, le magistrat sera en difficulté. En conséquence, la plupart des acteurs auront tendance à se conformer aux consignes des algorithmes qui, de ce fait, acquerront une force normative. (…) L’analyse des big data a en effet permis d’associer ce risque au fait d’habiter telle commune, de fréquenter tel type de supermarché, d’avoir recours à un conseiller conjugal, etc. Si notre mode de vie se rapproche des modèles statistiques de risques (ou profils), la machine nous attribue une cote de défaut plus élevée, même si ces profils sont impersonnels, construits à partir de données recueillies dans des contextes hétérogènes. Ces appariements ne relèvent pas d’une logique causale, ce sont de simples corrélations.

Mais pourquoi faudrait-il s’en inquiéter si l’on gagne en efficacité ? Nous allons vers un changement épistémologique majeur. S’en remettre à ce type de calcul traduit un renoncement aux ambitions de la raison moderne qui liait les phénomènes à leurs causes. Ces ambitions de la raison permettaient d’envisager la prévention, d’agir sur les causes pour changer les effets. Au lieu de cela, on se dirige vers un système de pures corrélations. On ne cherche plus à comprendre l’environnement, on cherche à le prédire. Notre rapport au savoir change, mais aussi notre rapport au monde : on se focalise davantage qu’auparavant sur les risques. Voir et comprendre sont supplantés par détecter et prévenir. On passe d’une civilisation du signe, qui était porteur de sens, à une civilisation du signal, qui est une donnée qui ne signifie rien en soi. C’est donc un changement de paradigme qui transforme la manière dont nous sommes gouvernés. »

« On ne cherche plus à comprendre » : ce n’est plus que de la gestion des affaires courantes… J’aurais bien aimé voir une machine proposer un traitement face à un coronavirus … inconnu il y a 3 mois, et donc imprévisible. D’accord, mais pour la santé courante ? Mais imagine-t-on qu’en cas de péril, on sortira un médecin du chapeau ? Un médecin sans expérience, tous les 15 ans, pour la prochaine épidémie, nous sortira quoi… Que pourra-t-il faire, sans expérience, sans connaissance, sans intelligence profonde d’une situation profondément nouvelle ?

Ça ferait pas un peu fausse route, cette histoire d’intelligence artificielle ? On veut des machines qui nous gèrent, ou des hommes qui nous comprennent ? Allez, pour les plus courageux, allons plus loin avec cet entretien de Hubert Krivine.

Laisser un commentaire