Do not follow this hidden link or you will be blocked from this website !

Dans le même numéro

Outils prédictifs : contresens et dérives

février 2017

#Divers

Depuis une vingtaine d’années, dans une majorité d’États américains, les condamnations pénales sont déterminées en s’appuyant sur des logiciels qui, sur des bases « scientifiques », proposent de condamner, pour un crime donné, davantage les Noirs que les Blancs, les hommes que les femmes et les célibataires que les mariés. De telles pratiques, dont on peut débattre, ne sont propres ni aux États-Unis, ni au système judiciaire. De fait, dans tous les champs économiques et sociaux, l’analyse prédictive refond subrepticement et exacerbe douloureusement, d’une part, les antagonismes entre individu et société, entre efficacité et justice, entre responsabilité et solidarité, et d’autre part, les tensions entre arbitraire et objectivité, entre décision et neutralité. Quels en sont les fondements, les enjeux sociétaux, la légitimité et les contresens, les opportunités et les dérives ?

Efficacité collective vs justice individuelle

Il y a un peu plus d’un siècle, la physique était bouleversée par la mécanique quantique. Le hasard et le prévisible devenaient désormais entrelacés : prévisibilité collective, mais hasard individuel. Pour les physiciens de l’époque, ce fut difficile à accepter – « Dieu ne joue pas aux dés », affirma Einstein. Et, aujourd’hui encore, cela reste difficile à interpréter. Avec les big data, les algorithmes et l’analyse prédictive individualisée, notre société est aujourd’hui confrontée à un bouleversement similaire : prévisibilité collective, mais hasard individuel.

Un État américain et ses juges, confrontés à des phénomènes de récidive, « savent » que, parmi les mille inculpés non diplômés, pauvres, jeunes et sans enfants dont ils doivent fixer la peine, la moitié récidivera ; mais que, parmi les cent inculpés diplômés, aisés, d’âge moyen et pères de famille qui leur sont déférés, seuls 20 % récidiveront. Du point de vue de la société, ces données agrégées sont déterministes et on peut considérer comme socialement efficace, dans un contexte de surpopulation carcérale, de condamner moins lourdement la seconde catégorie de population. Si les données sont aujourd’hui considérées comme le nouvel or noir, c’est donc à juste titre : les données permettent effectivement aux entreprises et aux sociétés d’affiner la connaissance de la masse des individus auxquels elles sont confrontées. Ces technologies sont donc bien prédictives.

Les données offrent ainsi la clé du comportement futur des clients, des citoyens ou des justiciables : leur utilisation permet d’orienter les investissements publics et privés et de gagner en efficacité économique et sociale. Pour le plus grand bonheur de tous, par exemple, celui de cet assuré qui bénéficie d’un tarif et d’un service personnalisé, adapté à son risque, à son état de santé et à son style de vie. C’est déjà le cas en Afrique du Sud, par exemple, où l’assureur santé Discovery connaît un développement foudroyant en adaptant le tarif de chacun et les conseils prodigués en fonction des données d’activité fournies par un bracelet connecté et des données d’alimentation fournies par les cartes de fidélité des supermarchés.

Cette capacité prédictive est fascinante. Elle nous éblouit et nous aveugle. Elle nous fait oublier que ces technologies ne sont pas prédictives. Du moins pas si on considère le point de vue de l’individu, du consommateur ou du justiciable. Comme celui de la particule quantique, le comportement de chaque individu reste fondamentalement aléatoire. Mon voisin récidivera ou non, selon qu’il aura trouvé ou non un Cdd et que le vigile aura ou non la tête tournée au moment opportun. J’aurai un cancer ou non, en fonction de mille paramètres encore inconnus. Du point de vue de l’individu, ces technologies ne sont donc pas prédictives.

Et ainsi, paradoxalement, ces outils ne permettent pas une approche personnalisée. Au contraire, les technologies statistiques sont la négation même de l’individu, ici réduit à une case : Blanc, Col bleu, 50 ans, au chômage…, individu anonyme placé à l’intersection de ces caractéristiques, votre taux de récidive est de x %. Vous n’êtes plus une personne douée de volonté, vivant dans un contexte, doté d’une identité propre (« ipséité »), humain interagissant avec une société humaine et un juge humain : vous êtes un grain statistique lisse, délimité, pesé, calibré, à l’avenir pesé par un logiciel.

Deux objectifs légitimes pour une société, l’efficacité et la justice, deviennent ainsi frontalement antagonistes. Alléger les peines de ceux dont la société sait, ayant fait des catégories homogènes, qu’ils récidiveront moins, c’est indubitablement faire preuve d’efficacité. Mais pour l’individu dont le futur n’est pas écrit, c’est faire preuve d’injustice. La prévisibilité collective permet l’efficacité, son application au hasard individuel est injuste.

Le mythe de la neutralité objective

Si les résultats des nouvelles technologies statistiques sont tant valorisés, c’est également en raison des méthodes sous-jacentes : combinaisons d’algorithmes et de mesures, elles seraient neutres et objectives, mettant ainsi à distance notre arbitraire et nos préjugés. Las, sous les oripeaux de pureté scientifique, le squelette est humain et la chair non dépourvue de sanie.

Le squelette, ce serait l’algorithme. Un algorithme qui, en dépit des apparences de neutralité, forge le paysage dans lequel nous évoluons et a donc un impact direct sur nos comportements et notre société. Prenons pour exemple des algorithmes auxquels nos sociétés ont été confrontées bien avant l’arrivée de l’informatique : ceux qui régissent les élections dans nos démocraties. Choisir un mode de scrutin, c’est choisir un algorithme permettant d’agréger les préférences individuelles des citoyens pour faire émerger une préférence collective. Loin d’être neutres, ces algorithmes déterminent dans une large mesure le paysage politique qui s’offre à nous : un scrutin uninominal majoritaire à un tour, comme aux États-Unis, favorise le bipartisme ; un scrutin proportionnel, comme en Israël, favorise le multipartisme. Les algorithmes façonnent donc le monde dans lequel nous évoluons et sont donc tout sauf neutres sur nos comportements. Qui plus est, ils véhiculent des valeurs. Ainsi, Google et ses rankings valorisent la recherche d’informations et de conseils, là où Twitter et ses tweets valorisent l’autorité descendante et où Facebook et ses likes valorisent le plébiscite.

Le choix de l’algorithme ne relève donc pas, en dépit des apparences, d’une dimension technique, mais d’une vision et d’une ambition sociétale. Abandonner ce choix à des informaticiens, croire en une optimalité mathématique et leur déléguer le soin de l’atteindre, c’est donc abdiquer, par inconscience ou par facilité, nos choix de société. En pratique, ces experts informaticiens sont également inconscients de la dimension politique de leurs choix techniques. Il ne s’agit donc pas d’une délégation de pouvoir à des experts, mais d’une volatilisation de ce pouvoir : le choix du cap est transféré du pilote à un barreur aveugle, vers le hasard. En d’autres termes, ce que le recours à ces outils fait disparaître, ce n’est pas l’arbitraire, mais l’arbitrage.

La chair ensuite, ce sont les données qui nourrissent et désormais animent les algorithmes. De fait, ces algorithmes évoluent pour progresser sans cesse en prenant en compte le retour utilisateur. Ils s’adaptent en permanence, et c’est là que la vertu se transforme en vice : ils incorporent les préjugés.

Pourquoi, pendant un temps, lorsqu’un internaute tapait « Juif » sur Google, se voyait-il proposer comme suggestion de recherche « Juif riche » ou bien « Juif nez crochu » ? L’algorithme n’était pas antisémite en lui-même, mais il était nourri, en permanence, par les recherches racistes qui lui avaient été demandées. Il était conçu, intelligemment, pour s’adapter bêtement. De même, les systèmes de vidéosurveillance sont équipés de logiciels qui analysent des paramètres tels que les mouvements ou la température corporelle. Ces logiciels s’optimisent en permanence : ils apprennent des réactions des surveillants, reconnaissant les régularités. Ici encore, si le surveillant est raciste, le logiciel le deviendra progressivement et lui proposera de plus en plus de zoomer sur la population cible a priori. Ainsi, les technologies d’analyse statistique, parées des atours de la science, absorbent la subjectivité des humains pour la mettre à disposition sur le présentoir de l’objectivité quantitative.

Choisir ou subir

Les progrès techniques et scientifiques qui permettent d’acquérir et de traiter toujours plus d’informations sont porteurs de promesses et de fantasmes : leur objectivité est fondée, mais partielle et partiale ; leur efficacité est tangible, mais dangereuse. Ils font écho à des questionnements anciens : l’expert a-t-il une conscience et une légitimité politique ? Les statistiques engendrent l’efficacité et les préjugés, l’injustice : comment prendre en compte ce Janus dans la décision ? Ou placer la frontière entre demande d’objectivité et besoin d’arbitrage ?

Refuser de poser ces questions, d’en débattre et d’en proposer un cadre, ce n’est pas confier avec espérance nos destinées individuelles et collectives au flot du progrès, mais c’est faire acte de démission, en les abandonnant, ballottées, potentiellement broyées, à un ressac aveugle.