Je ne vous apprends rien en vous disant que l’intelligence artificielle gagne du terrain partout : elle a dépassé l’homme au jeu d’échec ou de go, elle analyse ses traces numériques pour lui proposer des publicités ciblées, elle repère des comportements suspects sur caméra de sécurité, aide au diagnostic médical, conduit une voiture de façon autonome, etc.
Pourtant, une question est souvent éludée dans le récit de ses exploits numériques : comment fait-elle ? (Nicolas Mignerey, le 14 décembre 2017)
(c) GDJ/Wikicommons public domain
On peut bien sûr décrire l’architecture du réseau de neurones artificiels, décrire son fonctionnement qui permet aux ordinateurs d’apprendre des tâches particulières, mais cela n’explique rien.
Cliff Kuang, dans le New York Times Magazine, relate l’aventure du psychologue Michaël Kosinski. Ce chercheur américain s’intéresse aux données personnelles, il a notamment montré que si l’on fournit à un ordinateur 200 « likes » d’une personne sur Facebook, il prédit mieux les réponses de cette personne à un test de personnalité que son propre conjoint ne l’aurait fait.
Il a alors décidé d’aller plus loin, de passer des « likes » aux images, aux visages. Il a ainsi récupéré sur des sites de rencontre les profils publics de plus de 200 000 personnes, et a demandé à un réseau de neurones de trouver des corrélations entre les visages des gens d’une part et les informations de leurs profils d’autre part. Rien de très concluant n’en est sorti… sauf, sauf, l’orientation sexuelle. Grâce à ces données, l’ordinateur était devenu capable de prédire avec plus de 90% de réussite si la photo d’un homme correspondait à celle d’un homosexuel ou d’un hétérosexuel. A ce jeu-là, aucun n’humain n’avait dépassé les 60% de réussite.
La publication de ces résultats lui a attiré les foudres d’associations en tous genres, l’accusant de revenir aux heures sombres de la phrénologie. Michaël Kosinski fut bien en peine de se défendre, et pour cause, il n’avait aucune idée ni même aucun moyen de savoir comment l’ordinateur avait procédé, ce qu’il avait vu que les humains ne savaient voir : était-ce des détails infimes qui lui étaient seul accessible, une façon de regarder très différente de la nôtre ? Impossible à dire.
Quand un programme repère une voiture, c’est parce qu’il a vu des analogies avec des images connues de voitures, mais concrètement, pour l’ordinateur, c’est quoi une voiture ? Quelle représentation s’en fait-il ? 4 roues et un volant, ou toute autre chose ?
Ce que vous nous dites, c’est que les humains savent parler aux machines, mais que les machines ne savent pas parler aux humains ?
Exactement, d’ailleurs Cliff Kuang rappelle que le meilleur compliment que nous faisons à la technologie est d’être magique. Nous sommes fascinés par ces boîtes noires, ultraperformantes mais mystérieuses.
Et pourtant il va falloir s’y mettre.
L’ordinateur n’est pas à l’abri de grossières erreurs d’interprétation. Un exemple célèbre est celui d’un réseau de neurones ayant trouvé que les asthmatiques avaient plus de chance de survivre à une pneumonie que des patients normaux. En fait, c’est parce que lorsqu’une pneumonie était détectée chez un asthmatique il était envoyé illico presto aux urgences avec les meilleurs soins possibles. Les données sont donc biaisées et aboutissent à une absurdité pour l’ordinateur. Imaginez maintenant que ce soit à cet ordinateur de décider qui doit bénéficier de soins renforcés ou non, sur la base de ses seules données, sans expliquer ses conclusions.
Et cette question est cruciale dans beaucoup de domaines. Une analyste de la CIA faisait remarquer dans le même article que si elle devait autoriser une opération dangereuse basée sur les conclusions d’un tel algorithme, elle devait avoir besoin de voir et d’adhérer au raisonnement effectué. La croyance sur parole, même armée de jolis graphiques, ne suffit pas.
Un nouveau domaine scientifique doit donc voir le jour ?
Oui, celui de l’intelligence artificielle explicable. Et vite. Le règlement européen sur la protection des données rentre en vigueur en mai 2018. Les articles 21 et 22 introduisent le principe que les citoyens doivent pouvoir connaitre et comprendre les décisions prises par des ordinateurs les concernant. Si on fait de ces articles une lecture contraignante, voilà qui devrait obliger les Facebooks et les Googles de ce monde, et d’autres, à revoir leurs pratiques et à faire parler le silicone.
Votre commentaire