par Guillaume Montagu
10 novembre 2016

L'émergence des questions éthiques qui caractérisait le SXSW 2016 trouve sa continuité ici, au Web Summit. Comme une lame de fond, les perspectives d'un recours massif et dans tous les domaines à l'intelligence artificielle (IA) cristallisent des préoccupations sur le devenir de l'humanité en tant qu'espèce.
Dans le meilleur des cas, les machines intelligentes coexisteront avec nous façon Wall-e, travailleront à notre place et en plus elles seront sympas... ou presque. « I promise I would be nice… mostly ! », dixit avec un sourire goguenard, Sophia l’humanoïde d'Hanson Robotics devant l'assistance médusée venu l'écouter à la MEO Arena.
Et pour le pire ? Terminator, Matrix. Les machines deviendront hors de contrôle, prendront le pouvoir et nous élimineront.
Qu'ils nous fascinent ou nous fassent peur, les progrès de l'IA interrogent. En voulant copier le fonctionnement du cerveau humain, sommes-nous vraiment en train de fabriquer des machines qui nous ressemblent et avec lesquelles nous pourrions vivre ?

Point de magie
Indéniablement, les perspectives d’évolution et d’application de l’IA brouillent la frontière entre les humains et les machines. Roman Yampolskiy, professeur à l'université de Louisville, spécialiste de l'IA, rappelle que ce qui était inenvisageable il y a encore 15 ans est devenu réalité : voitures autonomes, humanoïdes pouvant tenir une discussion, systèmes capables de diagnostiquer des cancers ou de reconnaître des races de chien avec moins d'erreurs que ne le ferait un être humain. Les machines peuvent de plus en plus se substituer aux humains dans des tâches toujours plus nombreuses, plus complexes et créatives. Yampolskiy insiste : « Nous n'avons pas de précédent historique d'outils créant leurs propres outils ». À tel point qu'il est difficile d'envisager le potentiel réel de l'IA et ses limites.

Sophia, pas contente

Sophia, pas contente

Rien de magique pourtant. Comme le rappelle Zachary Bogue du VC Data Collective, l'IA n'est ni plus ni moins que des mathématiques et des algorithmes avec des applications concrètes et spécifiques. Cependant dans la pratique elle recèle de nombreux mystères. AlphaGo dans sa partie contre Lee Sedol a joué de nombreux coups inattendus, mais efficaces, lui assurant in fine la victoire. Mais connaître les mathématiques sous-jacentes et les algorithmes implémentés ne permet pas, ni de comprendre, ni de prévoir les décisions du système.

Le premier acteur rationnel ?
Or, tout le comportement humain n’est pas modélisable mathématiquement car tout le comportement des individus n'est pas purement logique. Les actions et les décisions humaines ne sont pas dirigées que par des calculs. Et quand ils calculent, les individus le font sur la base de croyances, de présupposés et de conventions sociales qui n'ont rien de rationnel. Construire une IA sur les seules mathématiques revient en fait à inventer une intelligence purement logique sans précédent dans l'histoire et sans grand rapport avec la manière dont nous – les êtres humains – fonctionnons. D'ailleurs, peut-être est-ce cette rationalité qui nous fait si peur chez les robots

Finalement, peut-être que l’ensemble de nos tâches et de nos métiers seront plus efficacement accomplis par des IA agissant sous l’empire des seules mathématiques. Mais les individus ne sont toujours pas rationnels et ne sont pas prêt de changer. Les entreprises gagneraient à le comprendre plus profondément avant de ne plus compter que des robots pour salariés et pour clients. Et si explorer "l'irrationalité" des humains nous permettait de comprendre comment rendre les robots acceptables ?

Comment