Humains : 3 principes éthiques pour un développement responsable de l’IA
Dans quel monde allons-nous vivre, un monde d’assistants ou un monde de loisirs ? Les progrès à venir en matière d’intelligence artificielle vont ils nous permettre de vivre dans un monde meilleur, de connaissances et de savoirs partagés, ou est-ce au contraire l’évolution de l’IA qui va d’elle-même allouer aux « meilleurs » d’entre nous une tâche d’assistant afin d’optimiser ses propres mutations au service de ses propres ambitions ?
Pour mémoire, les 100 premières startups US concernées par l’IA ont levé 3,8 Md$ de fonds agrégés, représentants plus de 263 transactions depuis 2012, dans des secteurs et industries aussi diverses que les services financiers, le transport ou encore la santé.
De son côté, le programme de recherche en IA de Google Brain a franchi un grand cap en parvenant à faire communiquer deux IA nommées Alice et Bob entre elles, alors que de son côté, une troisième IA du nom d’Eve avait pour but d’intercepter leurs communications. Sans qu’aucun algorithme spécifique n’ait été mis en place, les chercheurs ont constaté que ces deux ordinateurs ont sécurisé leurs communications par le biais d’un chiffrement qu’ils avaient eux-mêmes développé. Si la troisième IA est parvenue à intercepter certaines communications, la majorité d’entre elles sont restées indéchiffrables. Cela donne une idée du futur des IA qui pourront ainsi être capables de communiquer dans un langage unique que personne d’autre ne pourra déchiffrer.
Mais quel est ce reflex pavlovien de ces machines qui mise en relation l’une avec l’autre se mettent à converser en mode privé ?
Ce n’est pas nécessairement un reflex pavlovien, mais tout simplement que des IA développées par d’autres IA sont plus évoluées que celles mises au point par l’homme… et qu’il en serait visiblement de même en termes de communication !
Ces IA intègrent des réseaux neuronaux dirigés par des logiciels dont le but est d’apprendre de manière autonome en assimilant des données en grande quantité. Différentes équipes de chercheurs explorent une nouvelle approche consistant à développer une IA capable de développer des logiciels et ainsi apprendre à d’autres IA. Chez Google Brain, un dossier explique qu’on a par ce biais développé un système de reconnaissance d’images plus performant que ceux élaborés par des humains. Des résultats similaires ont été observés par le MIT, l’Université de Berkeley, l’institut OpenAI ou encore DeepMind.
Ainsi, le learning machine automatisé émerge et ses promesses sont nombreuses. Les experts en IA sont très demandés, à tel point qu’ils ne sont plus assez nombreux. Avec ce nouveau système, ce problème logistique serait donc réglé. Selon un document publié par DeepMind fin 2016, les IA entraînées par d’autres IA apprennent mieux et plus rapidement que celles mises au point par les humains. Cependant, il en existe bien un défaut : pour obtenir de bons résultats, les chercheurs ont été contraints de mettre au point un système neuronal composé de 800 cartes graphiques surpuissantes : la question du financement se pose donc logiquement face à la puissance de calcul nécessaire.
Le choix consiste donc à trancher entre laisser les IA se développer seul au moyen d’une consommation en ressources par ailleurs déjà limitée ou les brider en temps et en moyens ?
Pas nécessairement car l'IA pourrait améliorer les capacités des travailleurs humains et non les remplacer. Lors d’un panel de discussion sur le Forum économique mondial de Davos, tenu du 17 au 20 janvier2017, les dirigeants de Microsoft et d’IBM ont exprimé clairement leur point de vue sur le rôle de ces technologies faisant notamment appel à l'apprentissage machine.
Ils ont en particulier présenté 3 principes éthiques pour un développement responsable de l’IA, un peu à la manière des trois lois de la robotique d’Asimov. Ces principes visent à limiter les dégâts que pourrait causer la mise en œuvre des technologies d’intelligence artificielle.
1. L’humain d’abord : ce ne sera pas l’homme ou la machine, nous devons augmenter les capacités de l'utilisateur et être au service de ce que font les humains.
2. La transparence machine : si quelqu’un utilise un système, il faut lui dire qu’il s’agit d’intelligence artificielle et lui indiquer comment l'outil a été entraîné, des points de vue de l’expertise initiale, des données de provenance et leur contrôle continu.
3. La maintenance humaine exclusive : s’assurer que les humains ont les compétences pour travailler avec les nouvelles technologies cognitives.
Jusqu'où s'étend la responsabilité humaine reste une question ouverte
Toutefois, savoir jusqu’où s’étend la responsabilité humaine dans cette industrie reste une question ouverte, car « Comment prendre en compte la responsabilité sur des décisions que prennent des algorithmes dans un monde où les algorithmes ne sont pas écrits par vous, mais qu'ils fonctionnent par apprentissage ? ». Et dans le cas contraire, « A quelle boîte noire allons-nous nous fier ? Quel est le cadre juridique et éthique capable de gouverner la boîte noire ? Qui en est responsable ? C’est notre responsabilité, en tant que leaders produisant ces technologies, de guider leur entrée dans le monde d’une manière sûre », ont-ils souligné à Davos, en présentant le consortium « Partnership on AI », créé en septembre par IBM et Microsoft avec Amazon, Google et Facebook. L’industrie IT cherche donc à prendre les devants dans ce domaine.
D’autres secteurs d'activité ont aussi commencé à se préoccuper des bouleversements que l'IA va entraîner dans leurs rangs. En France, par exemple, dans le secteur de la banque de détail, la mise en place par certains établissements d'applications faisant appel à des technologies d'apprentissage machine pour pouvoir à terme transformer les conseillers clientèle en experts. Sur le terrain de la robotique, les juristes de l'Union européenne planchent en ce moment sur l'intérêt de conférer aux robots un statut de « personne électronique » pour mieux établir les responsabilités et régler les différends.
En attendant, peut être finalement le revenu universel serait-il surtout un moyen de se prémunir contre l’avènement d’un revenu artificiel alloué par des intelligences non humaines.
Et comme seules les très grandes entreprises technologiques semblent être actuellement en mesure de rendre les lignes de ces évolutions lisibles, il paraît en effet plus que souhaitable de mettre en œuvre un système de contrôle indépendant des parties prenantes, faute de quoi certains intervenants finiront par à jouer tout à la fois les partitions de l’ouvrier, du contremaître, de l’ingénieur et du concepteur dans un domaine qui dispose d’une envergure planétaire.