Voici une définition simple de l’intelligence artificielle ou IA : c’est une constellation de technologies capable de donner aux machines les capacités de percevoir, comprendre, agir et apprendre afin d’augmenter les capacités humaines.
« Ce sera l’IA ou et moi »
Cette expression, titre d’un des livres de Cécile Dejoux, influenceuse dans le domaine de l’IA, cadre bien ce que devrait être l’Intelligence Artificielle dans notre société : un outil ou un assistant au service de l’être humain. Sans aborder les conséquences potentielles sur l’emploi de l’immixtion de l’IA dans le domaine professionnel, nous devons aborder sans relâche les enjeux éthiques liés aux risques et aux craintes que cette technologie peut générer.
IA plus ?
De nombreux articles des années 2016-2018 mettaient en évidence les risques que pouvaient faire peser à terme l’arrivée de l’IA dans l’entreprise : on parlait “à l’époque” du danger des “algorithmes”, c’est-à-dire des programmes qui pourraient devenir menaçants pour nos sociétés! Cet engouement et cette frénésie sont assez vite retombés, car la mise en place de l’IA s’avère plus complexe et coûteuse que prévu. Par exemple, l’apparition des bots (robots conversationnels) sur de nombreux sites Internet a rapidement montré leurs limites, notamment dans leur gestion simpliste du contexte des échanges humains.
IA complexe et coûteuse
L’IA est aujourd’hui avant tout un ensemble de techniques logicielles, mathématiques et statistiques très complexes à mettre en œuvre notamment par l’utilisation du Machine ou Deep Learning, c’est-à-dire un apprentissage basé sur un jeu de données extrêmement étendu.
Ces techniques extrêmement sophistiquées et donc onéreuses sont pour l’instant l’apanage des grandes entreprises du numérique, des GAFAM (Google, Apple, Facebook, Amazon, Microsoft), et aussi des start-up ou licornes qui les alimentent en innovations.
Éthique en IA
Les problématiques d’éthiques sont apparues très tôt dans les préoccupations des entreprises et de leurs clients qui pouvaient, à juste titre, redouter une IA incontrôlable comme l’ont fantasmé de nombreux livres et films. Contrairement à l’informatique classique dont les résultats sont visés à l’avance par ses développeurs (hormis les bugs…), l’IA met en œuvre des processus dont les résultats ne sont pas obligatoirement prévus par l’être humain. D’où la nécessité de mettre en place des processus qui garantissent le contrôle permanent des résultats et des décisions laissés à l’IA.
La commission européenne et la plupart des entreprises du numérique ont assez vite mis en place des livres blancs ou des codes éthiques censés encadrer ces pratiques. La CNIL (Commission Nationale pour l’Informatique et les Libertés) a établi deux principes simples sur le sujet.
La CNIL met en avant l’affirmation de deux principes fondateurs : loyauté et vigilance
Dans les principes énoncés, c’est l’utilisateur qui prime.
Ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique, des droits-système organisant la gouvernance mondiale de notre univers numérique.
Ces débats ont permis de dégager deux principes fondateurs pour une intelligence artificielle au service de l’homme :
- principe de loyauté applicable à tous les algorithmes : tout algorithme, qu’il traite ou non des données personnelles, doit être loyal envers ses utilisateurs qui doivent être considérés comme des citoyens. Son impact et son niveau de responsabilité doivent être clairement délimités et ce, dans le respect de la vie privée et de la protection des données
- principe de vigilance et réflexivité : du fait de leur nature imprévisible inhérente entre autres au Machine Learning, les structures en charge de ces systèmes doivent pouvoir se donner les moyens d’expliquer les résultats obtenus, dans une démarche transparente et compréhensible