Qui sommes-nous ?

Métiers & Expertises

Enjeux & Solutions

Blog & Actualités

Nos publications

Contactez-nous

Encadrement réglementaire de l’IA : contexte et enjeux

Encadrement réglementaire de l’IA : contexte et enjeux

La transformation digitale est aujourd’hui présente dans tous les secteurs d’activité. Le développement et l’exploitation de l’IA constituent une étape supplémentaire dans l’évolution technologique. Zoom sur l’encadrement réglementaire et les enjeux autour de l’Intelligence Artificielle.

Quel contexte ?

Les prémisses : le test de Turing

L’Intelligence Artificielle (IA), dans son acception actuelle, trouve son point de départ dans les années 1950 avec les travaux d’Alan Turing, qui se demande si une machine peut « penser ». Dans cette démarche, ce chercheur a mis au point un outil de mesure de l’intelligence de la machine, dit test de Turing. Concrètement, une personne communique en parallèle avec une autre personne et une machine sur une longue durée, sans contact visuel ou auditif, par exemple via un programme de chat.

Si, après la conversation, le testeur ne peut pas dire avec certitude lequel des interlocuteurs est humain et lequel est une machine, la machine a réussi le test et peut être considérée comme intelligente. Le sociologue américain Hugh G. Loebner a décerné un prix de 100 000 dollars en 1991 pour un programme informatique ayant réussi le test de Turing et ainsi dupé un jury d’experts. En 2015, le film Ex Machina défrayait la chronique en proposant une lecture imagée de ce test.

 

Des technologies de plus en plus performantes

Le domaine de recherche « Intelligence Artificielle » tente de simuler la perception et l’action humaines en utilisant des machines.  Le développement croissant des technologies informatiques entre autres par la puissance de calcul et des techniques algorithmiques (notamment l’apprentissage profond ou deep-learning) ont permis la réalisation de programmes informatiques surpassant l’homme dans certaines de ses capacités cognitives les plus emblématiques.

Certains industriels de l’informatique ont contribué à la médiatisation des capacités cognitives de leurs systèmes d’Intelligence Artificielle. Par exemple, dans le cadre d’opérations de marketing, à l’image d’IBM avec les six parties d’échecs jouées dans les années 1990 entre le super-ordinateur Deep Blue et Garry Kasparov, champion du monde de l’époque.

 

IA, de quoi parle-t-on ?

On peut considérer différents dispositifs intervenant, ensemble ou séparément, dans un système d’Intelligence Artificielle tels que :

  • le raisonnement automatique
  • l’apprentissage automatique
  • l’intégration automatique d’informations provenant de sources hétérogènes

 

Un calque de l’humain ?

La reproduction partielle des capacités cognitives de l’être humain permet l’optimisation des données numériques présentes dans les grandes bases de données de certaines entreprises. Ainsi, un algorithme entraîné pour cela peut apprendre des données qu’il manipule, et en tirer de nouvelles informations.

Cependant, les émotions ne peuvent jamais être séparées de la cognition humaine. L’intelligence est avant tout émotionnelle, communicative, sociale, physique, et par nature adossée à la conscience. Ce qu’une machine ne pourra jamais avoir.

 

Une intelligence limitée

Cette intelligence artificielle, considérée par les spécialistes, comme étant encore de faible niveau, comparée aux performances du cerveau humain, n’en a pas moins pour avantage de permettre à un système de créer des nouvelles informations, donc de la valeur ajoutée, de manière automatisée, et en continu, via des algorithmes.

Le recours de plus en plus important à ces algorithmes, par des entités publiques et privées, pose des questions morales et éthiques fondamentales. Peut-on laisser une machine prendre une décision affectant un humain ? La compréhension de fonctionnement d’un algorithme est-elle possible lorsque la machine est auto-apprenante (machine learning) ? En cas d’impacts négatifs illicites causés par un algorithme sur des humains, quelle responsabilité faire jouer : celle du créateur de l’algorithme ou de la personne morale gérant l’IA ?

 

Des enjeux philosophiques et sociaux

Le cas Parcoursup

Ces enjeux philosophiques, et donc sociaux, majeurs doivent être encadrés pour éviter toute dérive dans l’emploi public et privé d’algorithmes d’IA. Le cas de Parcoursup est significatif des effets négatifs que peuvent avoir des algorithmes sur un nombre important d’humains, en termes de décisions incohérentes, mais aussi d’influence discutable que peuvent avoir des programmeurs sur le législateur.

En effet, certaines remarques des chercheurs en informatique ayant créé l’algorithme sur lequel s’adosse Parcoursup ont poussé le législateur à modifier des règles de la loi ORE relatives au taux maximal de non-résidents et au taux minimal de boursiers dans les décisions d’affectation. Est-il acceptable qu’un législateur doive revoir sa copie du fait d’impératifs technologiques ?

 

Les biais au centre des débats

Afin d’éviter les biais et effets pervers de la ruée actuelle vers l’IA, des dispositions réglementaires nationales et européennes commencent à être adoptées depuis ces dernières quatre années.

Elles feront l’objet d’une analyse dans un deuxième article à venir. Un troisième article sera ensuite consacré à une chronologie complète. Il abordera la question de l’IA et des défis humains qu’elle soulève.

Vous souhaitez nous contacter ?

Besoin d'une information sur nos solutions ? Envie de nous rejoindre ?
L'équipe Ellisphere est là pour répondre à vos questions.

Nous contacter

Entrez en contact avec l'équipe Ellisphere

Écrivez-nous

Charte transparence

Vous souhaitez connaître le score de votre entreprise ?

Votre score

Newsletter

Découvrez les derniers articles de notre blog

Abonnez-vous