Publicité

Pourquoi l'intelligence artificielle peut présenter des risques

La Commission européenne s'apprête à détailler ce mercredi ses pistes pour réguler l'intelligence artificielle. En dépit de progrès spectaculaires, les technologies d'IA doivent encore progresser pour de nombreux usages professionnels. Tour d'horizon des défis à venir.

Maîtrisée, l'IA est une formidable opportunité sociétale et économique ; dévoyée, elle représenterait un grand danger.
Maîtrisée, l'IA est une formidable opportunité sociétale et économique ; dévoyée, elle représenterait un grand danger. (Getty Images)

Par Benoît Georges

Publié le 19 févr. 2020 à 09:55Mis à jour le 19 févr. 2020 à 17:44

La Commission européenne va détailler ce mercredi ses pistes pour réguler l'intelligence artificielle (IA) appelée à prendre une part croissante, sinon centrale, dans de nombreux pans de l'économie mondiale. Si elle représente une formidable opportunité sociétale et économique, dévoyée, elle peut s'avérer dangereuse. C'est pourquoi certains secteurs à risque, par exemple dans le domaine de la santé, se verront imposer des contraintes. Revue de détail des défis que doit encore relever l'IA.

Biais dans les données. Depuis une décennie, les progrès spectaculaires de l'intelligence artificielle sont à mettre au crédit d'une technologie en particulier : le « deep learning », ou apprentissage automatique profond. Il repose sur des systèmes que l'on entraîne en leur fournissant un grand nombre d'exemples, des milliers, voire des millions de photos, d'extraits de textes, de chiffres ou de sons selon le cas, jusqu'à ce que la machine arrive au résultat escompté : reconnaître un visage, une phrase, une tendance ou un dialogue.

Mais les données fournies pour cet entraînement peuvent être biaisées , c'est-à-dire insuffisamment équilibrées ou inclusives. Or ces biais vont influencer le résultat : un logiciel de reconnaissance faciale entraîné principalement sur des personnes à la peau blanche fonctionnera mal avec des personnes à la peau noire ; un logiciel de tri des CV peut privilégier certains éléments (noms, adresse…) au détriment d'autres qu'un humain jugerait plus importants, comme le diplôme ou l'expérience professionnelle. D'où la nécessité de mettre au point des systèmes capables de repérer ces biais dès la phase d'entraînement.

Explicabilité. Certains systèmes d'IA obtiennent de très bons résultats, mais la façon dont ils y parviennent est encore très opaque. On les qualifie de « boîtes noires », car on sait mesurer ce qui entre et ce qui sort de la machine, mais pas le mécanisme entre les deux. Or, pouvoir expliquer ce qui se passe est crucial pour de multiples usages, qu'il s'agisse de l'attribution d'un crédit, du diagnostic médical ou de la conduite autonome.

Publicité

Dans son rapport du printemps 2019, le groupe d'experts de haut niveau de la Commission européenne notait que : « Dès qu'un système d'IA a une incidence importante sur la vie des personnes, il devrait être possible d'exiger une explication appropriée du processus de décision. »

Absence de sens commun. Performants pour des tâches simples et répétitives, les systèmes d'IA n'ont en revanche aucune compréhension du monde qui les entoure, ou du contexte dans lequel ils opèrent. Cela entraîne, par exemple, des erreurs de traduction cocasses (pour s'en assurer, il suffit de tester la phrase « mon avocat est immangeable » sur Google Traduction).

Mais cela peut aussi engendrer de graves dérives : après les attentats de Londres en juin 2017, l'algorithme de tarification dynamique d'Uber avait commencé par doubler le tarif des courses dans la zone concernée pour répondre à l'afflux de demandes.

Une solution à cette absence de sens commun peut être de mettre des humains « dans la boucle » des décisions, mais ce n'est pas toujours possible. Une autre approche consiste à définir des seuils de confiance, au-delà desquels une validation de la décision deviendrait obligatoire.

Certification impossible. Pour certaines applications, notamment dans les systèmes critiques (transport aérien, par exemple), les logiciels sont aujourd'hui certifiés, c'est-à-dire que leur fiabilité est mesurée et garantie. L'informatique classique, basée sur des programmes et des règles, le permet. En revanche, ce n'est pas encore possible avec les outils d'intelligence artificielle, dont les résultats varient en fonction des données qui servent à les entraîner. Aujourd'hui, aucun pilote automatique d'avion ne repose sur des outils d'intelligence artificielle et on imagine mal que les voitures autonomes soient autorisées à grande échelle sans aucune certification.

Dans leur rapport de 2019, les experts de l'Union européenne appelaient de leurs voeux la mise en place de ces certifications, qui « appliqueraient des normes définies pour différents domaines d'application et techniques d'IA, dûment alignées sur les normes industrielles et sociétales des différents contextes. »

VIDEO. IA : et si les machines se programmaient seules ?

Benoît Georges 

MicrosoftTeams-image.png

Nouveau : découvrez nos offres Premium !

Vos responsabilités exigent une attention fine aux événements et rapports de force qui régissent notre monde. Vous avez besoin d’anticiper les grandes tendances pour reconnaitre, au bon moment, les opportunités à saisir et les risques à prévenir.C’est précisément la promesse de nos offres PREMIUM : vous fournir des analyses exclusives et des outils de veille sectorielle pour prendre des décisions éclairées, identifier les signaux faibles et appuyer vos partis pris. N'attendez plus, les décisions les plus déterminantes pour vos succès 2024 se prennent maintenant !
Je découvre les offres

Nos Vidéos

xqk50pr-O.jpg

Crise de l’immobilier, climat : la maison individuelle a-t-elle encore un avenir ?

x0xfrvz-O.jpg

Autoroutes : pourquoi le prix des péages augmente ? (et ce n’est pas près de s’arrêter)

qfkr8v3-O.jpg

La baisse de la natalité est-elle vraiment un problème ?

Publicité