Cet article vous est offert
Pour lire gratuitement cet article réservé aux abonnés, connectez-vous
Vous n'êtes pas inscrit sur Le Monde ?

Un rapport alerte sur les risques d’utilisation malveillante de l’intelligence artificielle

Vingt-six experts évoquent la facilitation de la manipulation des élections, l’accentuation de la cybercriminalité ou l’utilisation de drones à des fins terroristes.

Par  (avec AFP)

Publié le 21 février 2018 à 01h57, modifié le 22 février 2018 à 06h37

Temps de Lecture 3 min.

« Il est clair que l’IA [intelligence artificielle] aura une place importante dans les questions de sécurité de demain, que les possibilités d’usage malveillant sont nombreuses, et que nous pouvons et devons faire plus. » Le rapport, publié mardi 20 février par vingt-six spécialistes de l’IA, a de quoi inquiéter. Exemples concrets à l’appui, ces experts issus du monde universitaire (Yale, Stanford, Cambridge, Oxford), mais aussi d’organisations non gouvernementales (ONG), comme l’Electronic Frontier Foundation ou Open AI, alertent sur les dangers potentiels représentés par ces technologies, si elles étaient placées entre de mauvaises mains.

« Nous ne nous sommes concentrés que sur les technologies d’IA qui existent (ou du moins au stade de la recherche ou de prototypes) ou qui sont plausibles dans les cinq prochaines années », précisent les auteurs de ce rapport d’une centaine de pages. Selon eux, la sécurité des personnes est en jeu, mais aussi la cybersécurité et l’équilibre politique. Dans ces trois domaines, « les attaques qui seront permises par l’utilisation croissante de l’IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer ».

Scénarios catastrophes

Le rapport s’intéresse dans un premier temps à la façon dont des terroristes, par exemple, pourraient détourner ces technologies, « comme utiliser des drones ou des véhicules autonomes pour transporter des explosifs et causer des accidents ». De plus, l’IA pourrait « réduire l’expertise nécessaire pour mener certains types d’attaque », peut-on lire dans le document, qui évoque par exemple des systèmes permettant de se passer de tireurs d’élite.

Les auteurs imaginent plusieurs scénarios catastrophes. Dans l’un d’eux, un robot censé faire le ménage s’introduit dans un ministère, au milieu d’autres machines du même modèle. Quand le ministre passe à proximité, le robot déclenche une charge explosive.

Autre danger envisagé : l’utilisation de programmes d’IA dans un but politique. Le rapport évoque les technologies déjà capables de fabriquer des vidéos et des sons, permettant, par exemple, de faire dire n’importe quoi à une personnalité politique. Il craint aussi « des campagnes de désinformation automatisées et hautement personnalisées », concevant des messages sur mesure envoyés aux internautes dans le but d’influencer leur vote.

Les auteurs imaginent également des campagnes d’envoi massif et automatisé d’informations, « fausses ou distrayantes », ayant pour unique but de créer du « bruit » et de noyer les informations de qualité. Ils mettent aussi en garde contre les abus des Etats à l’encontre de leurs propres citoyens, avec « l’usage de systèmes automatisés de surveillance pour supprimer toute dissidence ».

Enfin, le rapport s’intéresse à l’épineuse question de la cybersécurité, déjà affectée par l’IA. Celle-ci pourrait être utilisée davantage à l’avenir pour « automatiser la découverte de failles » et « pour améliorer le choix des cibles, éviter la détection et répondre avec créativité aux changements dans le comportement des cibles ».

Cela pourrait aussi concerner les techniques de « phishing », qui consistent par exemple à envoyer un courriel venant prétendument d’un proche, d’une entreprise ou d’une administration, dans le but de pousser l’utilisateur à fournir des informations, comme ses données bancaires.

Des programmes d’IA pourraient améliorer ce type d’escroquerie, en exploitant les données publiques mises en ligne par les internautes, « pour générer automatiquement des sites, des e-mails, des liens malveillants sur lesquels ils cliqueraient probablement, envoyés d’adresses se faisant passer pour leurs vrais contacts, avec un style d’écriture imitant celui de ces contacts ». Les « chatbots », ces programmes censés converser avec les humains, pourraient aussi progresser suffisamment pour gagner la confiance des cibles, estiment les auteurs du rapport.

Recommandations

Que faire pour éviter que ces scénarios catastrophes se concrétisent ? Les auteurs du rapport préconisent, en premier lieu, une plus grande collaboration entre les pouvoirs publics et les chercheurs, « pour enquêter, prévenir et limiter les usages malveillants potentiels de l’IA ».

Le Monde
Offre spéciale étudiants et enseignants
Accédez à tous nos contenus en illimité à partir de 9,99 €/mois au lieu de 11,99 €.
S’abonner

Ils encouragent aussi les chercheurs à « prendre au sérieux » le fait que les technologies qu’ils développent puissent être utilisées à bon comme à mauvais escient. Et, en conséquence, leur conseillent de « prendre contact avec les acteurs pertinents quand ils voient arriver des applications dangereuses ».

Les technologies d’IA, sur lesquelles les informaticiens travaillent depuis les années 1950, ont fait de grands progrès depuis le début des années 2010. Et ce grâce notamment à l’augmentation de la puissance des machines et à la multiplication des données. Un bond qui soulève des inquiétudes. En 2015, plus d’un millier de personnes, parmi lesquelles de nombreux chercheurs en IA, mais aussi des personnalités, comme l’entrepreneur Elon Musk ou l’astrophysicien Stephen Hawking, avaient signé un appel pour faire interdire les armes autonomes. Depuis, plusieurs initiatives relatives à l’éthique dans l’IA ont vu le jour, comme le Partnership on AI, lancé en septembre 2016 par les grands groupes du secteur, dont Google, Facebook et Amazon, qui comptent définir de « bonnes pratiques ».

L’espace des contributions est réservé aux abonnés.
Abonnez-vous pour accéder à cet espace d’échange et contribuer à la discussion.
S’abonner

Voir les contributions

Réutiliser ce contenu

Lecture du Monde en cours sur un autre appareil.

Vous pouvez lire Le Monde sur un seul appareil à la fois

Ce message s’affichera sur l’autre appareil.

  • Parce qu’une autre personne (ou vous) est en train de lire Le Monde avec ce compte sur un autre appareil.

    Vous ne pouvez lire Le Monde que sur un seul appareil à la fois (ordinateur, téléphone ou tablette).

  • Comment ne plus voir ce message ?

    En cliquant sur «  » et en vous assurant que vous êtes la seule personne à consulter Le Monde avec ce compte.

  • Que se passera-t-il si vous continuez à lire ici ?

    Ce message s’affichera sur l’autre appareil. Ce dernier restera connecté avec ce compte.

  • Y a-t-il d’autres limites ?

    Non. Vous pouvez vous connecter avec votre compte sur autant d’appareils que vous le souhaitez, mais en les utilisant à des moments différents.

  • Vous ignorez qui est l’autre personne ?

    Nous vous conseillons de modifier votre mot de passe.

Lecture restreinte

Votre abonnement n’autorise pas la lecture de cet article

Pour plus d’informations, merci de contacter notre service commercial.