Intelligence artificielle : les scientifiques tirent la sonnette d’alarme

Sécurité : Vingt-six chercheurs spécialisés dans le domaine de l’intelligence artificielle ont publié hier un rapport étudiant les risques liés à l’émergence de cette technologie. Selon eux, ses récents progrès doivent forcer les acteurs du secteur à se responsabiliser.

Par Louis Adam

  • 3 min

Intelligence artificielle : les scientifiques tirent la sonnette d’alarme

L’Intelligence artificielle semble promise à un avenir radieux : c’est grâce aux progrès de ce domaine que les programmes de Deepmind parviennent aujourd’hui à vaincre les plus grands champions de Go. Aujourd’hui, les entreprises de la Silicon Valley voient l’IA comme une solution miracle à tous leurs problèmes et implémentent l’IA dans de nombreux outils. Mais au-delà de cet enthousiasme, quels sont les risques liés au développement de cette technologie ? C’est ce que plusieurs chercheurs spécialisés dans l’IA et issus de plusieurs universités différentes ont cherché à savoir dans un rapport intitulé « L’utilisation malveillante de l’intelligence Artificielle. ».

Ce document d’une centaine de pages se penche sur les différents scénarios et risques rendus possibles par le développement de l’intelligence artificielle. Le document s’attelle à faire une évaluation des risques dans plusieurs domaines, en étudiant à chaque fois trois prismes différents : celui de la sécurité informatique, celui de la sécurité physique, et enfin le risque politique. En conclusion, les chercheurs formulent un certain nombre de recommandations afin de limiter les risques.

Pas trop béats devant l’IA

Les chercheurs isolent ainsi plusieurs effets possibles de cette démocratisation de l’intelligence artificielle. Ces technologies pourraient notamment permettre de faciliter des scénarios d’attaques déjà existants : « le coût des attaques pourrait être amoindrie par l’utilisation de l’IA pour se charger des tâches qui nécessitent habituellement un travail humain, de l’intelligence ou une certaine expertise » expliquent ainsi les chercheurs. Cette technologie pourrait également rendre possible l’arrivée de nouvelles menaces jusqu’alors inédite rendues possibles par l’utilisation de l’intelligence artificielle, ou rendre les attaques existantes différentes et bien plus difficiles à contrer ou à identifier.

Les chercheurs évoquent notamment la possibilité d’utiliser des outils de synthèse d’image pour truquer les vidéos, ou encore la synthèse vocale, autant d’outils qui peuvent permettre de rendre certaines attaques de phishing ou de social engineering particulièrement efficaces et difficiles à détecter. Mais les chercheurs ne se concentrent pas uniquement sur le domaine de la sécurité physique : l’intelligence artificielle, couplée à des drones ou à des robots pourrait également être utilisée pour mener à bien des attaques physiques.

Les chercheurs expliquent ainsi que de plus en plus, les robots deviennent grâce à l’IA autonomes ou semi-autonomes. Ils estiment ainsi « qu’un plus grand degré d’autonomie ouvre la possibilité à une personne isolée de faire bien plus de dégâts. »

Pas de solution miracle

Les chercheurs se penchent également sur le risque politique lié à l’utilisation de telles technologies : en plein débat sur les fakes news et alors que le souvenir de l’élection américaine est encore bien présent, le sujet paraît difficile à éviter. Les chercheurs estiment que le développement des intelligences artificielles peut rendre bien plus plausibles des attaques de désinformation « hautement ciblées » qui pourraient analyser l’activité des internautes visés afin de rendre leur propagande plus attractive et plus convaincante. Un outil qui pourrait facilement influencer une élection ou un débat public.

Pour faire face à ces différents risques, les chercheurs émettent une série de recommandations. Ils expliquent avoir conscience que celles-ci ne règlent pas entièrement les problèmes soulevés dans le cadre du rapport, mais estiment qu’il s’agit de propositions de base visant à limiter les risques : le rapport recommande ainsi une plus grande collaboration entre les législateurs et les chercheurs en IA afin de mieux comprendre les rouages et les implications de cette technologie.

Le rapport incite également les chercheurs à réfléchir plus longuement aux utilisations potentiellement malveillantes de leurs technologies et à chercher à les limiter. Les chercheurs estiment également que le milieu de la recherche en intelligence artificielle devrait se pencher sur d’autres secteurs plus matures, tel que celui ce la sécurité informatique, afin d’identifier et d’implémenter de bonnes pratiques en la matière.

  • A lire, notre dossier

Roadmap to business : l’intelligence artificielle dans votre entreprise

/ Powercenter

5 dossiers IT à découvrir chaque mois

Comment les opérateurs télécoms accompagnent les entreprises dans leurs moments de vie ?
Cloud de confiance, sous le vernis, quelle réalité ?
La profonde numérisation de l'économie a pour corollaire la dématérialisation de l'informatique. Mais la montée en puissance du cloud computing provoque de plus en plus d'inquiétude quant à la nécéssaire maîtrise des entreprises sur leurs données.Jamais donc les questions de la confiance et de la souveraineté numérique n'ont été aussi cruciales pour les professionnels qu’en ce moment. Le point sur les enjeux, et les solutions.
Découvrir tous les dossiers
Connexion

Vous n’avez pas encore de compte ?

    AUTOUR DE ZDNET
    SERVICES
    À PROPOS