L’intelligence artificielle, une aubaine pour les pirates informatiques. C’est en tout cas ce qu’indiquent Microsoft et OpenAI dans un rapport qui explique comment ces groupes utilisent cette technologie pour rendre leurs attaques plus efficaces.
Accessibles depuis près d’un an au grand public, les chatbots et logiciels de trucage dopés à l’intelligence artificielle (IA) sont susceptibles de faciliter la tâche des cybercriminels et des petits escrocs en ligne, sans toutefois bouleverser le schéma classique des attaques informatiques.
Microsoft et OpenAI alertent sur l’utilisation détournée de l’IA
Selon Microsoft et OpenAI, l’IA est utilisée dans le débogage de code, la recherche d’informations open source pour détecter des cibles, le renforcement des techniques d’ingénierie sociale ou encore la génération de textes pour l’hameçonnage. Les pirates traduisent aussi du texte, par exemple afin de s’en prendre à des victimes qui ne parlent pas la même langue. Des fonctionnalités basiques mais qui, bien utilisées, peuvent faire des ravages auprès des internautes.
De faux e-mails plus crédibles pour le « phishing »
Les différentes fonctionnalités de l’IA permettent notamment aux hackers de perfectionner leurs techniques de phishing. Cette méthode « d’hameçonnage » consiste à envoyer un faux e-mail à des internautes, afin de les piéger et de les conduire à rentrer des identifiants confidentiels sur un site pirate. Toutefois, certaines de ces arnaques sont parfois faciles à cerner en raison de la mauvaise qualité d’écriture ou des nombreuses fautes contenues dans le corps du courriel.
De l’histoire ancienne grâce à l’intelligence artificielle, qui propose des tournures de phrase plus crédibles et beaucoup moins d’erreurs d’orthographe. Les destinataires ont donc de quoi tomber encore plus dans le panneau… « L’IA facilite et permet une accélération du rythme des attaques« , analyse Gérôme Billois, expert en cybersécurité. Certains programmes, comme FraudGPT, permettent de dévoiler les e-mails qui sont en réalité frauduleux. Mais ces applications ne sont pas encore toujours abouties et leur efficacité réelle reste à démontrer.
Un risque important de fuite de données
Selon une étude récente du cabinet Gartner, l’IA générative figure parmi les cinq principales menaces émergentes citées par les entreprises. Celles-ci craignent notamment la fuite de données sensibles partagées par leurs propres employés, raison pour laquelle Samsung, Apple ou Amazon ont bloqué l’application ChatGPT au sein de leur réseau professionnel.
Copier un visage ou une voix pour piéger les internautes
La principale nouvelle menace de l’IA est la facilité avec laquelle il est désormais possible de copier un visage ou une voix. A partir d’un enregistrement de quelques secondes d’une personne, des outils en ligne peuvent produire une imitation pouvant piéger des collaborateurs ou des proches.
Pour Jérôme Saiz, fondateur de la société OPFOR Intelligence, ces outils risquent d’être rapidement utilisés par « toute une industrie de petits escrocs, très bien établie en France et souvent à l’origine des campagnes de SMS malveillants » pour extorquer des numéros de cartes bancaires.