L’IA booster de la cybercriminalité
Puissance des modèles linguistiques
Les modèles linguistiques contribuent à une augmentation des différentes formes d’attaques cybernétiques.
Plus de 90 % des PDG canadiens dans un sondage de KPMG estiment que l’IA générative les rendra plus vulnérables aux violations.
Un rapport du gouvernement britannique indique que l’IA constitue une menace pour les prochaines élections du pays.
Bien que les menaces liées à l’IA en soient encore à leurs débuts, le volume et la sophistication des attaques basées sur l’IA augmentent chaque jour.
Les organisations doivent se préparer à ce qui les attend.
4 façons dont les cybercriminels exploitent l’IA
Il existe quatre principales façons dont les attaquants utilisent des outils d’IA couramment disponibles tels que ChatGPT, Dall-E et Midjourney :
- les attaques de phishing automatisées,
- les attaques d’usurpation d’identité,
- les attaques d’ingénierie sociale
- les chatbots de support client frauduleux.
Les attaques de spear-phishing bénéficient grandement de l’IA.
Par le passé, il était plus facile d’identifier les tentatives de phishing simplement parce que beaucoup étaient truffées de fautes de grammaire et d’orthographe. Les lecteurs perspicaces pouvaient repérer ces communications étranges et non sollicitées, supposant qu’elles étaient probablement générées depuis un pays où l’anglais (ou une autre langue) n’est pas le langage natif.
ChatGPT élimine pratiquement cet indice de détection.
Avec l’aide de ChatGPT, un cybercriminel peut rédiger un e-mail avec une grammaire parfaite et un usage correct de l’anglais, rédigé dans le style d’une source légitime.
Les cybercriminels peuvent envoyer des communications automatisées imitant, par exemple, une autorité bancaire demandant aux utilisateurs de se connecter et de fournir des informations sur leurs comptes Lorsqu’un utilisateur clique sur un lien pour commencer à fournir des informations, le pirate prend le contrôle du compte.
À quel point cette astuce est-elle populaire ?
Une augmentation de 1265% des e-mails de phishing
Le rapport SlashNext State of Phishing 2023 attribue une augmentation de 1 265 % des e-mails de phishing malveillants depuis le quatrième trimestre de 2022 largement du à des compromissions ciblées d’e-mails professionnels utilisant des outils d’IA.
Usurpations d’identité
Les attaques d’usurpation d’identité sont également en hausse. En utilisant ChatGPT et d’autres outils, des escrocs usurpent l’identité de personnes et d’organisations réelles, commettant des vols d’identité et des fraudes. Tout comme avec les attaques de phishing, ils utilisent des chatbots pour envoyer des messages vocaux se faisant passer pour un ami, un collègue ou un membre de la famille de confiance dans le but d’obtenir des informations ou un accès à un compte.
Un exemple s’est produit en Saskatchewan, au Canada, début 2023.
Un couple de personnes âgées a reçu un appel d’une personne se faisant passer pour leur petit-fils prétendant avoir eu un accident de voiture et être retenu en prison.
L’appelant a raconté une histoire selon laquelle il avait été blessé, avait perdu son portefeuille et avait besoin de 9 400 $ en espèces pour régler avec le propriétaire de l’autre voiture afin d’éviter des poursuites.
Les grands-parents se sont rendus à leur banque pour retirer l’argent, mais ont évité d’être arnaqués lorsqu’un responsable de la banque les a convaincus que la demande n’était pas légitime.
Alors que les experts de l’industrie pensaient que cette utilisation sophistiquée de la technologie de clonage vocal par IA se développerait dans quelques années, peu s’attendaient à ce qu’elle devienne aussi efficace aussi rapidement.
Influence sur la vie publique
Les cybercriminels utilisent ChatGPT et d’autres chatbots IA pour mener des attaques d’ingénierie sociale qui favorisent le chaos. Ils utilisent une combinaison de clonage vocal et de technologie de deepfake pour faire croire que quelqu’un dit quelque chose de provocateur.
Cela s’est produit la nuit précédant les élections municipales de Chicago en février. Un pirate informatique a créé une vidéo deepfake et l’a publiée sur X, montrant le candidat Paul Vallas faisant de fausses déclarations incendiaires et défendant des positions politiques controversées. La vidéo a généré des milliers de vues avant d’être supprimée de la plateforme.
Faux Chatbots commerciaux
La dernière tactique, les faux chatbots de service client, existe, mais elle est probablement à un ou deux ans de devenir largement populaire.
Un site bancaire frauduleux pourrait être créé en utilisant un chatbot de service client qui semble humain.
Le chatbot pourrait être utilisé pour manipuler des victimes crédules et leur faire remettre des informations personnelles et des informations de compte sensibles.
Comment la cybersécurité riposte
La bonne nouvelle est que l’IA est également utilisée comme un outil de sécurité pour lutter contre les escroqueries pilotées par l’IA. Voici trois façons dont l’industrie de la cybersécurité riposte.
Développement de leur propre IA adversaire
Essentiellement, cela consiste à créer une « bonne IA » et à la former pour combattre une « mauvaise IA ».
En développant leurs propres réseaux antagonistes génératifs (GAN), les entreprises cybernétiques peuvent apprendre à quoi s’attendre en cas d’attaque.
Les GAN se composent de deux réseaux neuronaux : un générateur qui crée de nouveaux échantillons de données et un discriminateur, qui distingue les échantillons générés des échantillons originaux.
En utilisant ces technologies, les GAN peuvent générer de nouveaux modèles d’attaque qui ressemblent à des modèles d’attaque précédemment observés.
En entraînant un modèle sur ces modèles, les systèmes peuvent faire des prédictions sur le type d’attaques que nous pouvons attendre de voir et les façons dont les cybercriminels exploitent ces menaces.
Détection d’anomalies
Il s’agit de comprendre la ligne de base du comportement normal, puis d’identifier quand quelqu’un s’écarte de ce comportement.
Lorsque quelqu’un se connecte à un compte à partir d’un emplacement différent de d’habitude ou si le département comptable utilise mystérieusement un système PowerShell normalement utilisé par les développeurs de logiciels, cela pourrait indiquer une attaque.
Bien que les systèmes de cybersécurité utilisent depuis longtemps ce modèle, la puissance technologique supplémentaire que possèdent les modèles IA peut mieux signaler les messages potentiellement suspects.
Réponse à la détection
En utilisant des systèmes d’IA, les outils et services de cybersécurité comme la détection et la réponse gérées (MDR) peuvent mieux détecter les menaces et communiquer des informations à leur sujet aux équipes de sécurité. L’IA aide les équipes de sécurité à identifier et à répondre plus rapidement aux menaces légitimes en recevant des informations concises et pertinentes. Moins de temps passé à poursuivre les faux positifs et à tenter de déchiffrer les journaux de sécurité aide les équipes à lancer des réponses plus efficaces.
Conclusion
Les outils d’IA ouvrent les yeux de la société sur de nouvelles possibilités dans pratiquement tous les domaines de travail. Alors que les hackers exploitent pleinement les technologies de grands modèles de langage, l’industrie devra suivre le rythme pour contrôler la menace de l’IA. Pour plus de lecture
Vous souhaitez vérifier la maturité cyber de votre entreprise ?
Profitez dès maintenant d’un diagnostic gratuit en prenant rendez-vous ici : https://bit.ly/43Vrqgd