Obtenez un devis

L'intelligence artificielle (IA) fait de plus en plus partie de notre quotidien. La taille du marché de l'IA montre à quel point cette technologie est intégrée à notre vie de tous les jours. En 2019, la valeur marchande des produits d'IA était d'un peu plus de 27 milliards de dollars. D'ici 2027, cette valeur va atteindre environ 267 milliards de dollars. L'IA et ses différentes saveurs, telles que l'apprentissage automatique (Machine Learning) et l'apprentissage profond (Deep Learning), trouvent leur place dans des produits et services allant de la chimie à la police en passant par la médecine et les ''chatbots''.

Toute technologie intrinsèque apporte à la fois du bien et du mal. L'intelligence artificielle n'est pas différente. La sécurité est un domaine dans lequel les produits et services compatibles avec l'IA voient une réponse mitigée. La protection des renseignements personnels en est un autre que nous allons abordé lors d'un prochain blogue. Aujourd'hui, nous allons discuter des façons dont l'intelligence artificielle renforce et défie la cybersécurité de l'entreprise.

Mettre l'intelligence artificielle à profit pour la cybersécurité

La quantité de données générées grâce à l'intelligence artificielle est devenue presque impossible à suivre. Seulement en termes de détection des cybermenaces et des activités criminelles, les analystes sont aux prises avec des énormes volumes d'information et de trafic à gérer. C'est là que l'IA excelle. L'IA est conçue pour fonctionner au mieux dans les situations où il y a d'énormes quantités de données.

Détection des cybermenaces

Un manque de cyber compétences dans l'industrie, des systèmes informatiques hyper-connectés, employés à distance et des cyberattaques de plus en plus sophistiquées créent une tempête parfaite dans la détection des menaces. Le rapport de chasse aux menaces 2018 a constaté que 52% des centres d'opérations de sécurité (SOC) ont connu un doublement des cybermenaces au cours des années précédentes. L'étude a conclu que pour contrebalancer cette surcharge massive de menaces, 82% des SOC s'orientent vers des techniques de chasse aux menaces avancées qui utilisent l'intelligence artificielle.

La détection des cybermenaces basée sur l'IA utilise un type d'apprentissage automatique, appelé apprentissage non supervisé. Cette technique permet de trouver des modèles à l'aide de données d'entrée. Une fois les modèles appris, les anomalies en dehors de la plage de modèles peuvent être repérées et utilisées pour identifier un comportement inhabituel tel que le mouvement illégitime de fichiers. Une application populaire de ce type de technique est l'analyse comportementale des utilisateurs et des entités ou UEBA. Les solutions qui offrent UEBA utilisent l'apprentissage automatique pour vérifier les événements réseau afin de repérer des modèles de comportement inhabituels lorsque les humains, les appareils et les réseaux interagissent. L'un des principaux différenciateurs de l'UEBA est qu'il n'a pas besoin de modèles prédéfinis ou de règles codées en dur. Au lieu de cela, l'algorithme apprend en utilisant des données en temps réel. Au fil du temps, la précision et la prévisibilité s'améliorent.

L'un des nombreux aspects des solutions de cybersécurité basées sur l'intelligence artificielle est la possibilité d'envoyer des alertes plus précises et plus ciblées lorsqu'un comportement anormal est détecté. Cela réduit les faux positifs et permet d'éviter la fatigue des analystes de sécurité.

Fraude financière

Alors que de plus en plus de consommateurs font des achats en ligne, la fraude par carte non présente (CNP) connaît une augmentation. Parallèlement à cela, le problème croissant de l'identité synthétique et du vol d'identité contribue à créer une tempête parfaite dans le secteur financier.

Par conséquent, les pertes financières dues à la fraude devraient atteindre 200 milliards de dollars d'ici 2024, selon le cabinet d'analystes Recherche Juniper. Les volumes de transactions financières ont atteint des taux de pointe. En effet, une recherche de ACI Worldwide et Global Data prévoient une augmentation des transactions de paiement de plus de 23% jusqu'en 2024.

Le rapport Juniper s'attend à ce qu'en réponse à l'augmentation des incidences de fraudes financières, l'utilisation de solutions basées sur l'apprentissage automatique deviendra pratique commune. L'IA et le ''machine-learning'' vont permettre d'en apprendre davantage sur les transactions et prédire les comportements anormaux. En fait, plus il y a de données, mieux c'est. L'augmentation des volumes de transactions aidera à créer les algorithmes derrière les services et les plates-formes compatibles avec l'IA utilisés pour identifier les activités frauduleuses. En outre, les systèmes de surveillance des transactions (TMS) basés sur l'IA sont bien meilleurs pour réduire les faux positifs, qui ont un impact sur l'expérience client et causent la fatigue des opérateurs. Les TMS plus traditionnels ont souvent 90% + des taux de faux positifs lors des vérifications anti-blanchissage d'argent.

L'utilisation abusive de l'IA pour des activités cybercriminelles

L'IA est un outil incroyablement utile lorsqu'il y a trop de données pour que les opérateurs humains puissent travailler rapidement et avec précision. Être capable de choisir une aiguille dans une botte de foin est l’atout principal des outils de cybersécurité activés par l'IA. Cela permet aux opérateurs humains de faire une analyse post-alerte plus intéressante. Mais la même capacité peut également être utilisée de manière malveillante. En 2018, un rapport, «L'utilisation malveillante de l'intelligence artificielle" a été publié. Le rapport a mis en évidence trois domaines de profil de cyber-attaque que l'IA va modifier:

  1. Expansion des menaces existantes. L'IA peut permettre des attaques plus importantes, plus rapides et plus larges à l'aide de techniques activées par l'IA.
  2. Nouvelles attaques.Les systèmes d'IA pourraient être utilisés de manière malveillante pour accomplir des tâches peu pratiques pour les humains. En outre, des acteurs malveillants pourraient exploiter les vulnérabilités des plateformes de cybersécurité assistées par IA.
  3. Changement du caractère typique des menaces. Le rapport a conclu en déclarant que les chercheurs s'attendent à ce que les attaques assistées par l'IA soient «particulièrement efficaces, finement ciblées, difficiles à attribuer et susceptibles d'exploiter les vulnérabilités des systèmes d'IA».

Voici juste deux exemples de la façon dont l'IA peut être utilisée à des fins malveillantes.

A- Intelligence artificielle, ''Deepfakes'' et courriels professionnels compromis

En 2019, une attaque par courriel a été menée contre un PDG britannique. Le résultat a été une perte financière de 240 000 $. L'attaque a été menée à l'aide d'une voix qui ressemblait à celle du dirigeant de l'entreprise. Les analystes soupçonnent que cela a été fait à l'aide de technologies de type ''Deepfake''. Les Deepfakes sont maintenant courants. En 2018, 14698 vidéos deepfakes ont été trouvées en ligne. La technologie utilise un sous-ensemble d'IA appelé Deep Learning ou apprentissage en profondeur. Cette technique d'IA est basée sur des réseaux de neurones, qui sont (à certains égards) similaires à la façon dont le cerveau humain traite les informations. Le Deep Learning est utilisé pour manipuler la vraie vidéo et la vraie voix. Certains exemples très célèbres de vidéos deepfakes incluent le discours d'Obama de BuzzFeed. La technologie Deepfake offre aux cybercriminels un outil parfait dans leur arsenal d'ingénierie sociale. Imaginez recevoir un e-mail contenant une fausse vidéo de vous-même dans une situation embarrassante voire illégale? Cela ajoute une nouvelle dimension aux méthodes de cyber-attaque existantes telles que les rançongiciels, le phishing et la sextorsion.

B- Cyberattaques assistées par IA

Une démonstration d'IBM en 2018 a montré comment l'IA peut être utilisée pour rendre les attaques de rançongiciels encore plus efficaces. Dans la présentation à Blackhat, l'équipe de recherche DeepLocker discuté de la manière dont l'IA pourrait être utilisée pour aider une attaque de rançongiciel. L'IA est intégrée au malware. La technique utilise un processus appelé «AI-Locksmithing», l'algorithme utilisant des capacités similaires utilisées dans la détection des menaces, c'est-à-dire repérer les tendances et les modèles avant de prendre une décision. Dans le cas des logiciels malveillants activés par l'intelligence artificielle, cette décision est de savoir quand exécuter l'attaque ou rester en mode furtif.

Un exemple récent de cyber-attaque assistée par l'IA est le vol de données chez TaskRabbit où 3,75 millions de clients se sont fait voler des données financières et personnelles. Les analystes pensent qu'un botnet activé par l'IA a été utilisé. Les machines esclaves du botnet ont été utilisées pour exécuter une attaque DDoS sur les serveurs de TaskRabbit.

Rien d'artificiel sur la cybersécurité

La cybersécurité profite de l'utilisation de l'intelligence artificielle, le Machine Learning et le Deep Learning, pour endiguer le flux de cyber-attaques. Mais comme nous l'avons vu, à maintes reprises, les cybercriminels sont extrêmement polyvalents et innovants. L'IA permet non seulement une analyse rapide et précise des données à de bonnes fins, mais elle permet également aux données d'être utilisées pour des raisons malveillantes. La course aux armements entre l'entreprise et le cybercriminel va devoir se poursuivre. Cette fois, cependant, les gentils ont de nombreuses cordes à leur arc pour lutter contre la cybercriminalité.

phone-handsetcrossmenu