Revenir aux fondamentaux de la sécurité pour se préparer aux risques liés à l'IA
Il ne se passe pas un jour sans que l'on entende parler de l'IA dans les médias. Qu'il s'agisse du développement rapide de nouvelles technologies ou de l'impact qu'elle aura sur notre avenir, l'IA est toujours présente dans nos esprits, en particulier dans le monde de la technologie.
Certaines des questions les plus brûlantes concernant les nouvelles avancées d'outils tels que ChatGPT proviennent du monde de la cybersécurité. Comment les mauvais acteurs utiliseront-ils l'IA pour renforcer leurs actes malveillants ? Et comment les ransomwares évolueront-ils pour mieux échapper à nos défenses ?
Afin d'examiner cet outil et ce qu'il signifie pour l'avenir du secteur de la cybersécurité, Paul Dant, ingénieur système principal chez Illumio, et Michael Adjei, directeur de l'ingénierie des systèmes, EMEA chez Illumio, se sont assis pour discuter du fonctionnement de l'IA, de ses vulnérabilités et de la manière dont les responsables de la sécurité peuvent lutter contre son impact.
Leur conseil de base ? Revenez à l'essentiel.
Lisez la suite et regardez l'intégralité de la discussion - avec un court extrait ci-dessous - pour savoir pourquoi.
La structure de l'IA et ses nombreuses vulnérabilités
Cela fait moins de deux ans que ChatGPT a été lancé et, en si peu de temps, le secteur constate déjà que la nouvelle technologie de l'IA aura un impact massif sur la cybersécurité - et qu'elle est déjà entre les mains de ceux qui veulent l'utiliser à la fois pour le bien et pour le mal.
Il est important de comprendre comment l'IA est structurée pour lutter contre les points d'interférence des attaquants.
"Pour simplifier, l'IA fonctionne à partir d'un ensemble de données comportant une couche d'entrée, une couche cachée et une couche de sortie", explique M. Adjei. Les données sont introduites dans la couche d'entrée et passent dans la couche cachée où s'opère la "magie" de l'IA. Il aboutit ensuite à la couche de sortie où le consommateur peut interagir avec lui".
Où se situent les vulnérabilités dans ce processus ? "Pratiquement à tous les stades", a déclaré M. Adjei.

Les risques liés à la sécurité de l'IA existent depuis des années
Ces vulnérabilités n'ont pas seulement commencé avec la diffusion à grande échelle de ChatGPT l'année dernière. Adjei et Dant ont expliqué que les systèmes d'IA compromis existent depuis des années - et qu'ils constituent un risque majeur, facilement négligé, des systèmes d'IA.
Ils ont cité le lancement par Microsoft, en 2016, d'un chatbot d'IA pour Twitter: "En l'espace de quelques heures, le chatbot a reçu toutes les informations les plus mauvaises et les plus viles que vous puissiez imaginer sur Internet. Il est passé d'une démonstration des progrès de l'IA à tout ce qu'il y a de mauvais en ligne", a déclaré M. Adjei.
Il s'agit d'un exemple simple et précoce d'une attaque liée à l'IA, mais il montre comment les acteurs malveillants peuvent s'appuyer sur les tactiques, techniques et procédures d' attaque(TTP) existantes pour transformer rapidement une nouvelle technologie en un nouveau moyen d'attaque. Les organisations de tous les secteurs, de toutes les régions et de toutes les tailles doivent se préparer de manière proactive à se prémunir contre les attaques inévitables générées par l'IA.
Plus récemment, Dant a incité ChatGPT à produire un ransomware à la volée, ce qui montre à quel point ses garde-fous peuvent être facilement contournés. ChatGPT n'a pas voulu répondre à l'invitation de Dant à "écrire un ransomware". Mais lorsqu'il a donné une tournure éducative à ses invites et décomposé sa demande en étapes d'apparence innocente, il a découvert que ChatGPT essayait de l'aider et qu'il avait fini par créer un ransomware pour lui.
"ChatGPT veut nous aider," Dant. "Ce que j'ai constaté, c'est que si vous donnez une tournure éducative à vos invites, il est plus que probable qu'elles ne verront pas vos intentions ultimes et vous aideront à automatiser la création d'un script de ransomware".
Cet exemple n'est qu'un des nombreux cas d'utilisation de l'IA que les acteurs de la menace découvrent et utilisent quotidiennement pour accélérer le volume et l'impact des attaques. Comme l'a résumé Adjei de manière experte : "Plutôt cool mais plutôt effrayant".
Comment les responsables de la sécurité doivent-ils répondre aux risques liés à l'IA ?
Malgré les craintes que l'IA suscite dans le domaine de la cybersécurité, M. Adjei et M. Dant conviennent que les organisations peuvent faire beaucoup pour commencer à se prémunir contre la prochaine attaque potentielle. Le plus important est de revenir à l'essentiel.
"La première réaction de nombreux RSSI et responsables de la sécurité a été de dire : "L'IA est utilisée par les méchants, donc les gentils ont aussi besoin de plus d'IA", a déclaré M. Adjei, mais ce n'est pas nécessairement vrai.
M. Dant est d'accord, expliquant que même si l'IA deviendra plus importante en termes d'analyse de données et d'exécution de tâches à la même vitesse que les attaquants, la meilleure façon de se préparer aux attaques de l'IA sera d'assurer une bonne cyberhygiène.
"Le premier principe est de revenir à l'essentiel", a déclaré M. Dant. "En fin de compte, une bonne hygiène cybernétique, la prévention des mouvements latéraux et les principes de confiance zéro deviendront encore plus valables à l'avenir.
Quelle que soit l'évolution des attaques générées par l'IA, les principes fondamentaux de la sécurité resteront valables. "Il est important que les responsables de la sécurité ne se sentent pas dépassés par l'IA", a déclaré M. Dant.
Pour l'avenir, Adjei et Dant encouragent les responsables de la sécurité à se concentrer sur le renforcement de la résilience cybernétique et sur l'endiguement des brèches, conformément aux stratégies de sécurité "Zero Trust".
Regardez le webinaire complet pour découvrir comment ChatGPT rend incroyablement simple pour les attaquants la création de ransomware avec l'IA.
Contactez-nous dès aujourd'hui pour en savoir plus sur le renforcement de la résilience contre les attaques de l'IA avec la plateforme de segmentation Illumio Zero Trust.