/
Cyber Resilience

Les limites de la mémoire de travail : Cerveaux humains et modèles d'IA

Le cerveau de l'IA

En informatique, l'ensemble de travail "" désigne la quantité de données qu'un processeur peut traiter en même temps pour résoudre des problèmes. Cette idée a un parallèle intéressant dans la cognition humaine, connue sous le nom de "working memory." La mémoire de travail est une sorte de bloc-notes mental dans lequel nous conservons temporairement des informations. Il est essentiel pour raisonner et prendre des décisions complexes.

Cependant, la mémoire de travail a une capacité limitée qui peut restreindre notre capacité à aborder des problèmes très compliqués. Ce point de vue est important car nous entrons dans un monde de plus en plus influencé par l'IA, en particulier dans des domaines tels que la cybersécurité.  

La bande passante d'un cerveau  

Les sciences cognitives disposent de différents tests pour mesurer la capacité de la mémoire de travail d'une personne. Ces tests montrent qu'il existe une limite supérieure constante, même pour les personnes qui sont des penseurs exceptionnels.

Par exemple, les maîtres d'échecs, les mathématiciens et les musiciens de haut niveau ont des compétences étonnantes, mais leur capacité de mémoire de travail n'est probablement pas très différente de celle d'une personne moyenne. Il semble que l'évolution ait adapté notre cerveau à un certain niveau de capacités cognitives. Cela peut nous empêcher de comprendre pleinement des problèmes très vastes et complexes.

L'avantage de l'IA : La mise à l'échelle de la fenêtre contextuelle (avec des mises en garde)  

Les systèmes d'intelligence artificielle, en particulier les grands modèles de langage (LLM), ont une limitation appelée leur fenêtre contextuelle "." Il s'agit du nombre de tokens (mots ou parties de code) qu'ils peuvent traiter en même temps. Contrairement aux humains, dont la mémoire de travail est fixe, la fenêtre contextuelle d'une IA peut être élargie, bien que cela soit coûteux. Un plus grand nombre de GPU, de meilleurs algorithmes ou un nouveau matériel peuvent tous augmenter la capacité d'une IA.

Cette approche présente toutefois d'importantes limites. À première vue, des tâches telles que la recherche d'anomalies dans d'énormes ensembles de données complexes semblent parfaites pour les LLM. Dépenser beaucoup d'argent pour le temps de traitement de l'IA peut sembler utile pour obtenir ces informations.

Mais il est important de savoir que la détection des anomalies s'accorde souvent mieux avec l'apprentissage machine (ML) traditionnel et les statistiques qu'avec les réseaux neuronaux avancés et l'apprentissage profond. C'est une bonne chose : les méthodes traditionnelles sont généralement plus prévisibles et plus fiables que certaines applications de l'IA.

Pourtant, il existe un problème plus important. Les modèles et les utilisations actuels de l'IA sont encore très imparfaits. Des exemples tels que l'échec des voitures à conduite autonome ou les hallucinations convaincantes mais erronées des étudiants en droit "" nous le rappellent. Avant d'utiliser l'IA à grande échelle pour résoudre de grands problèmes, nous devons nous assurer que ces systèmes sont fiables et toujours corrects.  

Trouver les bons outils pour le bon travail

Alors, où en sommes-nous ? L'essentiel est de comprendre que les cerveaux humains et les modèles d'IA ont des forces différentes. Les humains, avec leur pouvoir cognitif fixe, sont capables de résoudre des problèmes détaillés dans les limites de leur mémoire de travail. Nous choisissons généralement des problèmes que nous avons de bonnes chances de résoudre par nous-mêmes.

Les modèles d'IA, quant à eux, peuvent être mis à l'échelle pour résoudre des problèmes qui seraient trop complexes pour un esprit humain. Mais cette approche n'a de sens que dans les cas suivants :

  • La valeur financière de la solution est supérieure au coût du calcul.
  • La confiance dans l'exactitude du résultat est cruciale.

Le coût élevé du traitement d'ensembles de données complexes, ainsi que les limites actuelles de l'explicabilité et de la correction, signifient que les problèmes que nous pouvons résoudre avec l'IA d'aujourd'hui sont encore limités. Leur meilleure utilisation consiste actuellement à réduire la portée et la complexité à un ensemble plus restreint de problèmes pouvant être abordés par la cognition humaine.  

Cybersécurité de l'IA

Intégrer l'IA dans la cybersécurité : Une approche stratégique

En matière de cybersécurité, l'objectif n'est pas seulement de lutter contre les menaces générées par l'IA avec plus d'IA, mais d'utiliser l'IA à bon escient dans les protocoles de sécurité. Les équipes de sécurité doivent faire preuve d'intelligence dans leurs investissements dans l'IA, en s'assurant qu'elle améliore leurs capacités sans créer de nouvelles faiblesses.

Illumio le fait avec des capacités de cybersécurité IA comme le conseiller virtuel d'Illumio qui offre des réponses conversationnelles aux questions sur la mise en place et l'utilisation de la segmentation zéro confiance. De plus, le nouveau moteur d'étiquetage alimenté par l'IA offre une visibilité instantanée sur les actifs dans les centres de données et les environnements cloud pour aider les entreprises à adopter plus rapidement la segmentation zéro confiance.  

Ces solutions utilisent l'IA pour analyser de grandes quantités de données tout en maintenant la supervision humaine au cœur de la prise de décision en matière de sécurité. En combinant les cerveaux dynamiques et adaptatifs des humains avec la puissance de traitement de l'IA, les équipes de sécurité peuvent mieux gérer le monde complexe des menaces modernes.

L'IA réduira-t-elle les coûts de manière exponentielle et améliorera-t-elle la confiance ?

Un effet semblable à celui de la loi de Moore pourrait-il réduire considérablement le coût de l'IA à haute performance au fil du temps ? Cette situation est encore incertaine. Les progrès de l'IA dépendent non seulement du matériel, mais aussi de l'amélioration des algorithmes et des ensembles de données, ainsi que des progrès réalisés pour rendre les résultats de l'IA fiables et dignes de confiance.

C'est pourquoi il est essentiel de comprendre les limites et les coûts associés à la mémoire de travail humaine et aux fenêtres contextuelles de l'IA. Le choix du bon outil, qu'il s'agisse du cerveau humain ou d'une machine, nécessite une bonne compréhension de la taille du problème, de sa valeur potentielle, des coûts liés à la recherche d'une solution et de la fiabilité des résultats. En matière de cybersécurité, cela signifie utiliser stratégiquement l'IA pour renforcer les capacités humaines, en veillant à ce que le mélange d'intuition humaine et de puissance de la machine repose sur une confiance croissante dans les solutions d'IA.

À l'avenir, il est probable que la pensée humaine et l'intelligence artificielle s'associeront étroitement, chacune s'aidant mutuellement à relever les défis d'un monde plus complexe.

Vous voulez en savoir plus sur les offres d'IA de la plateforme de segmentation zéro confiance d'Illumio ? Contactez-nous dès aujourd'hui.

Sujets connexes

No items found.

Articles connexes

Recherche ESG : Comment les petites et moyennes entreprises peuvent remédier à l'impréparation aux brèches
Cyber Resilience

Recherche ESG : Comment les petites et moyennes entreprises peuvent remédier à l'impréparation aux brèches

Découvrez les conclusions de la recherche ESG du cabinet d'analystes sur la situation des petites et moyennes entreprises en matière de confiance zéro et de progrès en matière de segmentation.

Charges utiles des logiciels malveillants & Beacons : Comment les communications malveillantes démarrent
Cyber Resilience

Charges utiles des logiciels malveillants & Beacons : Comment les communications malveillantes démarrent

Les balises de logiciels malveillants permettent à un pirate d'exécuter des logiciels malveillants par le biais d'un script. Les reconnaître permet d'élaborer des stratégies de détection et d'endiguement.

3 étapes que les RSSI doivent suivre pour prouver la valeur de la cybersécurité
Cyber Resilience

3 étapes que les RSSI doivent suivre pour prouver la valeur de la cybersécurité

Apprenez l'approche de la sécurité basée sur la valeur qui réussira dans la salle du conseil d'administration et protégera votre organisation contre les cyber-menaces en évolution.

8 questions que les RSSI devraient se poser sur l'IA
Cyber Resilience

8 questions que les RSSI devraient se poser sur l'IA

Découvrez huit questions que les RSSI doivent se poser pour protéger leurs organisations contre les attaques de ransomware assistées par l'IA.

Revenir aux fondamentaux de la sécurité pour se préparer aux risques liés à l'IA
Cyber Resilience

Revenir aux fondamentaux de la sécurité pour se préparer aux risques liés à l'IA

Découvrez le point de vue de deux experts en cybersécurité sur le fonctionnement de l'IA, ses points faibles et la manière dont les responsables de la sécurité peuvent lutter contre son impact.

Il ne faut pas faire confiance à l'IA : Pourquoi comprendre cela peut être transformateur
Cyber Resilience

Il ne faut pas faire confiance à l'IA : Pourquoi comprendre cela peut être transformateur

Découvrez pourquoi le directeur technique et cofondateur d'Illumio pense que la frontière technologique de l'IA "" est plus petite qu'il n'y paraît - et comment cela influence la façon dont nous utilisons l'IA.

Supposons une rupture.
Minimiser l'impact.
Augmenter la résilience.

Vous souhaitez en savoir plus sur la segmentation zéro confiance ?