Les limites de la mémoire de travail : Cerveaux humains et modèles d'IA

En informatique, l'ensemble de travail "" désigne la quantité de données qu'un processeur peut traiter en même temps pour résoudre des problèmes. Cette idée a un parallèle intéressant dans la cognition humaine, connue sous le nom de "working memory." La mémoire de travail est une sorte de bloc-notes mental dans lequel nous conservons temporairement des informations. Il est essentiel pour raisonner et prendre des décisions complexes.
Cependant, la mémoire de travail a une capacité limitée qui peut restreindre notre capacité à aborder des problèmes très compliqués. Ce point de vue est important car nous entrons dans un monde de plus en plus influencé par l'IA, en particulier dans des domaines tels que la cybersécurité.
La bande passante d'un cerveau
Les sciences cognitives disposent de différents tests pour mesurer la capacité de la mémoire de travail d'une personne. Ces tests montrent qu'il existe une limite supérieure constante, même pour les personnes qui sont des penseurs exceptionnels.
Par exemple, les maîtres d'échecs, les mathématiciens et les musiciens de haut niveau ont des compétences étonnantes, mais leur capacité de mémoire de travail n'est probablement pas très différente de celle d'une personne moyenne. Il semble que l'évolution ait adapté notre cerveau à un certain niveau de capacités cognitives. Cela peut nous empêcher de comprendre pleinement des problèmes très vastes et complexes.
L'avantage de l'IA : La mise à l'échelle de la fenêtre contextuelle (avec des mises en garde)
Les systèmes d'intelligence artificielle, en particulier les grands modèles de langage (LLM), ont une limitation appelée leur fenêtre contextuelle "." Il s'agit du nombre de tokens (mots ou parties de code) qu'ils peuvent traiter en même temps. Contrairement aux humains, dont la mémoire de travail est fixe, la fenêtre contextuelle d'une IA peut être élargie, bien que cela soit coûteux. Un plus grand nombre de GPU, de meilleurs algorithmes ou un nouveau matériel peuvent tous augmenter la capacité d'une IA.
Cette approche présente toutefois d'importantes limites. À première vue, des tâches telles que la recherche d'anomalies dans d'énormes ensembles de données complexes semblent parfaites pour les LLM. Dépenser beaucoup d'argent pour le temps de traitement de l'IA peut sembler utile pour obtenir ces informations.
Mais il est important de savoir que la détection des anomalies s'accorde souvent mieux avec l'apprentissage machine (ML) traditionnel et les statistiques qu'avec les réseaux neuronaux avancés et l'apprentissage profond. C'est une bonne chose : les méthodes traditionnelles sont généralement plus prévisibles et plus fiables que certaines applications de l'IA.
Pourtant, il existe un problème plus important. Les modèles et les utilisations actuels de l'IA sont encore très imparfaits. Des exemples tels que l'échec des voitures à conduite autonome ou les hallucinations convaincantes mais erronées des étudiants en droit "" nous le rappellent. Avant d'utiliser l'IA à grande échelle pour résoudre de grands problèmes, nous devons nous assurer que ces systèmes sont fiables et toujours corrects.
Trouver les bons outils pour le bon travail
Alors, où en sommes-nous ? L'essentiel est de comprendre que les cerveaux humains et les modèles d'IA ont des forces différentes. Les humains, avec leur pouvoir cognitif fixe, sont capables de résoudre des problèmes détaillés dans les limites de leur mémoire de travail. Nous choisissons généralement des problèmes que nous avons de bonnes chances de résoudre par nous-mêmes.
Les modèles d'IA, quant à eux, peuvent être mis à l'échelle pour résoudre des problèmes qui seraient trop complexes pour un esprit humain. Mais cette approche n'a de sens que dans les cas suivants :
- La valeur financière de la solution est supérieure au coût du calcul.
- La confiance dans l'exactitude du résultat est cruciale.
Le coût élevé du traitement d'ensembles de données complexes, ainsi que les limites actuelles de l'explicabilité et de la correction, signifient que les problèmes que nous pouvons résoudre avec l'IA d'aujourd'hui sont encore limités. Leur meilleure utilisation consiste actuellement à réduire la portée et la complexité à un ensemble plus restreint de problèmes pouvant être abordés par la cognition humaine.

Intégrer l'IA dans la cybersécurité : Une approche stratégique
En matière de cybersécurité, l'objectif n'est pas seulement de lutter contre les menaces générées par l'IA avec plus d'IA, mais d'utiliser l'IA à bon escient dans les protocoles de sécurité. Les équipes de sécurité doivent faire preuve d'intelligence dans leurs investissements dans l'IA, en s'assurant qu'elle améliore leurs capacités sans créer de nouvelles faiblesses.
Illumio le fait avec des capacités de cybersécurité IA comme le conseiller virtuel d'Illumio qui offre des réponses conversationnelles aux questions sur la mise en place et l'utilisation de la segmentation zéro confiance. De plus, le nouveau moteur d'étiquetage alimenté par l'IA offre une visibilité instantanée sur les actifs dans les centres de données et les environnements cloud pour aider les entreprises à adopter plus rapidement la segmentation zéro confiance.
Ces solutions utilisent l'IA pour analyser de grandes quantités de données tout en maintenant la supervision humaine au cœur de la prise de décision en matière de sécurité. En combinant les cerveaux dynamiques et adaptatifs des humains avec la puissance de traitement de l'IA, les équipes de sécurité peuvent mieux gérer le monde complexe des menaces modernes.
L'IA réduira-t-elle les coûts de manière exponentielle et améliorera-t-elle la confiance ?
Un effet semblable à celui de la loi de Moore pourrait-il réduire considérablement le coût de l'IA à haute performance au fil du temps ? Cette situation est encore incertaine. Les progrès de l'IA dépendent non seulement du matériel, mais aussi de l'amélioration des algorithmes et des ensembles de données, ainsi que des progrès réalisés pour rendre les résultats de l'IA fiables et dignes de confiance.
C'est pourquoi il est essentiel de comprendre les limites et les coûts associés à la mémoire de travail humaine et aux fenêtres contextuelles de l'IA. Le choix du bon outil, qu'il s'agisse du cerveau humain ou d'une machine, nécessite une bonne compréhension de la taille du problème, de sa valeur potentielle, des coûts liés à la recherche d'une solution et de la fiabilité des résultats. En matière de cybersécurité, cela signifie utiliser stratégiquement l'IA pour renforcer les capacités humaines, en veillant à ce que le mélange d'intuition humaine et de puissance de la machine repose sur une confiance croissante dans les solutions d'IA.
À l'avenir, il est probable que la pensée humaine et l'intelligence artificielle s'associeront étroitement, chacune s'aidant mutuellement à relever les défis d'un monde plus complexe.
Vous voulez en savoir plus sur les offres d'IA de la plateforme de segmentation zéro confiance d'Illumio ? Contactez-nous dès aujourd'hui.