/
Cyber Resilience

Pourquoi l'IA a un problème de communication

La langue est un outil dont le but est remarquablement simple : transférer la pensée ou l'idée que j'ai dans la tête dans la vôtre, de la manière la plus complète et la plus précise possible. Comme la plupart des outils, l'outil linguistique peut être utilisé par différents utilisateurs de diverses manières.  

La maîtrise de la langue n'est pas une garantie de réussite. Les nouvelles technologies impliquent un nouveau vocabulaire. Et qui dit nouveau vocabulaire dit utilisation moins cohérente de ce vocabulaire. Et rien n'est plus récent ou plus important sur le marché que la technologie liée à l'IA.

Tout est question de contexte

Le langage ne fonctionne que lorsque les deux parties d'une conversation sont d'accord sur le contexte et les définitions. En termes plus familiers, la langue fonctionne mieux lorsque les deux parties sont "sur la même longueur d'onde". Dans le monde technique, l'exemple classique d'une mauvaise communication de ce type est celui qui existe entre l'ingénierie et le marketing. Elle est si courante qu'elle constitue le principe fondamental de l'humour de la bande dessinée Dilbert.

Une bande dessinée de Dilbert sur le désaccord entre le marketing et l'ingénierie
Crédit photo : Scott Adams via Popverse

Le problème est en fait assez simple : le but d'un ingénieur est de communiquer une idée avec précision. Si le marketing est aussi une affaire de communication, la précision est d'une importance secondaire. L'objectif premier est d'influencer. Si un mot moins précis obtient une meilleure réponse de la part de l'agent de marketing, le mot moins précis sera utilisé. Naturellement, il en résulte un décalage (c'est-à-dire une mauvaise communication) lorsqu'un ingénieur tente d'apprendre à partir de documents de marketing.

Une autre source fréquente de mauvaise communication est le fait que deux groupes ont des définitions différentes d'un même mot. Dans certains cas, les deux sont même corrects, bien qu'incompatibles. Le mot "théorie" en est un parfait exemple. Pour un scientifique, un ingénieur ou un mathématicien, le mot "théorie" a une définition très précise et très différente de celle d'une personne non technique. William Briggs est un scientifique titulaire d'un doctorat en statistiques mathématiques qui, en 2012, a apporté l'éclairage suivant sur le sujet :

D'ailleurs, c'est une de mes bêtes noires que d'appeler "théorie" tout modèle intellectuel de quelque chose. En science, un modèle est une description explicative et prédictive d'un système ou d'un processus. Une hypothèse est un modèle qui peut en principe être falsifié, c'est-à-dire que les preuves qui réfuteraient le modèle peuvent être énoncées sans ambiguïté. Une théorie est une hypothèse qui a, jusqu'à présent, survécu à toutes les tentatives de la démentir".

La confusion des définitions de "théorie" et d'"hypothèse" dans l'esprit des non-scientifiques fait de la communication entre scientifiques et non-scientifiques un problème délicat à résoudre. En d'autres termes, il est difficile de transférer les pensées ou les idées d'un scientifique dans la tête d'un non-scientifique de manière complète et précise. D'une manière plus générale, il s'agit d'un bon exemple de groupes distincts ayant des difficultés à communiquer entre eux.

Comment remédier à cette situation ?

En tant que consommateur de technologie, la communication "trans-silence" est un défi quotidien, que ce soit entre vous et un fournisseur ou entre vous et d'autres groupes au sein de votre organisation. Comme nous l'avons dit au début, les technologies liées à l'IA sont nouvelles sur le marché, et donc source de beaucoup d'imprécisions et d'erreurs de communication.

Pour y remédier, vous devez tout d'abord disposer d'une source de données exactes et précises. Votre équipe de vente, un gestionnaire de compte et un ingénieur commercial ont pour mission de vous inciter à acheter un produit. On leur apprend à communiquer en termes de marketing. Ce que vous avez de positif, c'est que la plupart des ingénieurs commerciaux, ainsi qu'un nombre surprenant de gestionnaires de comptes, sont issus d'une formation d'ingénieur. Il n'est pas difficile de les faire passer en "mode geek", où ils abandonnent le vocabulaire du marketing pour passer au langage de l'ingénierie. À ce stade, il est important de connaître les définitions des termes d'ingénierie qu'ils utiliseront.

L'IA est un domaine de l'informatique qui existe depuis le milieu des années 1950. En tant que tel, le vocabulaire est établi dans le monde technique. Mais tout cela est nouveau pour le consommateur depuis quelques années, de sorte que les définitions des mots utilisés dans les médias destinés aux consommateurs sont un peu "floues". Vous avez sans doute rencontré des termes tels que "intelligence artificielle", "apprentissage automatique", "grands modèles de langage", "GPT", "IA générative", "apprentissage profond", "réseaux neuronaux" et "ChatGPT". Essayons d'y voir clair.

Deux catégories fondamentales d'IA

Comme le terme "physique", l'IA ou l'intelligence artificielle n'est pas vraiment une "chose" en soi. Il s'agit plutôt d'un parapluie sous lequel de nombreux autres domaines existent. Si l'on exclut les premières voies de recherche sous l'égide de l'IA, il existe aujourd'hui deux types fondamentaux d'IA : l'IA basée sur les statistiques et l'IA basée sur les réseaux neuronaux.

Apprentissage automatique

L'IA basée sur les statistiques est mieux connue sous le nom de ML ou Machine Learning. Fondamentalement, la ML consiste à créer un modèle composé d'une ou plusieurs équations pour décrire une solution, puis à "entraîner" ce modèle à l'aide d'un renforcement positif et négatif en lui fournissant de bonnes et de mauvaises réponses. Cette formation consiste essentiellement en une recherche assistée par ordinateur de coefficients pour chaque variable de chaque équation qui, lorsque de nouvelles valeurs sont introduites dans les variables, aboutissent aux réponses souhaitées.

Si cela vous semble trop simple pour être considéré comme de l'intelligence, vous n'êtes pas le seul à le penser. Il est courant que le ML soit considéré comme une science de moindre importance dans le cadre de l'IA. Si le statut du ML en tant qu'"intelligence" est discutable, son pouvoir en tant qu'outil ne l'est pas. ML excelle dans de nombreuses tâches difficiles.

Bien que la ML puisse être utilisée pour de nombreuses choses, si je devais choisir un seul cas d'utilisation qui définisse son utilité, je choisirais le "regroupement". La ML est exceptionnellement puissante pour trouver des éléments qui se ressemblent. Il peut s'agir de retrouver toutes les photos de votre chien sur votre téléphone. Ou de trouver les visages des personnes sur une photo pour s'en servir comme point de focalisation de l'objectif. Puisque nous parlons de sécurité, il pourrait être utile pour trouver des groupes de serveurs dans votre réseau présentant des schémas de trafic similaires, puis pour vous avertir lorsque le trafic de l'un de ces serveurs devient soudainement moins important qu'auparavant (c'est-à-dire un écart par rapport à la ligne de base), ce qui pourrait indiquer une violation de la loi.

Il existe des dizaines d'autres utilisations possibles, notamment la recherche de tous vos serveurs NTP, de toutes vos bases de données Redis ou de toutes les machines de votre réseau exécutant d'anciennes versions non corrigées de Windows.

Si vous lisez qu'un produit utilise l'IA, il est probable que la technologie spécifique utilisée soit la ML. Par rapport aux autres technologies d'IA, la ML est la plus prévisible, la mieux comprise et la plus facile à mettre en œuvre. Il résout également de manière satisfaisante un grand nombre de problèmes communs à l'espace de sécurité. Il convient également de noter que si l'entraînement d'un modèle de ML (la partie effectuée par le vendeur) nécessite d'importantes ressources informatiques, l'utilisation d'un modèle de ML (la partie que vous effectuez une fois que vous avez acheté le produit) une fois qu'il a été entraîné ne nécessite pas plus de puissance informatique que n'importe quelle autre application.

Apprentissage profond

Lorsque le commun des mortels entend le terme "IA", il pense probablement à des solutions basées sur l'apprentissage profond (Deep Learning). Mais avant de définir l'apprentissage profond, il faut d'abord parler des réseaux neuronaux.

L'élément fondamental d'un ordinateur est la porte NAND. En logique informatique, tout autre type de porte, et donc tout ordinateur, peut être construit à partir de portes NAND. En fait, les ordinateurs du vaisseau spatial Apollo avaient la taille d'une grande boîte à chaussures et contenaient environ 14 000 portes NAND.

Les portes NAND sont des créatures simples. Dans sa forme la plus simple, une porte NAND possède deux entrées et une sortie. Lorsque les deux entrées sont activées ("on" ou logique 1), la sortie est désactivée ("off" ou logique 0). D'autres combinaisons d'entrées (basse/basse, basse/haute ou haute/basse) donnent une sortie haute. Simple. Mais c'est à partir de cette simple construction logique que tous les ordinateurs sont construits.

Le neurone est l'élément fondamental ou "unité de traitement" du cerveau. Les neurones ne sont pas beaucoup plus complexes que les portes NAND. Ils communiquent par voie électrochimique via plusieurs entrées (généralement des centaines) et une sortie. Bien que la logique d'un neurone soit plus complexe qu'une porte NAND (typiquement une fonction de seuil analogique, plutôt qu'une porte logique marche/arrêt), elle est facilement modélisée dans un logiciel.

Un groupe de neurones "câblés" ensemble est un réseau neuronal. Si les réseaux neuronaux sont une curiosité amusante, leur véritable puissance se manifeste lorsque des couches de neurones sont connectées et que chaque neurone alimente un ou plusieurs autres neurones en grand nombre. Il s'agit de l'apprentissage profond. Officiellement, l'apprentissage profond est défini comme "un réseau neuronal contenant plus d'une couche".

Il est intéressant de noter que les réseaux neuronaux descendent des perceptrons, qui ont été inventés en 1943 et mis en œuvre pour la première fois en 1958. Bien que les perceptrons aient de sérieuses limitations, le concept de base était solide et a évolué pour devenir les réseaux neuronaux en 1987. En d'autres termes, cela fait plus de trente-cinq ans que nous disposons des éléments de base et que nous comprenons les idées fondamentales sur lesquelles repose l'incroyable technologie de l'IA d'aujourd'hui, mais les progrès de l'IA ont été glaciaux jusqu'à ces dernières années.

Ce qui faisait défaut, c'était la puissance de calcul. Le cerveau humain compte environ 100 milliards de neurones. Entre ces neurones, il existe environ 100 000 milliards de connexions. La puissance des ordinateurs a augmenté de manière exponentielle depuis leur création, mais ce n'est qu'avec l'avènement récent de coprocesseurs graphiques extrêmement puissants, dotés de milliers de cœurs de processeur chacun, qu'il a été possible de construire des réseaux neuronaux avec un nombre significatif de neurones. Jetons un coup d'œil sur quelques chiffres pour mettre les choses en perspective.

En 1986, lorsque j'ai commencé à m'intéresser sérieusement à la programmation, le superordinateur le plus puissant au monde était le Cray X-MP/48. Cette machine coûtait environ 20 millions de dollars américains à l'époque, soit environ 55 millions de dollars américains en monnaie d'aujourd'hui. Il avait à peu près la taille d'un réfrigérateur de restaurant et consommait environ 350 kw d'électricité, soit à peu près autant qu'un pâté de maisons avec la climatisation à fond. Un Raspberry Pi Zero, sorti il y a quelques années, coûtait 5 USD et avait à peu près les mêmes performances que l'un de ces systèmes. Un simple iPhone ou un téléphone Android haut de gamme que vous transportez dans votre poche et que vous jetez à la poubelle lorsque vous cassez l'écran est à peu près aussi puissant que tous les superordinateurs du monde en 1986 réunis. Une visite dans votre grand magasin local peut vous permettre d'obtenir une machine équivalente à quelques centaines d'iPhones.  

Bien que d'énormes progrès aient été réalisés dans le domaine de l'informatique de l'IA, c'est l'augmentation étonnante de la puissance des ordinateurs et de la capacité à simuler un nombre toujours plus grand de neurones qui a conduit aux capacités remarquables des solutions d'IA d'aujourd'hui.

Des solutions basées sur l'apprentissage profond

En dehors de la ML, presque toutes les autres technologies d'IA actuelles sont basées sur l'apprentissage profond (Deep Learning). L'IA générative est la classification générale des systèmes qui produisent le facteur "wow" dans l'IA d'aujourd'hui. L'IA générative est la capacité de synthétiser de nouveaux résultats, souvent dans le style d'autres données d'entrée. Il peut s'agir d'un son (voix, sons ou musique), d'un visuel (images, films, dessins) ou d'un texte (mots, phrases, paragraphes, poèmes ou paroles, par exemple). Cette production peut être entièrement originale ou réalisée dans le style d'un artiste spécifique (votre moteur de recherche préféré devrait pouvoir trouver des exemples de la voix d'Elvis chantant Baby's Got Back de Sir Mix-a-Lot ou d'une peinture d'un corgi dans le style de Vermeer).

Crédit photo : Casey Rickey

Les grands modèles linguistiques sont des systèmes d'IA générative spécialisés dans le langage humain. À moins que vous ne viviez sous une très grosse pierre, vous avez probablement entendu parler de ChatGPT. ChatGPT est une interface web qui s'ajoute au produit d'AutoAI appelé GPT. ChatGPT est un système remarquable qui, sur la base d'invites et de questions posées par un utilisateur, produit des résultats allant de la perplexité à l'étonnement. ChatGPT se fera un plaisir de faire les devoirs de mathématiques de votre enfant (ou de rédiger son rapport de lecture), de vous écrire une histoire, d'analyser un logiciel ou de vous aider à écrire du code en Python. Le résultat de ChatGPT peut facilement être considéré comme intelligent (bien que la question de savoir si ce résultat représente réellement l'intelligence ou non dépasse le cadre de cet article). Il est certain que les résultats sont suffisamment proches de l'intelligence pour montrer où la technologie pourrait aller dans les cinq prochaines années.

L'apprentissage profond dans le domaine de la sécurité

Jusqu'à présent, les solutions d'IA basées sur les réseaux neuronaux ont été peu intégrées dans les produits de sécurité. Ce n'est certainement pas zéro, mais il y a encore quelques obstacles à franchir avant qu'un fournisseur ne s'engage à incorporer cette technologie.

Si je peux prendre quelques libertés avec le terme "motivation", le premier défaut de la génération actuelle de grands modèles linguistiques est que sa "motivation" est de produire des résultats qui satisfont un utilisateur. Cela semble plutôt bien, jusqu'à ce que vous réalisiez que les résultats qui satisfont un utilisateur ne sont pas nécessairement corrects. Un LLM est tout à fait disposé à se tromper, tant que l'utilisateur est satisfait. En fait, il ne serait même pas exact de dire qu'être correct est une considération secondaire pour un LLM. Si les résultats d'un programme d'éducation et de formation tout au long de la vie s'avèrent exacts, il s'agit plutôt d'un heureux accident, qui ne concerne pas vraiment le programme d'éducation et de formation tout au long de la vie. Si cela convient parfaitement à la rédaction de poèmes assistés par le LLM, cela peut s'avérer problématique lorsqu'il s'agit de contribuer à l'élaboration d'une politique de sécurité.

Deuxièmement, les LLM peuvent encore "échapper à tout contrôle", pour ainsi dire. Par nécessité, les LLM sont formés avec un éventail de connaissances et de données beaucoup plus large que ce qui est strictement nécessaire pour l'usage qui en est fait. En fait, il est parfois utile d'envisager l'utilisation d'un LLM de la même manière que l'embauche d'un salarié. Un employé engagé pour effectuer la tâche dont vous avez besoin a certainement une expérience de vie en dehors de cette tâche. À l'instar d'un employé errant, les mises en œuvre actuelles de la gestion du cycle de vie peuvent être menées en dehors des sujets de conversation sûrs.

Les LLM sont une technologie très récente, et ces questions sont étudiées par de nombreuses personnes très intelligentes. Elles seront sans doute résolues au cours de l'année prochaine. Une fois qu'ils le seront, attendez-vous à toute une série de nouvelles fonctionnalités, notamment des interfaces en langage naturel, la hiérarchisation automatique des problèmes, la référence croisée des problèmes précédemment résolus et des suggestions pour la résolution des problèmes. Dans douze à dix-huit mois, je serais surpris qu'il n'y ait pas sur le marché un produit susceptible de vous envoyer l'e-mail suivant :

Cher utilisateur. Un trafic anormal dont les caractéristiques correspondent à la nouvelle version de CVE-20240101 a été détecté à partir des quatre machines suivantes dans votre centre de données de Dallas à partir de 04:53:07 ce matin : [...] Ces quatre machines ne disposaient pas du correctif XXX, et deux d'entre elles ne disposaient pas non plus du correctif YYY, qui atténuent tous deux CVE-20240101. Comme il s'agissait de serveurs de base de données redondants et qu'une capacité adéquate était disponible pour le basculement, ces machines ont été temporairement déconnectées du réseau. Veuillez cliquer sur >ici< pour réimager, patcher et restaurer automatiquement ces systèmes, ou cliquez sur >ici< pour plus d'informations et d'autres options.

Chacun de ces éléments existe déjà aujourd'hui, au moins dans la phase de recherche. Les LLM peuvent analyser le texte anglais des CVE (common vulnerabilities and exposures). Ils sont capables de comparer les données de ce CVE avec le trafic réseau réel. Ils sont capables d'analyser le volume et la capacité du réseau. Ils sont capables d'analyser les logiciels installés (et manquants) et la configuration d'un système. Ils sont également capables de générer des scripts Ansible pour automatiser la reconstruction des systèmes et la restauration des configurations et des données. Il s'agit simplement d'assembler les pièces du puzzle.

En conclusion

Dans le monde des médias sociaux et de l'information, nous observons l'histoire se dérouler alors que le langage (et, par conséquent, les communications) devient délibérément moins précis. Nous assistons à la mise en œuvre dans le monde réel des leçons de Bernays et d'Orwell. Dans le monde de la technologie, cependant, nous ne sommes pas encore confrontés à ces défis. Nous sommes toujours libres de parler avec précision et exactitude. Le fait de disposer d'un vocabulaire approprié est un élément important à cet égard.

Sujets connexes

No items found.

Articles connexes

Principales actualités de décembre 2023 en matière de cybersécurité
Cyber Resilience

Principales actualités de décembre 2023 en matière de cybersécurité

Découvrez comment gérer la pénurie de compétences en cybersécurité, pourquoi la cyber-résilience est liée au retour sur investissement et comment utiliser les ZTS pour combler les lacunes en matière de sécurité du cloud.

Se préparer à la loi DORA : points de vue de deux experts de la conformité en matière de cybersécurité
Cyber Resilience

Se préparer à la loi DORA : points de vue de deux experts de la conformité en matière de cybersécurité

Tristan Morgan, directeur général de la cybersécurité chez BT, et Mark Hendry, partenaire en services numériques chez Evelyn Partners, vous expliquent comment naviguer dans la conformité DORA.

Ce que le décret du président Biden sur la cybersécurité signifie pour les agences fédérales
Cyber Resilience

Ce que le décret du président Biden sur la cybersécurité signifie pour les agences fédérales

Le décret du président Biden sur la cybersécurité vise à accroître la résilience et à réduire les risques pour les agences gouvernementales.

Il ne faut pas faire confiance à l'IA : Pourquoi comprendre cela peut être transformateur
Cyber Resilience

Il ne faut pas faire confiance à l'IA : Pourquoi comprendre cela peut être transformateur

Découvrez pourquoi le directeur technique et cofondateur d'Illumio pense que la frontière technologique de l'IA "" est plus petite qu'il n'y paraît - et comment cela influence la façon dont nous utilisons l'IA.

L'histoire - et les défis - des pare-feu de nouvelle génération
Cyber Resilience

L'histoire - et les défis - des pare-feu de nouvelle génération

Découvrez l'impulsion donnée par les pare-feu de nouvelle génération (NGFW), les défis qu'ils posent en termes de complexité et les innovations futures possibles.

Explorer l'utilisation de la fonctionnalité NGFW dans un environnement de microsegmentation
Cyber Resilience

Explorer l'utilisation de la fonctionnalité NGFW dans un environnement de microsegmentation

Découvrez les recherches d'Illumio sur les possibilités de mise en œuvre des fonctions NGFW dans un environnement de microsegmentation.

Supposons une rupture.
Minimiser l'impact.
Augmenter la résilience.

Vous souhaitez en savoir plus sur la segmentation zéro confiance ?