/
Cyber Resilience

Die Grenzen des Arbeitsgedächtnisses: Menschliches Gehirn vs. KI-Modelle

KI-Gehirn

In der Informatik bezieht sich der "Arbeitssatz" auf die Datenmenge, die ein Prozessor gleichzeitig verarbeiten kann, um Probleme zu lösen. Diese Idee hat eine interessante Parallele in der menschlichen Kognition, die als "Arbeitsgedächtnis" bekannt ist. Das Arbeitsgedächtnis ist wie ein mentaler Notizblock, auf dem wir Informationen vorübergehend speichern. Es ist unerlässlich, um zu argumentieren und komplexe Entscheidungen zu treffen.

Das Arbeitsgedächtnis hat jedoch eine begrenzte Kapazität, die unsere Fähigkeit, sehr komplizierte Probleme zu lösen, einschränken kann. Diese Erkenntnis ist wichtig, da wir uns in einer Welt bewegen, die zunehmend von KI beeinflusst wird, insbesondere in Bereichen wie der Cybersicherheit.  

Die Bandbreite eines Gehirns  

Die Kognitionswissenschaft hat verschiedene Tests, um die Arbeitsgedächtniskapazität einer Person zu messen. Diese Tests zeigen, dass es eine konsistente Obergrenze gibt, selbst für Menschen, die Ausnahmedenker sind.

Zum Beispiel haben Schachmeister, Mathematiker und Spitzenmusiker erstaunliche Fähigkeiten, aber ihre Arbeitsgedächtniskapazität unterscheidet sich wahrscheinlich nicht wesentlich von der eines durchschnittlichen Menschen. Es scheint, dass die Evolution unser Gehirn auf ein gewisses Maß an kognitiven Fähigkeiten abgestimmt hat. Dies kann es für uns schwierig machen, sehr große, komplexe Probleme vollständig zu verstehen.

Der KI-Vorteil: Skalieren des Kontextfensters (mit Einschränkungen)  

Systeme der künstlichen Intelligenz, insbesondere Large Language Models (LLMs), haben eine Einschränkung, die als "Kontextfenster" bezeichnet wird. Dies ist die Anzahl der Token (Wörter oder Codeteile), die sie gleichzeitig verarbeiten können. Im Gegensatz zu Menschen, deren Arbeitsspeicher fest ist, kann das Kontextfenster einer KI erweitert werden, obwohl dies teuer ist. Mehr GPUs, bessere Algorithmen oder neue Hardware können die Kapazität einer KI erhöhen.

Dieser Ansatz hat jedoch wichtige Grenzen. Auf den ersten Blick scheinen Aufgaben wie das Auffinden von Anomalien in riesigen, komplexen Datensätzen perfekt für LLMs zu sein. Für diese Erkenntnisse scheint es sich zu lohnen, viel Geld für KI-Verarbeitungszeit auszugeben.

Es ist jedoch wichtig zu wissen, dass die Anomalieerkennung oft besser zu traditionellem maschinellem Lernen (ML) und Statistiken passt als zu fortschrittlichen neuronalen Netzen und Deep Learning. Das ist auch gut so: Traditionelle Methoden sind in der Regel berechenbarer und zuverlässiger als manche KI-Anwendungen.

Doch es gibt ein größeres Problem. Die heutigen KI-Modelle und -Anwendungen sind immer noch sehr fehlerhaft. Beispiele wie das Versagen selbstfahrender Autos und LLMs, die überzeugende, aber falsche "Halluzinationen" von sich geben, erinnern uns daran. Bevor wir KI in großem Umfang einsetzen, um große Probleme zu lösen, müssen wir sicherstellen, dass diese Systeme zuverlässig und konsistent korrekt sind.  

Die richtigen Werkzeuge für die richtige Aufgabe finden

Also, wo führt uns das hin? Der Schlüssel liegt darin, zu verstehen, dass menschliche Gehirne und KI-Modelle unterschiedliche Stärken haben. Der Mensch mit seiner unveränderlichen kognitiven Kraft ist gut darin, detaillierte Probleme innerhalb der Grenzen seines Arbeitsgedächtnisses zu lösen. In der Regel suchen wir uns Probleme aus, bei denen wir gute Chancen haben, sie selbst zu lösen.

KI-Modelle hingegen können für Probleme skaliert werden, die für einen menschlichen Verstand zu viel wären. Dieser Ansatz ist aber nur sinnvoll, wenn:

  • Der finanzielle Wert der Lösung ist höher als die Rechenkosten.
  • Das Vertrauen in die Genauigkeit des Ergebnisses ist entscheidend.

Die hohen Kosten für die Verarbeitung komplexer Datensätze und die derzeitigen Grenzen der Erklärbarkeit und Korrektheit bedeuten, dass die Probleme, die wir mit der heutigen KI lösen können, immer noch begrenzt sind. Ihr bester Nutzen besteht derzeit darin, den Umfang und die Komplexität auf eine kleinere Anzahl von Problemen zu reduzieren, die durch menschliche Kognition zugänglich sind.  

KI-Cybersicherheit

Integration von KI in die Cybersicherheit: Ein strategischer Ansatz

In der Cybersicherheit besteht das Ziel nicht nur darin, KI-generierte Bedrohungen mit mehr KI zu bekämpfen, sondern KI auch in Sicherheitsprotokollen klug einzusetzen. Sicherheitsteams müssen klug vorgehen, wie sie in KI investieren, um sicherzustellen, dass sie ihre Fähigkeiten verbessert, ohne neue Schwachstellen zu schaffen.

Illumio tut dies mit KI-Cybersicherheitsfunktionen wie dem Illumio Virtual Advisor, der dialogorientierte Antworten auf Fragen zur Einrichtung und Verwendung von Zero Trust Segmentation bietet. Und die neue KI-gestützte Labeling-Engine bietet sofortige Transparenz in Assets in Rechenzentren und Cloud-Umgebungen, um Unternehmen bei der schnelleren Einführung der Zero-Trust-Segmentierung zu unterstützen.  

Diese Lösungen nutzen KI, um große Datenmengen zu analysieren und gleichzeitig die menschliche Aufsicht in den Mittelpunkt der Sicherheitsentscheidungsfindung zu stellen. Durch die Kombination des dynamischen und anpassungsfähigen Gehirns des Menschen mit der Rechenleistung der KI können Sicherheitsteams die komplexe Welt der modernen Bedrohungen besser bewältigen.

Wird KI die Kosten exponentiell senken und das Vertrauen stärken?

Könnte ein Moore'sches Gesetz die Kosten für Hochleistungs-KI im Laufe der Zeit drastisch senken? Dies ist noch ungewiss. Der Fortschritt der KI hängt nicht nur von der Hardware ab, sondern auch von besseren Algorithmen, verbesserten Datensätzen und Fortschritten bei der Zuverlässigkeit und Vertrauenswürdigkeit von KI-Ergebnissen.

Aus diesem Grund ist es wichtig, die Grenzen und Kosten zu verstehen, die sowohl mit dem menschlichen Arbeitsgedächtnis als auch mit KI-Kontextfenstern verbunden sind. Die Wahl des richtigen Werkzeugs, sei es das menschliche Gehirn oder eine Maschine, erfordert ein klares Verständnis der Größe des Problems, seines potenziellen Wertes, der Kosten für die Suche nach einer Lösung und der Zuverlässigkeit der Ergebnisse. In der Cybersicherheit bedeutet dies, KI strategisch einzusetzen, um die menschlichen Fähigkeiten zu stärken und sicherzustellen, dass die Mischung aus menschlicher Intuition und Maschinenkraft auf wachsendem Vertrauen in KI-Lösungen basiert.

Mit Blick auf die Zukunft wird die Zukunft wahrscheinlich eine starke Partnerschaft zwischen menschlichem Denken und künstlicher Intelligenz beinhalten, die sich gegenseitig bei der Bewältigung der Herausforderungen einer komplizierteren Welt unterstützen.

Möchten Sie mehr über die KI-Angebote der Illumio Zero Trust Segmentation Platform erfahren? Kontaktieren Sie uns noch heute.

Verwandte Themen

No items found.

Verwandte Artikel

ESG-Research: Wie kleine und mittelständische Unternehmen die Unvorbereitetheit vor Sicherheitsverletzungen beheben können
Cyber Resilience

ESG-Research: Wie kleine und mittelständische Unternehmen die Unvorbereitetheit vor Sicherheitsverletzungen beheben können

Erhalten Sie Einblicke in die Ergebnisse der ESG-Forschung des Analystenhauses, um zu erfahren, wie kleine und mittelständische Unternehmen in Bezug auf Zero Trust und den Fortschritt bei der Segmentierung stehen.

Malware-Payloads und Beacons: So beginnt bösartige Kommunikation
Cyber Resilience

Malware-Payloads und Beacons: So beginnt bösartige Kommunikation

Malware-Beacons sind die Art und Weise, wie ein Angreifer Malware über ein Skript ausführen kann. Das Erkennen dieser Technologien hilft bei der Entwicklung von Erkennungs- und Eindämmungsstrategien.

3 Schritte, die CISOs unternehmen müssen, um den Wert der Cybersicherheit nachzuweisen
Cyber Resilience

3 Schritte, die CISOs unternehmen müssen, um den Wert der Cybersicherheit nachzuweisen

Lernen Sie den wertorientierten Sicherheitsansatz kennen, der in der Vorstandsetage erfolgreich ist und Ihr Unternehmen vor neuen Cyberbedrohungen schützt.

8 Fragen, die CISOs zum Thema KI stellen sollten
Cyber Resilience

8 Fragen, die CISOs zum Thema KI stellen sollten

Entdecken Sie acht Fragen, die CISOS berücksichtigen müssen, wenn sie ihre Unternehmen vor KI-gestützten Ransomware-Angriffen schützen.

Kehren Sie zu den Sicherheitsgrundlagen zurück, um sich auf KI-Risiken vorzubereiten
Cyber Resilience

Kehren Sie zu den Sicherheitsgrundlagen zurück, um sich auf KI-Risiken vorzubereiten

Erfahren Sie mehr über die Ansichten von zwei Cybersicherheitsexperten, wie KI funktioniert, wo ihre Schwachstellen liegen und wie Sicherheitsverantwortliche ihre Auswirkungen bekämpfen können.

KI sollte man nicht trauen: Warum das Verständnis transformativ sein kann
Cyber Resilience

KI sollte man nicht trauen: Warum das Verständnis transformativ sein kann

Erfahren Sie, warum der CTO und Mitbegründer von Illumio glaubt, dass die KI-"Tech-Grenze" kleiner ist, als es scheint – und wie dies die Art und Weise beeinflusst, wie wir KI nutzen.

Gehen Sie von einer Sicherheitsverletzung aus.
Minimieren Sie die Auswirkungen.
Erhöhen Sie die Resilienz.

Sind Sie bereit, mehr über Zero Trust-Segmentierung zu erfahren?