Los límites de la memoria de trabajo: cerebros humanos vs. modelos de IA

En informática, el "conjunto de trabajo" se refiere a la cantidad de datos que un procesador puede manejar a la vez para resolver problemas. Esta idea tiene un paralelo interesante en la cognición humana, conocida como "memoria de trabajo". La memoria de trabajo es como un bloc de notas mental donde almacenamos información temporalmente. Es esencial para razonar y tomar decisiones complejas.
Sin embargo, la memoria de trabajo tiene una capacidad limitada que puede limitar nuestra capacidad para abordar problemas muy complicados. Esta información es importante a medida que avanzamos hacia un mundo cada vez más influenciado por la IA, especialmente en campos como la ciberseguridad.
El ancho de banda de un cerebro
La ciencia cognitiva tiene diferentes pruebas para medir la capacidad de memoria de trabajo de una persona. Estas pruebas muestran que existe un límite superior consistente, incluso para personas que son pensadores excepcionales.
Por ejemplo, los maestros de ajedrez, los matemáticos y los mejores músicos tienen habilidades asombrosas, pero su capacidad de memoria de trabajo probablemente no sea muy diferente de la de la persona promedio. Parece que la evolución afinó nuestros cerebros para un cierto nivel de capacidad cognitiva. Esto puede dificultarnos la comprensión completa de problemas muy grandes y complejos.
El beneficio de la IA: escalar la ventana de contexto (con advertencias)
Los sistemas de inteligencia artificial, especialmente los modelos de lenguaje grandes (LLM), tienen una limitación llamada "ventana de contexto". Este es el número de tokens (palabras o partes de código) que pueden manejar a la vez. A diferencia de los humanos, cuya memoria de trabajo es fija, la ventana de contexto de una IA se puede ampliar, aunque es costosa. Más GPU, mejores algoritmos o nuevo hardware pueden aumentar la capacidad de una IA.
Sin embargo, este enfoque tiene límites importantes. Al principio, tareas como encontrar anomalías en conjuntos de datos enormes y complejos parecen perfectas para LLM. Gastar mucho dinero en tiempo de procesamiento de IA puede parecer que vale la pena por estos conocimientos.
Pero es importante saber que la detección de anomalías a menudo encaja mejor con el aprendizaje automático (ML) y las estadísticas tradicionales que con las redes neuronales avanzadas y el aprendizaje profundo. Esto es algo bueno: los métodos tradicionales suelen ser más previsibles y confiables que algunas aplicaciones de IA.
Sin embargo, existe un problema mayor. Los modelos y usos de IA actuales siguen siendo muy defectuosos. Ejemplos como los autos autónomos que fallan y los LLM que hacen "alucinaciones" convincentes pero incorrectas nos recuerdan esto. Antes de emplear la IA ampliamente para resolver grandes problemas, debemos cerciorarnos de que estos sistemas sean fiables y consistentemente correctos.
Encontrar las herramientas adecuadas para el trabajo correcto
Entonces, ¿dónde nos deja esto? La clave es comprender que los cerebros humanos y los modelos de IA tienen diferentes fortalezas. Los humanos, con nuestro poder cognitivo fijo, somos buenos para resolver problemas detallados dentro de los límites de nuestra memoria de trabajo. Por lo general, elegimos problemas que tenemos una buena oportunidad de resolver por nosotros mismos.
Los modelos de IA, por otro lado, se pueden escalar para problemas que serían demasiado para una mente humana. Pero este enfoque solo tiene sentido cuando:
- El valor financiero de la solución es mayor que el costo de cálculo.
- La confianza en la precisión del resultado es crucial.
El alto costo de procesar conjuntos de datos complejos, junto con los límites actuales de explicabilidad y corrección, significa que los problemas que podemos resolver con la IA actual aún son limitados. Su mejor uso es actualmente reducir el alcance y la complejidad a un conjunto más pequeño de problemas abordables a través de la cognición humana.

Integración de la IA en la ciberseguridad: un enfoque estratégico
En ciberseguridad, el objetivo no es solo combatir las amenazas generadas por IA con más IA, sino usar la IA de manera inteligente en los protocolos de seguridad. Los equipos de seguridad deben ser inteligentes sobre cómo invierten en IA, cerciorar de que mejore sus habilidades sin crear nuevas debilidades.
Illumio está haciendo esto con capacidades de ciberseguridad de IA como el Asesor Virtual de Illumio que ofrece respuestas conversacionales a preguntas sobre la configuración y el uso de la segmentación de confianza cero. Y el nuevo motor de etiquetado impulsado por IA brinda visibilidad instantánea de los activos en centros de datos y entornos de nube para ayudar a las organizaciones a adoptar la segmentación de confianza cero más rápido.
Estas soluciones emplean IA para analizar grandes cantidades de datos mientras mantienen la supervisión humana central para la toma de decisiones de seguridad. Al combinar los cerebros dinámicos y adaptables de los humanos con el poder de procesamiento de la IA, los equipos de seguridad pueden manejar mejor el complejo mundo de las amenazas modernas.
¿La IA reducirá exponencialmente los costos y mejorará la confianza?
¿Podría un efecto similar a la Ley de Moore reducir significativamente el costo de la IA de alto rendimiento con el tiempo? Esto aún es incierto. El progreso de la IA depende no solo del hardware, sino también de mejores algoritmos, conjuntos de datos mejorados y avances para hacer que los resultados de la IA sean confiables y dignos de confianza.
Por eso es vital comprender los límites y costos asociados con la memoria de trabajo humana y las ventanas de contexto de IA. Elegir la herramienta adecuada, ya sea el cerebro humano o una máquina, requiere una comprensión clara del tamaño del problema, su valor potencial, los costos de encontrar una solución y qué tan confiables son los resultados. En ciberseguridad, esto significa emplear estratégicamente la IA para impulsar las capacidades humanas, cerciorando que la combinación de intuición humana y potencia de las máquinas se base en una creciente confianza en las soluciones de IA.
De cara al futuro, es probable que el futuro implique una estable asociación entre el pensamiento humano y la inteligencia artificial, en la que cada uno apoye al otro para enfrentar los desafíos de un mundo más complicado.
¿Desea obtener más información sobre las ofertas de IA de la plataforma de segmentación Illumio Zero Trust? Contáctenos hoy.