La inteligencia artificial (IA) se ha erigido como una columna vertebral de la innovación tecnológica. Para comprender con rigor su alcance y posibilidades, conviene reconocer no sólo su popularidad sino la lógica que la sustenta.
Según Russell y Norvig, la IA puede definirse como “el estudio de agentes que reciben percepciones del entorno y realizan acciones” o, en otras palabras, sistemas que relacionan información del entorno con acciones con el propósito de alcanzar un objetivo. Esta definición pone el foco en tres elementos esenciales: agente, entorno y acción. A lo largo de este artículo veremos las diferencias, similitudes y relación que comparten todos estos agentes de IA, sus tipos, y sus respectivas columnas vertebrales que les permiten funcionar.
Agentes de inteligencia artificial
Podemos entender que un agente de IA no es simplemente un algoritmo, sino algo capaz de percibir su entorno, procesarlo y actuar de acuerdo con esas inferencias. Esta visión clásica, profundamente ligada a la teoría de agentes racionales de la IA, se basa en la interacción continua entre percepción y acción: el agente observa, decide y ejecuta.
IA agéntica
En los últimos años, el término IA agéntica ha adquirido un nuevo significado. Hace referencia a sistemas que no solo reaccionan ante estímulos, sino que inician acciones, planifican, colaboran y persiguen objetivos complejos de manera autónoma.

Estos agentes modernos normalmente impulsados por modelos de lenguaje, arquitecturas de razonamiento y memoria a largo plazo, son capaces de orquestar tareas, comunicarse entre sí y adaptar su comportamiento a contextos dinámicos.
Mientras el agente clásico de Russell y Norvig es un modelo conceptual para describir el comportamiento racional, la IA agéntica representa una implementación práctica y avanzada de esa racionalidad, extendida a sistemas distribuidos, proactivos, capaces de coordinarse y tomar decisiones. Este agente básico lo podemos encontrar a menudo en nuestro día a día, por ejemplo, un termostato que encienda la calefacción de nuestra casa si la temperatura baja de los 22 grados.
Para que un agente actúe de forma verdaderamente “inteligente”, no basta con que siga reglas predefinidas, debe aprender y mejorar a partir de la experiencia tal y como lo hacemos las personas. Aquí entra el aprendizaje automático (machine learning), que permite que los sistemas refinen su comportamiento basándose en los datos. Los algoritmos de ML detectan patrones en grandes volúmenes de información, también conocidos como big data, y ajustan las decisiones del agente, aumentando su autonomía y capacidad adaptativa.
Cuando este aprendizaje se lleva a cabo mediante arquitecturas profundas formadas por múltiples capas de redes neuronales, hablamos de aprendizaje profundo (deep learning). Estas estructuras permiten a los agentes procesar datos no estructurados como lo son las imágenes, el texto o el sonido, y construir representaciones abstractas del mundo que les rodea. Gracias a ello, el agente puede “ver”, “escuchar” o “entender” con un nivel de precisión que antes parecía exclusivo de la inteligencia humana.
Redes neuronales artificiales
Las redes neuronales artificiales son, por tanto, la base del aprendizaje profundo. Inspiradas en el cerebro humano, están formadas por nodos interconectados que transforman señales de entrada en salidas útiles, de la misma forma que nuestras neuronas transforman impulsos recibidos de los sentidos en las acciones y decisiones que tomamos.
De los perceptrones simples a las redes convolucionales y recurrentes, cada arquitectura resuelve un tipo distinto de problema, contribuyendo a que los agentes sean más versátiles y contextualmente conscientes. Un uso de estas redes neuronales artificiales serían los agentes de trading, modelos temporales que toman decisiones sobre si comprar o vender una acción, prediciendo su valor futuro para optimizar las ganancias.
Modelos del lenguaje
Uno de los hitos más visibles de este progreso son los grandes modelos de lenguaje (LLM, large language models), redes neuronales entrenadas con cantidades masivas de texto para comprender y generar lenguaje natural. Estos modelos (como ChatGPT, Claude o Gemini) permiten a los agentes conversar, analizar documentos o asistir en tareas complejas, extendiendo la noción de agente hacia la comunicación y el razonamiento lingüístico.
Transformer en IA
Su base técnica es la arquitectura Transformer, que introdujo un mecanismo de atención capaz de ponderar la relevancia contextual de las palabras o símbolos en una secuencia. Gracias a esta innovación, los modelos pueden procesar texto de forma paralela, con resultados más rápidos y coherentes. Hoy, los Transformers son el corazón de casi todos los sistemas de IA avanzada, desde la traducción automática hasta la visión por computador.
Con estas capacidades, los agentes modernos aprenden no solo a partir de datos, sino también de la transferencia de conocimiento (transfer learning) y del aprendizaje por refuerzo (reinforcement learning). En el primero, el conocimiento adquirido en una tarea se reutiliza para formarla en otra, optimizando recursos. En el segundo, el agente interactúa con su entorno, recibe recompensas o penalizaciones y ajusta su política de acción para maximizar sus resultados. Estas técnicas son el puente hacia una IA que experimenta, se adapta y toma decisiones cada vez más refinadas. Pero la autonomía también exige responsabilidad.
La IA explicable busca que las decisiones de estos agentes basados en LLMs sean comprensibles y trazables, algo crucial en modelos complejos de “caja negra” como lo son este tipo de redes neuronales. A su vez, la seguridad de la IA aborda los riesgos inherentes a la delegación de decisiones en sistemas inteligentes: sesgos, fallos, impactos sociales o éticos. Todo esto busca garantizar que los agentes, y en especial, la nueva IA agéntica, operen de forma segura y responsable.
Como todo sistema informático, la IA agéntica no constituye una solución definitiva ni un atajo hacia el futuro. Más bien, debe entenderse como una herramienta complementaria que empresas, investigadores y desarrolladores pueden aprovechar de manera estratégica. Antes de delegar una tarea en un agente inteligente, conviene analizar si un enfoque determinista o tradicional resultaría más eficiente, seguro o controlable. En última instancia, la adopción de estos sistemas no debe guiarse por la fascinación tecnológica, sino por una evaluación crítica de su pertinencia, impacto y alineación con los objetivos humanos.
El recorrido de los agentes racionales hacia los sistemas basados en arquitecturas Transformer traza una evolución coherente: de modelos que solo reaccionaban ante su entorno, a agentes autónomos y colaborativos capaces de aprender, planificar y convivir en ecosistemas digitales complejos.
Comprender esta transición es esencial para el futuro de la ingeniería del conocimiento: no se trata solo de crear sistemas que piensen, sino de diseñar inteligencias que perciban, razonen y actúen de forma responsable en contextos dinámicos. En siguientes artículos, profundizaremos en las arquitecturas y modelos que conforman la base técnica de esta nueva generación de IA.
Bibliografía
Russell, S., & Norvig, P. (2021). Artificial intelligence: A modern approach (4th ed., Global Edition). Pearson
Sapkota, R., Roumeliotis, K. I., & Karkee, M. (2025). AI Agents vs. Agentic AI: A conceptual taxonomy, applications and challenges. arXiv. https://doi.org/10.48550/arXiv.2505.10468
