Episodio 3: La mente del agente – reglas, lógica y aprendizaje

Ya tenemos claro que un agente de IA percibe su entorno y actúa sobre él… la gran pregunta es: ¿cómo decide qué hacer?  ¿Sigue un manual, improvisa, o aprende sobre la marcha?

Para responderlo, tenemos que meternos en la cabeza, o mejor dicho, en la “mente”, de un agente.

Tipos de mentes artificiales: ¿cómo piensan los agentes?

  1. Agentes reactivos: Son como reflejos automáticos. Perciben algo y reaccionan sin pensar demasiado. Por ejemplo, un detector de humo: si hay humo, activa la alarma. No analiza el contexto, no evalúa opciones. Son sencillos, rápidos, pero limitados. No pueden planificar ni aprender.
  2. Agentes basados en reglas: Acá la cosa mejora. Estos agentes tienen un conjunto de “si pasa A, hacé B”.

Pensemos en un bot de soporte técnico básico:

  • Si el usuario dice «olvidé mi contraseña», el bot responde con instrucciones para recuperarla.
  • Si dice «no puedo conectarme», el bot sugiere revisar la conexión.

Es una lógica programada a mano. Eficaz para escenarios acotados, pero… si aparece una consulta que no está en las reglas, el agente simplemente no sabe qué hacer.

  1. Agentes basados en conocimiento: Imaginemos ahora un sistema médico experto. No solo sigue reglas predefinidas, sino que cuenta con una base de conocimiento sobre enfermedades, síntomas y tratamientos. Puede deducir, razonar, y ofrecer diagnósticos a partir de esa base, incluso combinando datos para llegar a conclusiones nuevas.
    Son más sofisticados, pero también dependen de cuán completa y actualizada esté la base de conocimientos.
  2. Agentes que aprenden: Acá llegamos al siguiente nivel: los agentes que, además de percibir y actuar, aprenden de la experiencia. No solo aplican reglas o consultan un repositorio, sino que mejoran su desempeño cada vez que interactúan con el entorno. ¿Cómo lo logran? A través de un sistema de recompensas y objetivos.

La clave: objetivo y recompensa

Un agente que aprende necesita tener claro qué objetivo perseguir y cómo medir su progreso. Esto se logra con:

  • Función objetivo: el propósito que debe cumplir. Ejemplo: reducir los tiempos de respuesta en soporte técnico.
    Recompensa: una señal que indica si va bien o mal. Si responde rápido y bien, gana puntos; si confunde al usuario, los pierde.

Así, el agente va ajustando sus decisiones para maximizar la recompensa. Como un niño aprendiendo que si ordena sus juguetes recibe un elogio… o una golosina.

¿Y por qué esto es importante?

Porque no todos los problemas requieren el mismo tipo de agente. Algunos pueden resolverse con reglas simples, otros necesitan un experto con mucho conocimiento, y otros solo pueden abordarse con agentes que aprenden y se adaptan a situaciones cambiantes.

En un mundo en constante transformación, tener agentes capaces de aprender puede marcar la diferencia entre quedarse obsoleto o liderar el cambio.

En SMS Sudamérica, cuando diseñamos soluciones inteligentes, no nos casamos con un único tipo de agente. Sabemos que cada desafío necesita un enfoque distinto:

  • Si el problema es recurrente y acotado, aplicamos agentes basados en reglas, rápidos y eficientes.
  • Si el dominio es complejo, como en proyectos industriales o en el sector salud, usamos sistemas basados en conocimiento, con fuentes validadas y estructuras de decisión robustas.
  • Y cuando el entorno es dinámico o incierto, apostamos por agentes que aprenden, capaces de mejorar con el tiempo y adaptarse a nuevas condiciones.

Pero en todos los casos, nuestro diferencial es el mismo: crear agentes que no solo ejecuten tareas, sino que potencien la inteligencia humana. Con transparencia, ética y un propósito claro.

En el próximo episodio de «Historias del Futuro, Hoy!«, vamos a explorar cómo aprenden los agentes por refuerzo, y qué significa que una IA experimente, falle y mejore… igual que nosotros.

Porque el futuro no será de quienes tengan más datos, sino de quienes sepan aprender mejor de ellos.

Nota por: María Dovale Pérez

🔊 Si no tienes tiempo para leer la nota completa, ¡puedes escuchar el debate entre dos IAs sobre el tema! Dale play y descubre sus argumentos: