La Arquitectura de la Cognición Física:
Del Principio Físico al Código Verificado
Misión Central: Cognición vs. Cómputo Determinista
La inteligencia del sistema reside en la capacidad de razonar y planificar, mientras que el rigor y la exactitud se confían a la computación determinista. FeynmanGraph separa estas dos responsabilidades para garantizar soluciones 100% auditables.
El LLM actúa como un Planificador Cognitivo que decide la estrategia, pero la ejecución matemática es delegada a un ecosistema de herramientas especializadas que no alucinan.
La Jerarquía de Ejecución Verificable
El ciclo de resolución de problemas es una delegación controlada que transfiere la responsabilidad entre componentes, garantizando la verificabilidad en cada paso del ciclo ReAct (Razonar-Actuar-Observar).
1. El Planificador (LLM)
Recibe el problema, lo contextualiza con RAG y lo descompone en un plan de ejecución lógico.
2. El Agente Especializado
Recibe un subproblema del plan, elige la herramienta correcta y formatea la entrada.
3. La Herramienta (Tool)
Recibe la instrucción del agente y ejecuta el cálculo exacto usando librerías (SymPy, NumPy).
El Paraguas de Herramientas Científicas
Visualización del ecosistema de herramientas deterministas que los agentes especializados utilizan para garantizar el rigor computacional. Pase el cursor sobre un nodo para ver su suite de herramientas.
Desafíos de la Arquitectura Agente-Herramienta
Obsesión por Herramientas
El agente llama a una herramienta para tareas triviales (ej. 2+2), consumiendo recursos y aumentando la latencia.
Afinamiento Dirigido: El dataset de fine-tuning incluye ejemplos donde el agente resuelve pasos simples con razonamiento directo.
Fallo de Planificación
El agente elige la herramienta equivocada o encadena los pasos en un orden lógicamente incorrecto.
El Planificador es afinado para crear un `ExecutionPlan` robusto y el sistema valida que cada `Observation` tenga sentido.
Límite Computacional
La herramienta (CAS) excede el tiempo límite en problemas de alta complejidad simbólica.
Implementar un Sistema de Caché Lógico para reutilizar resultados intermedios y optimizar el uso de solvers del LNS.
El éxito operativo (Flash Lite 100% vs Pro 60%) demostró que la arquitectura es superior a la inteligencia bruta del modelo.
Preguntas Frecuentes para Físicos
La robustez proviene de las herramientas subyacentes. SymPy está diseñado para manejar casos límite. Cuando un agente encuentra una operación (ej. una integral que diverge), la herramienta no produce una alucinación; devuelve un error definido o un resultado simbólico (ej. ∞). Esta respuesta determinista es crucial para que el agente planificador pueda razonar sobre el resultado.
Sí, a nivel computacional. La traza es un log de invocaciones a funciones deterministas con entradas y salidas explícitas. Cada "Observación" en el ciclo ReAct es el resultado reproducible de una herramienta, verificable como una celda en un notebook de Jupyter. La auditabilidad se refiere a la computación, no a la "cognición" del agente.
No compite, sino que los orquesta. FeynmanGraph no es un solver, es un sistema de razonamiento que *utiliza* solvers. Su rol es recibir un problema, razonar que requiere una simulación de PDE, y luego invocar la herramienta apropiada (un solver FEM) con los parámetros correctos. La investigación se centra en la capa de razonamiento.
El `UnitConverter` está integrado en el ciclo de validación. Tras cada `Observation`, el orquestador verifica que las dimensiones sean físicamente coherentes (ej., no se puede sumar una fuerza a una velocidad). Si se detecta una inconsistencia, se genera un error que obliga al planificador a reevaluar el último paso, garantizando la validez dimensional de toda la derivación.
`SympySolver` es la herramienta primaria y en tiempo real para manipulación simbólica. La validación con `Matlab`/`Maxima` es un proceso de verificación cruzada, más intensivo en recursos, que se utiliza para confirmar resultados críticos o para construir el dataset de entrenamiento. Actúa como una "segunda opinión" de entornos de computación científica establecidos.
Sí, la arquitectura es modular. Añadir una nueva herramienta implica definir su función determinista, crear una API clara y registrarla en el orquestador. El principal desafío de investigación es afinar un agente para que comprenda cuándo y cómo utilizar esta nueva herramienta de forma eficaz y sin ambigüedades.
Únete a la Frontera de la IA Verificable
Invitamos a expertos a contribuir en la vanguardia de la IA para la ciencia, abordando los retos fundamentales de la especialización y la verificación.
Expertos de Dominio
Buscamos físicos teóricos y matemáticos aplicados para expandir el "Paraguas de Herramientas". La colaboración se centra en:
- Identificar y Mapear Dominios: Analizar subcampos de la física (ej. teoría de campos, hidrodinámica) para definir las operaciones matemáticas fundamentales requeridas.
- Formalizar Herramientas: Traducir estos requerimientos en especificaciones para nuevas herramientas deterministas (ej. `tensor_contraction_tool`).
- Crear Datasets de Validación: Generar problemas canónicos para validar la precisión y robustez de los nuevos agentes.
Investigadores de ML
Buscamos especialistas en ML para optimizar la capa de razonamiento y orquestación de nuestros agentes.
- Optimización de Latencia: Reducir el tiempo de invocación de herramientas mediante técnicas avanzadas de fine-tuning (QLoRA).
- Mejora de la Planificación: Aumentar la robustez del "ExecutionPlan" que generan los agentes para evitar fallos de lógica.
- Experimentación HPC: Dirigir experimentos de entrenamiento y fine-tuning en nuestra infraestructura de cómputo de alto rendimiento.