Orchestration Dynamique de LLM avec EARCP : Une Architecture Robuste et Économique pour la Prise de Décision Séquentielle
Auteur : Mike Amega
Ce papier de recherche présente EARCP (Ensemble Auto-Régulé par Coherence et Performance), une nouvelle architecture algorithmique pour les systèmes basés sur les Grands Modèles de Langage (LLM). Contrairement aux approches traditionnelles qui reposent sur le fine-tuning coûteux de multiples modèles spécialisés, EARCP introduit le concept d'Experts Virtuels dérivés d'un unique modèle via la modulation des hyperparamètres d'inférence. Nous démontrons mathématiquement et empiriquement comment un méta-contrôleur léger peut orchestrer ces experts en temps réel pour minimiser le regret cumulatif, offrant une solution supérieure en termes de coût, de robustesse et d'adaptabilité.
L'adaptation des LLM à des tâches industrielles complexes suit généralement une approche de "spécialisation par le poids" (Fine-Tuning), consistant à ré-entraîner partiellement le modèle sur des datasets spécifiques. Bien qu'efficace, cette méthode souffre de limitations critiques à l'échelle :
-
Explosion des Coûts : Maintenir
$N$ modèles fine-tunés nécessite$N$ fois le stockage et souvent$N$ instances GPU. - Rigidité Comportementale : Un modèle fine-tuné perd sa généralité (oublie catastrophique) et ne peut s'adapter dynamiquement à des contextes changeants sans ré-entraînement.
- Absence de Mécanismes de Sécurité : Un modèle unique est "seul face à l'erreur". S'il hallucine, aucun système interne ne le contredit.
EARCP propose une rupture fondamentale : la spécialisation par l'inférence plutôt que par les poids.
L'innovation centrale d'EARCP réside dans sa capacité à extraire une diversité comportementale d'un modèle unique et gelé.
En modulant simplement la température (
-
L'Expert Factuel (
$T=0.1$ ) : Quasi-déterministe, maximise la probabilité des tokens dominants. Idéal pour la récupération de faits. -
L'Expert Créatif (
$T=1.3$ ) : Explore la queue de la distribution de probabilité. Idéal pour l'idéation ou la simulation de scénarios rares. - L'Expert Critique (System Prompt) : Configuré pour remettre en question les prémisses.
Valeur Ajoutée : Cette approche élimine le besoin de fine-tuning. Un seul déploiement de modèle (ex: Llama-3-70B) suffit pour alimenter une infinité d'agents virtuels, réduisant les coûts d'infrastructure d'un facteur
EARCP agit comme une couche intermédiaire (middleware) entre l'application et le(s) modèle(s).
Le flux de données est le suivant :
- Input Dispatch : La requête utilisateur est envoyée parallèlement à tous les experts.
- Expert Inference : Chaque expert génère une réponse selon sa configuration unique.
-
Orchestration Core : EARCP analyse les sorties pour calculer deux métriques :
-
Performance (
$P$ ) : Score de qualité (ex: validité syntaxique, score d'un juge). -
Cohérence (
$C$ ) : Score de consensus inter-experts (similarité sémantique).
-
Performance (
- Aggregation : Les poids sont mis à jour et la réponse finale est synthétisée.
Contrairement aux heuristiques ad-hoc, EARCP est fondé sur la théorie de l'apprentissage en ligne (Online Learning). Nous modélisons le problème comme une compétition d'experts.
Soit
Où la fonction de perte
Nous prouvons que le regret cumulatif
Cela signifie mathématiquement que la performance moyenne d'EARCP converge vers celle du meilleur expert de l'ensemble.
Ce graphique illustre la convergence rapide de la perte d'EARCP vers la perte minimale (Best Expert), validant la robustesse de l'approche.
Un bras manipulateur doit équilibrer vitesse et sécurité.
- Experts : Contrôleur PID (Rapide) vs Planificateur de Trajectoire (Sûr).
- Résultat : EARCP détecte les obstacles (baisse de cohérence des trajectoires) et transfère instantanément le poids vers le Planificateur Sûr, évitant les collisions sans sacrifier la vitesse en temps normal.
- Experts : Analyseur de Symptômes vs Analyseur de Labo.
- Résultat : En cas de contradiction (Symptômes grippaux mais Labo indiquant une infection bactérienne), la cohérence chute. EARCP signale cette incertitude au médecin plutôt que de risquer une hallucination dangereuse.
EARCP transforme la fragilité des LLM en force. En orchestrant la diversité plutôt qu'en cherchant la perfection d'un modèle unique, nous obtenons des systèmes IA prouvables, flexibles et économiques.
Cette technologie est désormais disponible en open-source.
- Dépôt GitHub : github.com/Volgat/earcp
- Documentation Complète : Documentation Technique
- Installation :
pip install earcp


