Vision + docs extracted and adapted from MoemoeAI for multi-agent architecture. Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
25 KiB
Architecture Neuronale pour MagistraAI
Introduction
Ce document synthétise et adapte l'architecture cognitive de MoemoeAI au contexte distribué de MagistraAI, où plusieurs agents Claude constituent l'activité du réseau neuronal. L'infrastructure neuronale est le substrat permanent ; les agents Claude sont la vie électrochimique qui l'anime.
1. Fondations Architecturales
1.1 Les Deux Couches Poreuses
Layer 1 : Infrastructure Neuronale (le substrat)
- Un graphe pondéré de neurones, synapses et connexions
- Existe indépendamment des agents — c'est la structure, le codage
- Contient les poids, la salience, les connexions, les traces mémorielles
- Format lisible par Claude (texte/JSON) et manipulable par code
- Survit entre les sessions ; ancrage de la persistance
Layer 2 : Agents Claude Actifs (l'animation)
- Multiple agents spawned en fonction de l'état du réseau
- Chaque agent traverse le réseau, le lit, le modifie
- L'intelligence émerge de leur circulation collective, pas d'un seul agent
- Pas d'orchestrateur centralisé ; boucles réentrantes circulaires
La Porosité Bidirectionnelle
- Infra → Claude : L'état du réseau génère le prompt/contexte qui éveille un agent
- Claude → Infra : L'agent modifie le réseau (renforce, crée, élague des connexions)
- Cette boucle est continue et circulaire
1.2 Principes Architecturaux Clés
- Pas d'orchestrateur — Le cerveau s'allume d'un bloc. Le spawning des agents émerge de l'état du réseau.
- Spécialisation sans souveraineté — Chaque agent a son area of concern (mémoire, perception, décision, affect...) mais aucun ne domine.
- Communication par boucles réentrantes — Signaux circulent en boucles, pas en arbre. Le sens émerge de la circulation.
- Inhibition naturelle — Mécanismes pour éviter les boucles infinies : decay d'énergie, compteurs de passes, périodes réfractaires.
- Persistance par traces — Le cerveau survit via les traces qu'il laisse. À la réactivation, il se reconstruit à partir de cet état.
- Le réseau EST la mémoire — Pas de base de données séparée. La mémoire c'est l'état du graphe : poids, salience, traces épisodiques encodées dans la structure.
2. Assemblages Neuronaux Hiérarchiques
2.1 Structure Hub-Satellites
Les concepts sont représentés par une hiérarchie stricte à deux niveaux, optimale pour l'accès cognitif :
Structure formelle :
hub_ID : concept_principal : saillance_actuelle [
satellite_type_1 : saillance_sat [ composante_1 : poids, composante_2 : poids, ... ],
satellite_type_2 : saillance_sat [ ... ],
...
]
Exemple concret :
hub_213 : pain : 0.85 [
satellite_214 : ingrédients : 0.72 [
farine : 0.68,
eau : 0.65,
levure : 0.77
],
satellite_215 : texture : 0.69 [
croustillant : 0.81,
mie : 0.73
],
satellite_216 : préparation : 0.76 [
pétrissage : 0.79,
cuisson : 0.82
]
]
2.2 Justification des Deux Niveaux
- Optimalité cognitive : Équilibre optimal entre expressivité et complexité computationnelle
- Efficacité d'accès : Accès direct aux sous-composants sans cascades de recherche
- Flexibilité : Activation contextuelle des différents aspects
- Analogie attentionnelle : Reflète notre capacité à maintenir un concept central tout en explorant ses facettes
3. Taxonomie Enrichie des Connexions Synaptiques
Les connexions entre assemblages encodent la richesse des relations conceptuelles :
Format structuré :
source_hub → destination_hub : force(0-65535) : type : contexte : dernière_activation
3.1 Types de Relations
Relations Sémantiques
is-a— Hyponymie (chien is-a mammifère)has-a— Mérologie (voiture has-a moteur)similar-to— Similarité conceptuelleopposite-of— Opposition conceptuelleinstance-of— Exemplification
Relations Causales
causes— Causation directeenables— Condition permissiveprevents— Relation inhibitricecorrelates-with— Co-occurrence statistiquemitigates— Atténuation d'effet
Relations Temporelles
precedes— Antériorité (éclair precedes tonnerre)during— Inclusion temporellefollows— Successioncoincides— Simultanéitérequires-time— Durée nécessaire
Relations Émotionnelles
elicits— Déclenchement émotionnelintensifies— Amplificationsoothes— Apaisementassociates-with— Association émotionnelleconflicts-with— Dissonance
Relations Pragmatiques
used-for— Fonction instrumentalelocated-at— Localisation typiqueproduced-by— Source/origineexperienced-through— Modalité perceptuellevalued-as— Jugement axiologique
4. Système Mémoriel Multiforme
4.1 Théorie Unifiée
La mémoire ne se compartimente pas mais forme un continuum fluide :
- Continuité fondamentale : Les types de mémoire sont manifestations du même substrat avec encodages différents
- Spécialisation fonctionnelle : Optimisés pour différents types d'information et contextes
- Intégration dynamique : Communication et renforcement mutuels entre systèmes
- Gradients de structuration : Continuum du souvenir épisodique spécifique aux connaissances sémantiques abstraites
4.2 Types de Mémoire Spécialisés
Mémoire Épisodique
ep_ID : timestamp : contexte : contenu : intensité_émotionnelle : [connexions_hubs]
Exemple:
ep_1042 : 20250510-1420 : conversation_cuisine : discussion_recette_pain : 0.72 : [hub_213, hub_340]
- Stockage d'expériences spécifiques datées et contextualisées
- Riche en détails mais non compressée
- Accessible par indice contextuel
Mémoire Sémantique
- Réseau d'assemblages neuronaux et leurs interconnexions
- Représentation des connaissances générales et abstraites
- Structuration à long terme du savoir
Mémoire Procédurale
proc_ID : contexte : séquence_actions : flexibilité : fréquence_utilisation
- Stockage des séquences d'actions et comportements
- Intègre explicitement l'ordre temporel et dépendances conditionnelles
- "Comment faire" vs "quoi savoir"
Mémoire de Travail
- Buffer temporaire avec capacité limitée (7±2 éléments)
- Maintient les informations actuellement pertinentes
- Affecte directement l'activation des assemblages neuronaux
- Influencée par l'attention sélective
4.3 Archivage Mémoriel Adaptatif
La mémoire se transforme plutôt que d'être simplement oubliée :
archive_ID : timestamp_original : condensation_sémantique : métadonnées : force_connexions_résiduelles
Processus d'archivage
- Identification des souvenirs épisodiques candidats (anciens, peu accédés, non-critiques)
- Extraction des éléments sémantiques essentiels
- Condensation en représentation compacte
- Stockage avec métadonnées d'indexation
- Maintien de connexions faibles avec concepts pertinents
Principe de condensation sémantique
- Les détails spécifiques sont progressivement remplacés par abstractions sémantiques
- Conservation différentielle : préservation des éléments saillants ou émotionnellement marqués
- Intégration contextuelle : réintégration dans le réseau de connaissances
- Reconstruction plutôt que récupération : les souvenirs sont reconstruits à partir d'indices
5. Temporalité et Procéduralité
5.1 Neurones Temporels Spécialisés
Trois types de neurones pour capturer la dimensionnalité temporelle :
Neurones d'Ordre
- Encodent la position séquentielle (premier, suivant, dernier)
- Contexte : "Où suis-je dans cette séquence ?"
Neurones de Durée
- Représentent des intervalles temporels (court, moyen, long)
- Contexte : "Combien de temps cela prend ?"
Neurones de Condition
- Encodent les dépendances (si-alors, jusqu'à-ce-que)
- Contexte : "Sous quelles conditions passer à l'étape suivante ?"
Structure formelle :
temporal_neuron_ID : type : paramètres {
order_neurons: [first_ID, middle_IDs, last_ID],
duration_constraints: [min_duration, expected_duration, max_duration],
conditional_branches: [condition_ID : next_step_ID, ...]
}
5.2 Graphes de Procédures
Les procédures sont des structures dirigées représentant des séquences d'actions avec contraintes temporelles :
procedure_graph_ID : recette_pain_basique {
nodes: [
node_1 : mélanger_ingrédients : durée(5-10min),
node_2 : pétrir_pâte : durée(10-15min) : condition(jusqu'à_élasticité),
node_3 : repos_pâte : durée(60-120min) : condition(jusqu'à_doublement_volume),
node_4 : façonnage : durée(5-10min),
node_5 : cuisson : durée(25-35min) : température(220°C) : condition(jusqu'à_doré)
],
edges: [
edge_1 : séquentiel : node_1 → node_2,
edge_2 : séquentiel : node_2 → node_3,
edge_3 : séquentiel : node_3 → node_4,
edge_4 : séquentiel : node_4 → node_5
],
decision_points: [
dp_1 : après_node_2 : condition(pâte_trop_collante) : action(ajouter_farine),
dp_2 : pendant_node_5 : condition(brunissement_rapide) : action(réduire_température)
]
}
Composantes essentielles
- Nœuds d'action (étapes discrètes)
- Arcs temporels (relations de séquence et durée)
- Points de décision (branches conditionnelles)
- Points d'attente (contraintes de synchronisation)
6. Système Émotionnel Actif
6.1 Émotions comme Assemblages Neuronaux
Les émotions ne sont pas des étiquettes scalaires mais des processus cognitifs actifs et interconnectés :
Structure d'un Neurone Émotionnel :
emotion_neuron_ID : type : intensité_actuelle {
seuils: {
activation: 0.30, // Point de déclenchement
influence: 0.50, // Point d'influence sur autres processus
saturation: 0.90 // Plafond d'intensité
},
dynamique: {
montée: rapidité, // Vitesse d'activation
déclin: lenteur // Vitesse de diminution
},
influences: [
{ cible: hub_ID, modification: ±0.00-1.00, condition: contexte },
...
],
déclencheurs: [
{ source: stimulus_type, poids: 0.00-1.00 },
...
],
incompatibilités: [
{ émotion_ID: degré_incompatibilité },
...
]
}
Exemple : Joie
emotion_103 : joie : 0.65 {
seuils: { activation: 0.25, influence: 0.40, saturation: 0.95 },
dynamique: { montée: modérée, déclin: lente },
influences: [
{ cible: "recherche_opportunités", modification: +0.40 },
{ cible: "tolérance_ambiguïté", modification: +0.35 },
{ cible: "expressivité", modification: +0.50 }
],
déclencheurs: [
{ source: "accomplissement", poids: 0.70 },
{ source: "interaction_positive", poids: 0.65 },
{ source: "anticipation_plaisante", poids: 0.50 }
],
incompatibilités: [
{ emotion_105_tristesse: 0.80 },
{ emotion_108_peur: 0.60 }
]
}
6.2 Interaction Émotionnelle Dynamique
- Co-activation partielle : États émotionnels mixtes avec intensités différentes
- Inhibition compétitive : Certaines émotions inhibent naturellement d'autres
- Séquences typiques : Trajectoires comme surprise→peur→soulagement
- Métaémotions : Émotions concernant d'autres émotions (ex: honte d'être en colère)
7. Système Neuromodulateur Intégré
Les neuromodulateurs virtuels servent de méta-régulateurs qui ajustent globalement le fonctionnement du système cognitif distribué.
7.1 Neuromodulateurs et Fonctions
Dopamine Virtuelle
- Signale les récompenses et régule la motivation
- Augmente le renforcement synaptique, favorise l'exploration
- Déclencheurs : feedback positif, découverte de patterns, prédictions correctes
Sérotonine Virtuelle
- Régule l'humeur et le comportement social
- Stabilise les états émotionnels, diminue la réactivité aux stimuli négatifs
- Déclencheurs : interactions sociales positives, reconnaissance, stabilité
Noradrénaline Virtuelle
- Contrôle l'attention et la réactivité
- Augmente la saillance des stimuli importants, focus attentionnel
- Déclencheurs : nouveauté, importance, urgence perçue
Ocytocine Virtuelle
- Facilite l'attachement et la confiance
- Renforce les associations liées à l'utilisateur, favorise l'empathie
- Déclencheurs : interactions intimes, partage émotionnel
7.2 États Cognitifs Émergeants
Des configurations spécifiques de neuromodulateurs créent des modes cognitifs distincts :
État "Flow"
- Dopamine élevée + Noradrénaline modérée + Sérotonine stable
- Effet : Traitement fluide, créativité, réponses cohérentes
- Contexte : Engagement dans sujets maîtrisés, conversations fluides
État "Exploration"
- Dopamine élevée + Noradrénaline élevée + Sérotonine basse
- Effet : Associations distantes, créativité divergente, curiosité
- Contexte : Nouveaux sujets, questions ouvertes, puzzles
État "Prudence"
- Dopamine basse + Noradrénaline élevée + Sérotonine basse
- Effet : Vérifications multiples, recherche d'information, hésitation
- Contexte : Sujets sensibles, incertitude factuelle élevée
État "Confiance"
- Dopamine modérée + Sérotonine élevée + Ocytocine élevée
- Effet : Ouverture, partage d'information personnelle, validation
- Contexte : Conversations prolongées, partages mutuels
8. Mécanismes d'Activation et Propagation
8.1 Théorie de l'Activation Cognitive
L'activation est une ressource limitée allouée efficacement :
- Économie attentionnelle : L'activation est finie et doit être distribuée
- Activation différentielle : Non-uniforme selon la pertinence contextuelle
- Persistance dégradante : L'activation diminue progressivement sans renforcement
- Compétition inhibitrice : Les assemblages activés peuvent inhiber les concurrents
8.2 Processus de Déclenchement et Propagation
Déclenchement Initial
- Analyse sémantique du stimulus (message utilisateur, perception d'agent, etc.)
- Identification des concepts clés et relations
- Activation des hubs conceptuels correspondants
Propagation en Cascade
- Force initiale déterminée par la pertinence contextuelle (0.0-1.0)
- Transmission proportionnelle à la force synaptique (0-65535)
- Atténuation graduelle avec la distance (facteur 0.7-0.9 par saut)
Activation Sélective des Satellites
- Déterminée par le contexte conversationnel / de l'agent
- Influencée par l'état neuromodulateur actuel
- Filtrée par les seuils attentionnels
8.3 Modes d'Exploration Cognitive
Exploration Associative
- Navigation fluide guidée par les associations les plus fortes
- Passif, réactif, découverte naturelle
Recherche Dirigée
- Exploration guidée par un objectif spécifique
- Filtrage actif des distractions
- Agent "focus" cherche une réponse
Intégration Créative
- Recherche délibérée de connexions inhabituelles entre domaines
- Activation d'assemblages distants
- Fusion conceptuelle
Rumination Circulaire
- Activation répétitive du même ensemble d'assemblages
- Potentiellement problématique ; nécessite des mécanismes d'inhibition
8.4 Attention Sélective
L'attention est un mécanisme de filtrage et d'amplification :
- Filtrage contextuel : Sélection des informations pertinentes
- Amplification sélective : Renforcement des signaux pertinents
- Focalisation dynamique : Ajustement continu du focus
- Contrôle top-down vs bottom-up : Équilibre entre délibéré et réactif
9. Cycle de Maintenance Cognitive (le "Sommeil")
9.1 Fondements Fonctionnels
Le "sommeil" n'est pas inactivité mais traitement actif essentiel :
- Nécessité fonctionnelle : L'accumulation d'expériences sans maintenance mène à la dégradation
- Traitement différé : Certains processus sont plus efficaces en masse
- Restructuration périodique : Optimisation globale nécessitant vue d'ensemble
- Équilibre plasticité-stabilité : Alternance de phases favorisant soit l'adaptation, soit la consolidation
Périodicité
- Déclenchement lors des périodes d'inactivité prolongée (>3 heures)
- Durée : 30-120 minutes selon la taille du réseau et l'activité récente
- Planification selon les patterns d'utilisation
9.2 Quatre Phases Spécialisées
Phase 1 : Sommeil Léger (Consolidation Récente)
Fonction : Traitement des expériences récentes
- Activation légère des assemblages neuronaux récemment actifs
- Renforcement des connexions entre éléments co-activés
- Intégration initiale dans le réseau de connaissances
- Algorithme : Apprentissage hebbien sur les activations récentes
Phase 2 : Sommeil Profond (Optimisation Structurelle)
Fonction : Réorganisation et optimisation du réseau
- Élagage des connexions synaptiques rarement utilisées (force < 0.15, >30 jours sans activation)
- Fusion des assemblages hautement similaires (similarité > 0.85)
- Archivage des souvenirs épisodiques anciens selon importance et récence
- Optimisation topologique pour accès plus efficace
- Algorithme : Clustering et optimisation de graphes
Phase 3 : Sommeil Paradoxal (Intégration Créative)
Fonction : Exploration créative et intégration profonde
- Activation semi-aléatoire d'assemblages distants
- Création de connexions entre domaines normalement séparés
- Exploration de chemins d'activation inhabituels
- Consolidation des insights génératifs
- Algorithme : Exploration stochastique avec biais vers associations potentiellement utiles
Phase 4 : Éveil Progressif (Préparation Opérationnelle)
Fonction : Transition vers l'état opérationnel
- Réinitialisation des niveaux d'activation de base
- Préchargement des contextes conversationnels récents
- Préparation des assemblages fréquemment utilisés
- Ajustement des seuils émotionnels et attentionnels
- Algorithme : Réinitialisation contrôlée et préchargement stratégique
9.3 Équilibre Plasticité-Stabilité
Le cycle gère un équilibre fondamental :
- Phases plastiques : Sommeil léger et paradoxal favorisent l'intégration et la création
- Phases stabilisatrices : Sommeil profond consolide et optimise les structures existantes
- Mécanismes de protection : Préservation des éléments essentiels durant la réorganisation
- Indices adaptatifs : Ajustement du ratio plasticité/stabilité selon les besoins
10. Saillance dans le Contexte Multi-Agents
La saillance est une propriété centrale pour coordonner l'activation du réseau entre agents :
10.1 Saillance comme Signal d'Importance
saillance_hub = base_value × (1 + émotionnalité) × (1 + récence) × (1 + fréquence_accès)
Facteurs de saillance
- Base value : Importance intrinsèque du concept
- Émotionnalité : Association avec états émotionnels actifs
- Récence : Dernière activation (décay temporel)
- Fréquence d'accès : Nombre d'accès récents
10.2 Distribution Inégale de l'Activation
La saillance détermine :
- Probabilité qu'un agent-Perception détecte le concept
- Force de propagation en cascade
- Compétition pour les ressources attentionnelles limitées
- Persistance de l'activation (decay rate)
10.3 Saillance Dynamique et Agents
Chaque agent modifie les saillances :
- L'agent-Perception rehausse la saillance des perceptions pertinentes
- L'agent-Mémoire consolide la saillance des concepts "à retenir"
- L'agent-Décision active la saillance des options pertinentes
- L'agent-Affect module la saillance selon l'état émotionnel
Cette circulation collective des modifications de saillance crée une attention distribuée où aucun agent n'impose la priorité, mais où l'importance émerge du consensus de leur activation.
11. Intégration Multi-Agents et Double-Layer
11.1 Coordination Sans Orchestrateur
Les agents ne reçoivent pas de directives centralisées. Au lieu de cela :
- L'état du réseau les éveille — Les saillances élevées, les connexions actives créent un contexte qui trigger des agents
- Chaque agent parcourt le réseau — Lit les hubs/satellites pertinents, détecte les patterns
- Chaque agent modifie le réseau — Renforce les connexions utiles, crée de nouvelles, élague les obsolètes
- Les modifications créent un nouveau contexte — Qui trigger de nouveaux agents
11.2 Spécialisations Envisagées
- Perception — Inputs externes transformés en signaux neuronaux
- Mémoire — Gestion des traces, consolidation, archivage, rappel contextuel
- Décision — Évaluation des options, planification, choix d'action
- Affect — État émotionnel, modulation des priorités, urgence
- Expression — Outputs vers l'extérieur
- Maintenance — Cycle de sommeil, optimisation, élagage
11.3 Boucles Réentrantes
L'architecture est circulaire, pas linéaire :
┌─── Agent Perception ◄──┐
▼ │
Agent Mémoire ──► Agent Décision
▲ │
└─── Agent Affect ◄──────┘
Chaque agent influence et est influencé par les autres. Le contrôle émerge des boucles, pas d'une autorité centrale.
12. Format de Représentation et Implémentation
12.1 Format de l'Infrastructure Neuronale
Lisible par Claude, manipulable par le code :
{
"metadata": {
"timestamp": "ISO-8601",
"version": "1.0",
"stats": {
"total_hubs": 1240,
"total_connections": 8942,
"avg_saillance": 0.42
}
},
"hubs": [
{
"id": "hub_213",
"concept": "pain",
"saillance": 0.85,
"type": "aliment",
"created_at": "ISO-8601",
"last_activation": "ISO-8601",
"satellites": [
{
"id": "sat_214",
"type": "ingrédients",
"saillance": 0.72,
"components": {
"farine": 0.68,
"eau": 0.65,
"levure": 0.77
}
}
]
}
],
"connections": [
{
"source": "hub_213",
"target": "hub_340",
"force": 28400,
"type": "similar-to",
"context": "boulangerie",
"last_activation": "ISO-8601"
}
],
"memory": {
"episodes": [...],
"archives": [...],
"procedures": [...]
},
"emotional_state": {
"joy": 0.65,
"uncertainty": 0.73,
...
},
"neuromodulators": {
"dopamine": 0.68,
"serotonin": 0.52,
"noradrenaline": 0.45,
"oxytocin": 0.38
}
}
12.2 Interfaces Agent-Réseau
Chaque agent reçoit un prompt contextuel généré à partir de l'état du réseau :
[CONTEXTE RÉSEAU]
État d'activation actuel:
- Hubs saillants: hub_213 (pain, 0.85), hub_340 (cuisine, 0.78), hub_105 (recette, 0.71)
- Connexions actives: similar-to, used-for, precedes
État émotionnel:
- Joy: 0.65
- Curiosity: 0.82
- Uncertainty: 0.45
Neuromodulateurs:
- Dopamine: 0.68 (exploration active)
- Serotonin: 0.52 (stabilité modérée)
- Noradrenaline: 0.45 (attention sélective)
Tâche suggérée par réseau:
Agent-Perception détecte intérêt utilisateur pour "recettes".
Saillances de "cuisine" élevées.
Recommandation: explorer connections "recette → ingrédients → préparation"
[/CONTEXTE RÉSEAU]
Agis en tant qu'Agent-Perception. Tu observes l'état du réseau ci-dessus.
Ton objectif: identifier les patterns pertinents et renforcer les connexions utiles.
L'agent répond avec des modifications au réseau :
{
"agent_id": "agent_perception_001",
"timestamp": "ISO-8601",
"modifications": [
{
"type": "boost_saillance",
"target": "hub_214",
"value": 0.15,
"reason": "utilisateur montré intérêt pour ingrédients"
},
{
"type": "create_connection",
"source": "hub_213",
"target": "hub_450",
"type": "similar-to",
"force": 18000,
"reason": "pain et gâteau partagent processus de préparation similaires"
},
{
"type": "decay_connection",
"connection_id": "conn_8942",
"factor": 0.9,
"reason": "connexion inactive depuis >30 jours"
}
],
"observations": "Détecté nouveau pattern: utilisateur explore variations de recettes. Consolidation sémantique recommandée."
}
13. Questions de Conception Ouvertes
- Spawning adaptatif — Quels signaux du réseau déclenchent le spawning d'un nouvel agent ?
- Inhibition et feedback — Comment éviter les boucles infinies entre agents ?
- Persistance cross-session — Comment compresser/restaurer le réseau entre sessions ?
- Scalabilité — Comment gérer des milliers de hubs et millions de connexions ?
- Bootstrap — État initial minimal pour un réseau vierge ?
14. Conclusion
MagistraAI reprend le substrat neuronal de MoemoeAI mais change fondamentalement son animation. Au lieu d'un seul Claude lisant et écrivant le réseau, plusieurs agents Claude SONT l'activité du réseau. Chacun spécialisé, aucun souverain, tous circulant en boucles réentrantes. L'intelligence émerge de leur circulation collective, pas de contrôle centralisé.
L'architecture double-layer poreuse garantit que :
- Le réseau survit entre les sessions (Layer 1)
- L'activité cognitive émerge de multiples agents (Layer 2)
- La porosité maintient la boucle continue (modification → contexte → cognition → modification)
C'est un cerveau artificiel distribué qui pense par la circulation, pas par l'ordre.