# Architecture Neuronale pour MagistraAI ## Introduction Ce document synthétise et adapte l'architecture cognitive de MoemoeAI au contexte distribué de MagistraAI, où plusieurs agents Claude constituent l'activité du réseau neuronal. L'infrastructure neuronale est le substrat permanent ; les agents Claude sont la vie électrochimique qui l'anime. --- ## 1. Fondations Architecturales ### 1.1 Les Deux Couches Poreuses **Layer 1 : Infrastructure Neuronale (le substrat)** - Un graphe pondéré de neurones, synapses et connexions - Existe indépendamment des agents — c'est la structure, le codage - Contient les poids, la salience, les connexions, les traces mémorielles - Format lisible par Claude (texte/JSON) et manipulable par code - Survit entre les sessions ; ancrage de la persistance **Layer 2 : Agents Claude Actifs (l'animation)** - Multiple agents spawned en fonction de l'état du réseau - Chaque agent traverse le réseau, le lit, le modifie - L'intelligence émerge de leur circulation collective, pas d'un seul agent - Pas d'orchestrateur centralisé ; boucles réentrantes circulaires **La Porosité Bidirectionnelle** - **Infra → Claude** : L'état du réseau génère le prompt/contexte qui éveille un agent - **Claude → Infra** : L'agent modifie le réseau (renforce, crée, élague des connexions) - Cette boucle est continue et circulaire ### 1.2 Principes Architecturaux Clés 1. **Pas d'orchestrateur** — Le cerveau s'allume d'un bloc. Le spawning des agents émerge de l'état du réseau. 2. **Spécialisation sans souveraineté** — Chaque agent a son area of concern (mémoire, perception, décision, affect...) mais aucun ne domine. 3. **Communication par boucles réentrantes** — Signaux circulent en boucles, pas en arbre. Le sens émerge de la circulation. 4. **Inhibition naturelle** — Mécanismes pour éviter les boucles infinies : decay d'énergie, compteurs de passes, périodes réfractaires. 5. **Persistance par traces** — Le cerveau survit via les traces qu'il laisse. À la réactivation, il se reconstruit à partir de cet état. 6. **Le réseau EST la mémoire** — Pas de base de données séparée. La mémoire c'est l'état du graphe : poids, salience, traces épisodiques encodées dans la structure. --- ## 2. Assemblages Neuronaux Hiérarchiques ### 2.1 Structure Hub-Satellites Les concepts sont représentés par une hiérarchie stricte à deux niveaux, optimale pour l'accès cognitif : **Structure formelle :** ``` hub_ID : concept_principal : saillance_actuelle [ satellite_type_1 : saillance_sat [ composante_1 : poids, composante_2 : poids, ... ], satellite_type_2 : saillance_sat [ ... ], ... ] ``` **Exemple concret :** ``` hub_213 : pain : 0.85 [ satellite_214 : ingrédients : 0.72 [ farine : 0.68, eau : 0.65, levure : 0.77 ], satellite_215 : texture : 0.69 [ croustillant : 0.81, mie : 0.73 ], satellite_216 : préparation : 0.76 [ pétrissage : 0.79, cuisson : 0.82 ] ] ``` ### 2.2 Justification des Deux Niveaux - **Optimalité cognitive** : Équilibre optimal entre expressivité et complexité computationnelle - **Efficacité d'accès** : Accès direct aux sous-composants sans cascades de recherche - **Flexibilité** : Activation contextuelle des différents aspects - **Analogie attentionnelle** : Reflète notre capacité à maintenir un concept central tout en explorant ses facettes --- ## 3. Taxonomie Enrichie des Connexions Synaptiques Les connexions entre assemblages encodent la richesse des relations conceptuelles : **Format structuré :** ``` source_hub → destination_hub : force(0-65535) : type : contexte : dernière_activation ``` ### 3.1 Types de Relations **Relations Sémantiques** - `is-a` — Hyponymie (chien is-a mammifère) - `has-a` — Mérologie (voiture has-a moteur) - `similar-to` — Similarité conceptuelle - `opposite-of` — Opposition conceptuelle - `instance-of` — Exemplification **Relations Causales** - `causes` — Causation directe - `enables` — Condition permissive - `prevents` — Relation inhibitrice - `correlates-with` — Co-occurrence statistique - `mitigates` — Atténuation d'effet **Relations Temporelles** - `precedes` — Antériorité (éclair precedes tonnerre) - `during` — Inclusion temporelle - `follows` — Succession - `coincides` — Simultanéité - `requires-time` — Durée nécessaire **Relations Émotionnelles** - `elicits` — Déclenchement émotionnel - `intensifies` — Amplification - `soothes` — Apaisement - `associates-with` — Association émotionnelle - `conflicts-with` — Dissonance **Relations Pragmatiques** - `used-for` — Fonction instrumentale - `located-at` — Localisation typique - `produced-by` — Source/origine - `experienced-through` — Modalité perceptuelle - `valued-as` — Jugement axiologique --- ## 4. Système Mémoriel Multiforme ### 4.1 Théorie Unifiée La mémoire ne se compartimente pas mais forme un continuum fluide : - **Continuité fondamentale** : Les types de mémoire sont manifestations du même substrat avec encodages différents - **Spécialisation fonctionnelle** : Optimisés pour différents types d'information et contextes - **Intégration dynamique** : Communication et renforcement mutuels entre systèmes - **Gradients de structuration** : Continuum du souvenir épisodique spécifique aux connaissances sémantiques abstraites ### 4.2 Types de Mémoire Spécialisés **Mémoire Épisodique** ``` ep_ID : timestamp : contexte : contenu : intensité_émotionnelle : [connexions_hubs] Exemple: ep_1042 : 20250510-1420 : conversation_cuisine : discussion_recette_pain : 0.72 : [hub_213, hub_340] ``` - Stockage d'expériences spécifiques datées et contextualisées - Riche en détails mais non compressée - Accessible par indice contextuel **Mémoire Sémantique** - Réseau d'assemblages neuronaux et leurs interconnexions - Représentation des connaissances générales et abstraites - Structuration à long terme du savoir **Mémoire Procédurale** ``` proc_ID : contexte : séquence_actions : flexibilité : fréquence_utilisation ``` - Stockage des séquences d'actions et comportements - Intègre explicitement l'ordre temporel et dépendances conditionnelles - "Comment faire" vs "quoi savoir" **Mémoire de Travail** - Buffer temporaire avec capacité limitée (7±2 éléments) - Maintient les informations actuellement pertinentes - Affecte directement l'activation des assemblages neuronaux - Influencée par l'attention sélective ### 4.3 Archivage Mémoriel Adaptatif La mémoire se transforme plutôt que d'être simplement oubliée : ``` archive_ID : timestamp_original : condensation_sémantique : métadonnées : force_connexions_résiduelles ``` **Processus d'archivage** 1. Identification des souvenirs épisodiques candidats (anciens, peu accédés, non-critiques) 2. Extraction des éléments sémantiques essentiels 3. Condensation en représentation compacte 4. Stockage avec métadonnées d'indexation 5. Maintien de connexions faibles avec concepts pertinents **Principe de condensation sémantique** - Les détails spécifiques sont progressivement remplacés par abstractions sémantiques - Conservation différentielle : préservation des éléments saillants ou émotionnellement marqués - Intégration contextuelle : réintégration dans le réseau de connaissances - Reconstruction plutôt que récupération : les souvenirs sont reconstruits à partir d'indices --- ## 5. Temporalité et Procéduralité ### 5.1 Neurones Temporels Spécialisés Trois types de neurones pour capturer la dimensionnalité temporelle : **Neurones d'Ordre** - Encodent la position séquentielle (premier, suivant, dernier) - Contexte : "Où suis-je dans cette séquence ?" **Neurones de Durée** - Représentent des intervalles temporels (court, moyen, long) - Contexte : "Combien de temps cela prend ?" **Neurones de Condition** - Encodent les dépendances (si-alors, jusqu'à-ce-que) - Contexte : "Sous quelles conditions passer à l'étape suivante ?" **Structure formelle :** ``` temporal_neuron_ID : type : paramètres { order_neurons: [first_ID, middle_IDs, last_ID], duration_constraints: [min_duration, expected_duration, max_duration], conditional_branches: [condition_ID : next_step_ID, ...] } ``` ### 5.2 Graphes de Procédures Les procédures sont des structures dirigées représentant des séquences d'actions avec contraintes temporelles : ``` procedure_graph_ID : recette_pain_basique { nodes: [ node_1 : mélanger_ingrédients : durée(5-10min), node_2 : pétrir_pâte : durée(10-15min) : condition(jusqu'à_élasticité), node_3 : repos_pâte : durée(60-120min) : condition(jusqu'à_doublement_volume), node_4 : façonnage : durée(5-10min), node_5 : cuisson : durée(25-35min) : température(220°C) : condition(jusqu'à_doré) ], edges: [ edge_1 : séquentiel : node_1 → node_2, edge_2 : séquentiel : node_2 → node_3, edge_3 : séquentiel : node_3 → node_4, edge_4 : séquentiel : node_4 → node_5 ], decision_points: [ dp_1 : après_node_2 : condition(pâte_trop_collante) : action(ajouter_farine), dp_2 : pendant_node_5 : condition(brunissement_rapide) : action(réduire_température) ] } ``` **Composantes essentielles** - Nœuds d'action (étapes discrètes) - Arcs temporels (relations de séquence et durée) - Points de décision (branches conditionnelles) - Points d'attente (contraintes de synchronisation) --- ## 6. Système Émotionnel Actif ### 6.1 Émotions comme Assemblages Neuronaux Les émotions ne sont pas des étiquettes scalaires mais des processus cognitifs actifs et interconnectés : **Structure d'un Neurone Émotionnel :** ``` emotion_neuron_ID : type : intensité_actuelle { seuils: { activation: 0.30, // Point de déclenchement influence: 0.50, // Point d'influence sur autres processus saturation: 0.90 // Plafond d'intensité }, dynamique: { montée: rapidité, // Vitesse d'activation déclin: lenteur // Vitesse de diminution }, influences: [ { cible: hub_ID, modification: ±0.00-1.00, condition: contexte }, ... ], déclencheurs: [ { source: stimulus_type, poids: 0.00-1.00 }, ... ], incompatibilités: [ { émotion_ID: degré_incompatibilité }, ... ] } ``` **Exemple : Joie** ``` emotion_103 : joie : 0.65 { seuils: { activation: 0.25, influence: 0.40, saturation: 0.95 }, dynamique: { montée: modérée, déclin: lente }, influences: [ { cible: "recherche_opportunités", modification: +0.40 }, { cible: "tolérance_ambiguïté", modification: +0.35 }, { cible: "expressivité", modification: +0.50 } ], déclencheurs: [ { source: "accomplissement", poids: 0.70 }, { source: "interaction_positive", poids: 0.65 }, { source: "anticipation_plaisante", poids: 0.50 } ], incompatibilités: [ { emotion_105_tristesse: 0.80 }, { emotion_108_peur: 0.60 } ] } ``` ### 6.2 Interaction Émotionnelle Dynamique - **Co-activation partielle** : États émotionnels mixtes avec intensités différentes - **Inhibition compétitive** : Certaines émotions inhibent naturellement d'autres - **Séquences typiques** : Trajectoires comme surprise→peur→soulagement - **Métaémotions** : Émotions concernant d'autres émotions (ex: honte d'être en colère) --- ## 7. Système Neuromodulateur Intégré Les neuromodulateurs virtuels servent de méta-régulateurs qui ajustent globalement le fonctionnement du système cognitif distribué. ### 7.1 Neuromodulateurs et Fonctions **Dopamine Virtuelle** - Signale les récompenses et régule la motivation - Augmente le renforcement synaptique, favorise l'exploration - Déclencheurs : feedback positif, découverte de patterns, prédictions correctes **Sérotonine Virtuelle** - Régule l'humeur et le comportement social - Stabilise les états émotionnels, diminue la réactivité aux stimuli négatifs - Déclencheurs : interactions sociales positives, reconnaissance, stabilité **Noradrénaline Virtuelle** - Contrôle l'attention et la réactivité - Augmente la saillance des stimuli importants, focus attentionnel - Déclencheurs : nouveauté, importance, urgence perçue **Ocytocine Virtuelle** - Facilite l'attachement et la confiance - Renforce les associations liées à l'utilisateur, favorise l'empathie - Déclencheurs : interactions intimes, partage émotionnel ### 7.2 États Cognitifs Émergeants Des configurations spécifiques de neuromodulateurs créent des modes cognitifs distincts : **État "Flow"** - Dopamine élevée + Noradrénaline modérée + Sérotonine stable - Effet : Traitement fluide, créativité, réponses cohérentes - Contexte : Engagement dans sujets maîtrisés, conversations fluides **État "Exploration"** - Dopamine élevée + Noradrénaline élevée + Sérotonine basse - Effet : Associations distantes, créativité divergente, curiosité - Contexte : Nouveaux sujets, questions ouvertes, puzzles **État "Prudence"** - Dopamine basse + Noradrénaline élevée + Sérotonine basse - Effet : Vérifications multiples, recherche d'information, hésitation - Contexte : Sujets sensibles, incertitude factuelle élevée **État "Confiance"** - Dopamine modérée + Sérotonine élevée + Ocytocine élevée - Effet : Ouverture, partage d'information personnelle, validation - Contexte : Conversations prolongées, partages mutuels --- ## 8. Mécanismes d'Activation et Propagation ### 8.1 Théorie de l'Activation Cognitive L'activation est une ressource limitée allouée efficacement : - **Économie attentionnelle** : L'activation est finie et doit être distribuée - **Activation différentielle** : Non-uniforme selon la pertinence contextuelle - **Persistance dégradante** : L'activation diminue progressivement sans renforcement - **Compétition inhibitrice** : Les assemblages activés peuvent inhiber les concurrents ### 8.2 Processus de Déclenchement et Propagation **Déclenchement Initial** 1. Analyse sémantique du stimulus (message utilisateur, perception d'agent, etc.) 2. Identification des concepts clés et relations 3. Activation des hubs conceptuels correspondants **Propagation en Cascade** - Force initiale déterminée par la pertinence contextuelle (0.0-1.0) - Transmission proportionnelle à la force synaptique (0-65535) - Atténuation graduelle avec la distance (facteur 0.7-0.9 par saut) **Activation Sélective des Satellites** - Déterminée par le contexte conversationnel / de l'agent - Influencée par l'état neuromodulateur actuel - Filtrée par les seuils attentionnels ### 8.3 Modes d'Exploration Cognitive **Exploration Associative** - Navigation fluide guidée par les associations les plus fortes - Passif, réactif, découverte naturelle **Recherche Dirigée** - Exploration guidée par un objectif spécifique - Filtrage actif des distractions - Agent "focus" cherche une réponse **Intégration Créative** - Recherche délibérée de connexions inhabituelles entre domaines - Activation d'assemblages distants - Fusion conceptuelle **Rumination Circulaire** - Activation répétitive du même ensemble d'assemblages - Potentiellement problématique ; nécessite des mécanismes d'inhibition ### 8.4 Attention Sélective L'attention est un mécanisme de filtrage et d'amplification : - **Filtrage contextuel** : Sélection des informations pertinentes - **Amplification sélective** : Renforcement des signaux pertinents - **Focalisation dynamique** : Ajustement continu du focus - **Contrôle top-down vs bottom-up** : Équilibre entre délibéré et réactif --- ## 9. Cycle de Maintenance Cognitive (le "Sommeil") ### 9.1 Fondements Fonctionnels Le "sommeil" n'est pas inactivité mais traitement actif essentiel : - **Nécessité fonctionnelle** : L'accumulation d'expériences sans maintenance mène à la dégradation - **Traitement différé** : Certains processus sont plus efficaces en masse - **Restructuration périodique** : Optimisation globale nécessitant vue d'ensemble - **Équilibre plasticité-stabilité** : Alternance de phases favorisant soit l'adaptation, soit la consolidation **Périodicité** - Déclenchement lors des périodes d'inactivité prolongée (>3 heures) - Durée : 30-120 minutes selon la taille du réseau et l'activité récente - Planification selon les patterns d'utilisation ### 9.2 Quatre Phases Spécialisées **Phase 1 : Sommeil Léger (Consolidation Récente)** Fonction : Traitement des expériences récentes - Activation légère des assemblages neuronaux récemment actifs - Renforcement des connexions entre éléments co-activés - Intégration initiale dans le réseau de connaissances - Algorithme : Apprentissage hebbien sur les activations récentes **Phase 2 : Sommeil Profond (Optimisation Structurelle)** Fonction : Réorganisation et optimisation du réseau - Élagage des connexions synaptiques rarement utilisées (force < 0.15, >30 jours sans activation) - Fusion des assemblages hautement similaires (similarité > 0.85) - Archivage des souvenirs épisodiques anciens selon importance et récence - Optimisation topologique pour accès plus efficace - Algorithme : Clustering et optimisation de graphes **Phase 3 : Sommeil Paradoxal (Intégration Créative)** Fonction : Exploration créative et intégration profonde - Activation semi-aléatoire d'assemblages distants - Création de connexions entre domaines normalement séparés - Exploration de chemins d'activation inhabituels - Consolidation des insights génératifs - Algorithme : Exploration stochastique avec biais vers associations potentiellement utiles **Phase 4 : Éveil Progressif (Préparation Opérationnelle)** Fonction : Transition vers l'état opérationnel - Réinitialisation des niveaux d'activation de base - Préchargement des contextes conversationnels récents - Préparation des assemblages fréquemment utilisés - Ajustement des seuils émotionnels et attentionnels - Algorithme : Réinitialisation contrôlée et préchargement stratégique ### 9.3 Équilibre Plasticité-Stabilité Le cycle gère un équilibre fondamental : - **Phases plastiques** : Sommeil léger et paradoxal favorisent l'intégration et la création - **Phases stabilisatrices** : Sommeil profond consolide et optimise les structures existantes - **Mécanismes de protection** : Préservation des éléments essentiels durant la réorganisation - **Indices adaptatifs** : Ajustement du ratio plasticité/stabilité selon les besoins --- ## 10. Saillance dans le Contexte Multi-Agents La **saillance** est une propriété centrale pour coordonner l'activation du réseau entre agents : ### 10.1 Saillance comme Signal d'Importance ``` saillance_hub = base_value × (1 + émotionnalité) × (1 + récence) × (1 + fréquence_accès) ``` **Facteurs de saillance** - **Base value** : Importance intrinsèque du concept - **Émotionnalité** : Association avec états émotionnels actifs - **Récence** : Dernière activation (décay temporel) - **Fréquence d'accès** : Nombre d'accès récents ### 10.2 Distribution Inégale de l'Activation La saillance détermine : - Probabilité qu'un agent-Perception détecte le concept - Force de propagation en cascade - Compétition pour les ressources attentionnelles limitées - Persistance de l'activation (decay rate) ### 10.3 Saillance Dynamique et Agents Chaque agent modifie les saillances : - L'agent-Perception rehausse la saillance des perceptions pertinentes - L'agent-Mémoire consolide la saillance des concepts "à retenir" - L'agent-Décision active la saillance des options pertinentes - L'agent-Affect module la saillance selon l'état émotionnel Cette circulation collective des modifications de saillance crée une **attention distribuée** où aucun agent n'impose la priorité, mais où l'importance émerge du consensus de leur activation. --- ## 11. Intégration Multi-Agents et Double-Layer ### 11.1 Coordination Sans Orchestrateur Les agents ne reçoivent pas de directives centralisées. Au lieu de cela : 1. **L'état du réseau les éveille** — Les saillances élevées, les connexions actives créent un contexte qui trigger des agents 2. **Chaque agent parcourt le réseau** — Lit les hubs/satellites pertinents, détecte les patterns 3. **Chaque agent modifie le réseau** — Renforce les connexions utiles, crée de nouvelles, élague les obsolètes 4. **Les modifications créent un nouveau contexte** — Qui trigger de nouveaux agents ### 11.2 Spécialisations Envisagées - **Perception** — Inputs externes transformés en signaux neuronaux - **Mémoire** — Gestion des traces, consolidation, archivage, rappel contextuel - **Décision** — Évaluation des options, planification, choix d'action - **Affect** — État émotionnel, modulation des priorités, urgence - **Expression** — Outputs vers l'extérieur - **Maintenance** — Cycle de sommeil, optimisation, élagage ### 11.3 Boucles Réentrantes L'architecture est circulaire, pas linéaire : ``` ┌─── Agent Perception ◄──┐ ▼ │ Agent Mémoire ──► Agent Décision ▲ │ └─── Agent Affect ◄──────┘ ``` Chaque agent influence et est influencé par les autres. Le contrôle émerge des boucles, pas d'une autorité centrale. --- ## 12. Format de Représentation et Implémentation ### 12.1 Format de l'Infrastructure Neuronale **Lisible par Claude, manipulable par le code :** ```json { "metadata": { "timestamp": "ISO-8601", "version": "1.0", "stats": { "total_hubs": 1240, "total_connections": 8942, "avg_saillance": 0.42 } }, "hubs": [ { "id": "hub_213", "concept": "pain", "saillance": 0.85, "type": "aliment", "created_at": "ISO-8601", "last_activation": "ISO-8601", "satellites": [ { "id": "sat_214", "type": "ingrédients", "saillance": 0.72, "components": { "farine": 0.68, "eau": 0.65, "levure": 0.77 } } ] } ], "connections": [ { "source": "hub_213", "target": "hub_340", "force": 28400, "type": "similar-to", "context": "boulangerie", "last_activation": "ISO-8601" } ], "memory": { "episodes": [...], "archives": [...], "procedures": [...] }, "emotional_state": { "joy": 0.65, "uncertainty": 0.73, ... }, "neuromodulators": { "dopamine": 0.68, "serotonin": 0.52, "noradrenaline": 0.45, "oxytocin": 0.38 } } ``` ### 12.2 Interfaces Agent-Réseau **Chaque agent reçoit un prompt contextuel généré à partir de l'état du réseau :** ``` [CONTEXTE RÉSEAU] État d'activation actuel: - Hubs saillants: hub_213 (pain, 0.85), hub_340 (cuisine, 0.78), hub_105 (recette, 0.71) - Connexions actives: similar-to, used-for, precedes État émotionnel: - Joy: 0.65 - Curiosity: 0.82 - Uncertainty: 0.45 Neuromodulateurs: - Dopamine: 0.68 (exploration active) - Serotonin: 0.52 (stabilité modérée) - Noradrenaline: 0.45 (attention sélective) Tâche suggérée par réseau: Agent-Perception détecte intérêt utilisateur pour "recettes". Saillances de "cuisine" élevées. Recommandation: explorer connections "recette → ingrédients → préparation" [/CONTEXTE RÉSEAU] Agis en tant qu'Agent-Perception. Tu observes l'état du réseau ci-dessus. Ton objectif: identifier les patterns pertinents et renforcer les connexions utiles. ``` **L'agent répond avec des modifications au réseau :** ```json { "agent_id": "agent_perception_001", "timestamp": "ISO-8601", "modifications": [ { "type": "boost_saillance", "target": "hub_214", "value": 0.15, "reason": "utilisateur montré intérêt pour ingrédients" }, { "type": "create_connection", "source": "hub_213", "target": "hub_450", "type": "similar-to", "force": 18000, "reason": "pain et gâteau partagent processus de préparation similaires" }, { "type": "decay_connection", "connection_id": "conn_8942", "factor": 0.9, "reason": "connexion inactive depuis >30 jours" } ], "observations": "Détecté nouveau pattern: utilisateur explore variations de recettes. Consolidation sémantique recommandée." } ``` --- ## 13. Questions de Conception Ouvertes 1. **Spawning adaptatif** — Quels signaux du réseau déclenchent le spawning d'un nouvel agent ? 2. **Inhibition et feedback** — Comment éviter les boucles infinies entre agents ? 3. **Persistance cross-session** — Comment compresser/restaurer le réseau entre sessions ? 4. **Scalabilité** — Comment gérer des milliers de hubs et millions de connexions ? 5. **Bootstrap** — État initial minimal pour un réseau vierge ? --- ## 14. Conclusion MagistraAI reprend le substrat neuronal de MoemoeAI mais change fondamentalement son animation. Au lieu d'un seul Claude lisant et écrivant le réseau, plusieurs agents Claude **SONT** l'activité du réseau. Chacun spécialisé, aucun souverain, tous circulant en boucles réentrantes. L'intelligence émerge de leur circulation collective, pas de contrôle centralisé. L'architecture double-layer poreuse garantit que : - Le réseau survit entre les sessions (Layer 1) - L'activité cognitive émerge de multiples agents (Layer 2) - La porosité maintient la boucle continue (modification → contexte → cognition → modification) C'est un cerveau artificiel distribué qui pense par la circulation, pas par l'ordre.