Puissante · Locale · Extensible
Une IA qui tourne entièrement sur votre machine. Vos données ne quittent jamais votre ordinateur.
🚀 Démarrage rapide · 🤖 Agents IA · 📡 My_AI Relay · 📖 Documentation
|
💾 Mémoire Vectorielle Étendue 🤖 9 Agents IA Spécialisés 🧠 Mode Thinking 🔌 Intégration MCP (Model Context Protocol) 🌐 API REST Locale |
🔍 Recherche Internet 📄 Traitement de Documents PDF, DOCX, Excel, CSV, Code, images, analyse contextuelle ultra-étendue avec compression intelligente. 📡 Accès Mobile 💼 Workspaces & Sessions 📤 Export Multi-Format |
Chat — Interface style Claude
| Fonctionnalité | Détail |
|---|---|
| 🎨 Design moderne | Interface sombre élégante avec bulles de chat optimisées |
| 🧠 Mode Thinking | Widget de raisonnement animé pour les requêtes complexes |
| 🧭 Barre latérale | Relay, sessions, historique, exports de conversations, base de connaissances |
| 🎓 Feedback RLHF | Notation 1-5 étoiles (☆☆☆☆☆) — feedback enregistré automatiquement |
| 📂 Gestion de fichiers | Glissez-déposez vos fichiers — ajout direct à la mémoire |
| Fonctionnalité | Détail |
|---|---|
| 🤖 Vue d'ensemble | Liste claire de tous les agents avec rôles et descriptions |
| 🧩 Création d'agents personnalisés | Interface de création d'agents sur mesure |
| 🔄 Canvas de workflow visuel (style n8n) | Nœuds connectables, zoom/pan, grille, minimap |
| 🎭 Mode Débat | Confrontation argumentée entre deux agents |
| 📊 Statistiques et monitoring ressources | CPU, RAM, GPU, VRAM, temps d'inférence et tokens/s |
| Agent | Rôle |
|---|---|
| 🐍 CodeAgent | Génération et debug de code multi-langages |
| 🔍 WebAgent | Recherche Internet & Fact-Checking |
| 📊 AnalystAgent | Analyse de données et insights |
| ✨ CreativeAgent | Rédaction et contenu créatif |
| 🐛 DebugAgent | Détection et correction d'erreurs |
| 📋 PlannerAgent | Planification de projets complexes |
| 🛡️ SecurityAgent | Audit de sécurité & vulnérabilités |
| ⚡ OptimizerAgent | Optimisation & Performance |
| 🧬 DataScienceAgent | Data Science & Machine Learning |
- Confidentialité totale : aucune donnée envoyée sur internet
- Fallback intelligent : sans Ollama, l'IA bascule automatiquement en mode patterns/règles
- Modèle personnalisable : température, contexte, system prompt via le
Modelfile - Multi-modèles : texte (
qwen3.5:2b,qwen3.5:4b,mistral...) et vision (minicpm-v,llava,llama3.2-vision...)
- Placez vos fichiers d'enrichissement dans
data/enrichissement/ - Chargement automatique — toutes les Q/R sont fusionnées et accessibles instantanément
- La FAQ répond avant tout autre modèle (priorité maximale)
- Ajoutez, modifiez ou supprimez des fichiers à la volée
- Recherche web en temps réel via DuckDuckGo
- Résumés automatiques et extraction de contenu avec BeautifulSoup
- Traitement parallèle de plusieurs sources simultanément
- Adaptation du format de réponse selon le type de recherche
- Outils locaux pour lire, écrire, déplacer des fichiers et créer des dossiers
- Vérification rigoureuse des chemins complets retournés par les outils pour garantir une gestion précise des fichiers
- Capacité à organiser les espaces de travail de manière autonome
- Dialogue de confirmation avant toute suppression de fichier (sécurité utilisateur)
| Capacité | Valeur |
|---|---|
| 💾 Mémoire vectorielle interne | jusqu'à 10 485 760 tokens |
| 📝 Résumé glissant | automatique dès 24k tokens |
| 🔍 Recherche sémantique | sentence-transformers + HNSW cosinus |
| 🗃️ Base vectorielle | ChromaDB (local) |
- Chunking intelligent avec chevauchement configurable (chunk 256 tokens, overlap 32)
- Auto-optimisation de la mémoire selon l'usage (éviction FIFO)
- Métriques de chunking exposées : overhead de chevauchement, taille moyenne des chunks
my_ai/
├── core/ # Cœur de l'IA
│ ├── __init__.py
│ ├── agent_orchestrator.py # Orchestrateur d'agents
│ ├── ai_engine.py # Moteur principal IA
│ ├── api_server.py # Serveur API REST (FastAPI)
│ ├── chat_orchestrator.py # Orchestrateur de chat (ReAct + Plan & Execute)
│ ├── command_history.py # Historique des commandes utilisateur
│ ├── compression_monitor.py # Moniteur de compression (ratios, métriques)
│ ├── config.py # Gestion de la configuration
│ ├── context_manager.py # Gestion de contexte long
│ ├── conversation_exporter.py # Export conversations (MD/HTML/PDF)
│ ├── conversation.py # Gestion des conversations
│ ├── data_preprocessing.py # Prétraitement des données
│ ├── error_analysis.py # Analyse des erreurs et feedback RLHF
│ ├── evaluation.py # Évaluation des performances et métriques
│ ├── knowledge_base_manager.py # Base de connaissances structurée
│ ├── language_detector.py # Détection automatique de langue
│ ├── mcp_client.py # Client Model Context Protocol (Outils)
│ ├── network.py # Gestion des connexions réseau et proxys
│ ├── optimization.py # Optimisation des performances et ressources
│ ├── rlhf_manager.py # RLHF intégré (feedback automatique)
│ ├── session_manager.py # Gestionnaire de workspaces/sessions
│ ├── shared.py # Modules partagés
│ ├── training_manager.py # Training Manager moderne (pipeline complet)
│ ├── training_pipeline.py # Pipeline d'entraînement local
│ ├── validation.py # Validation des entrées utilisateur
│ └── web_cache.py # Cache web persistant (diskcache)
├── data/ # Données persistantes
│ ├── enrichissement/ # FAQ thématiques
│ ├── knowledge_base/ # Base de faits (SQLite)
│ ├── web_cache/ # Cache des recherches web
│ ├── workspaces/ # Espaces de travail sauvegardés
│ └── data_collection.py # Script de structuration des données
├── docs/ # Documentations
├── examples/ # Exemples d'utilisation
│ └── advanced_features_demo.py # Démonstration des fonctionnalités avancées
├── generators/ # Générateurs de contenu
│ ├── __init__.py
│ ├── document_generator.py # Génération docs avec contexte étendu
│ └── code_generator.py # Génération code avec analyse ultra
├── interfaces/ # Interfaces utilisateur
│ ├── agents/ # Modules Agents IA
│ │ ├── __init__.py
│ │ ├── _common.py # Fonctions communes aux agents
│ │ ├── agent_selection.py # Interface de sélection d'agents
│ │ ├── base.py # Interface de base pour les agents
│ │ ├── custom_agents.py # Gestion des agents personnalisés
│ │ ├── debate.py # Interface de débat entre agents
│ │ ├── drag_drop.py # Interface de glisser-déposer
│ │ ├── execution.py # Gestion de l'exécution des agents
│ │ ├── file_handling.py # Gestion des fichiers pour les agents
│ │ ├── output_area.py # Zone de sortie pour les agents
│ │ ├── output_rendering.py # Rendu de la sortie pour les agents
│ │ ├── stats_section.py # Section de statistiques pour les agents
│ │ ├── syntax_helper.py # Aide syntaxique
│ │ ├── task_input.py # Interface de saisie des tâches pour les agents
│ │ └── workflow.py # Gestion du workflow des agents
│ ├── gui/ # Modules GUI (mixins)
│ │ ├── __init__.py
│ │ ├── animations.py # Animations et transitions modernes
│ │ ├── base.py # Base GUI + écran d'accueil + confirmation MCP
│ │ ├── chat_area.py # Zone de chat
│ │ ├── file_handling.py # Gestion fichiers (drag & drop, attachments)
│ │ ├── layout.py # Layout avec onglets (Chat + Agents)
│ │ ├── markdown_formatting.py # Rendu Markdown avancé (code, tableaux, etc.)
│ │ ├── message_bubbles.py # Bulles de messages avec RLHF
│ │ ├── sidebar.py # Sidebar avec historique et outils
│ │ ├── streaming.py # Gestion du streaming de réponses
│ │ ├── syntax_highlighting.py # Highlighting de code dans les réponses
│ │ └── widgets.py # Widgets personnalisés
│ ├── __init__.py
│ ├── agents_interface.py # Interface Agents IA
│ ├── cli.py # Interface ligne de commande
│ ├── gui_modern.py # Interface moderne (assemblage)
│ ├── modern_styles.py # Styles et thèmes modernes
│ ├── resource_monitor.py # Monitoring ressources système (CPU/RAM/GPU)
│ ├── vscode_extension.py # Extension VS Code
│ └── workflow_canvas.py # Canvas visuel de workflow style n8n
├── memory/ # Mémoire vectorielle
│ ├── vector_store/chroma_db/ # Base de données ChromaDB
│ ├── __init__.py
│ └── vector_memory.py # Mémoire vectorielle avec ChromaDB
├── models/ # Modèles d'IA
│ ├── mixins/ # Mixins (recherche internet, etc.)
│ ├── training_runs/ # Enregistrements des runs d'entraînement
│ ├── weights/ # Poids de modèles entraînés localement
│ ├── __init__.py
│ ├── advanced_code_generator.py # Générateur de code avancé
│ ├── ai_agents.py # Agents IA spécialisés
│ ├── base_ai.py # Interface de base
│ ├── conversation_memory.py # Mémoire conversationnelle avancée
│ ├── custom_ai_model.py # Modèle IA principal avec intentions
│ ├── intelligent_code_orchestrator.py # Orchestrateur pour la génération de code
│ ├── intelligent_document_analyzer.py # Analyseur de documents intelligent
│ ├── internet_search.py # Moteur de recherche internet
│ ├── knowledge_base.py # Base de connaissances locale
│ ├── linguistic_patterns.py # Reconnaissance d'intentions et patterns
│ ├── local_llm.py # Gestionnaire Ollama (détection + fallback)
│ ├── ml_faq_model.py # FAQ avec ML et fuzzy matching
│ ├── real_web_code_generator.py # Générateur de Code Basé sur Recherche Web Pure
│ ├── reasoning_engine.py # Moteur de raisonnement logique
│ ├── smart_code_searcher.py # Recherche de code intelligente
│ ├── smart_web_searcher.py # Système de Recherche Web Intelligent pour Code
│ └── ultra_custom_ai.py # Modèle ULTRA
├── outputs/ # Fichiers générés par l'IA
│ └── exports/ # Conversations exportées (MD/HTML/PDF)
├── processors/ # Processeurs de fichiers
│ ├── __init__.py
│ ├── code_processor.py # Traitement de code avec analyse sémantique
│ ├── docx_processor.py # Traitement DOCX avec compression
│ ├── excel_processor.py # Traitement Excel (.xlsx, .xls) et CSV
│ └── pdf_processor.py # Traitement PDF avec chunking intelligent
├── relay/ # My_AI Relay (accès mobile)
│ ├── __init__.py
│ ├── relay_bridge.py # Pont de synchronisation GUI ↔ Mobile
│ ├── relay_server.py # Serveur FastAPI + WebSocket + tunnel
│ └── static/
│ ├── index.html # Interface mobile PWA (structure)
│ ├── style.css # Styles de l'interface mobile
│ └── app.js # Logique WebSocket et chat
├── tests/ # Tests unitaires
├── tools/ # Outils
├── turboquant/ # Modules d'optimisation et de quantification
├── utils/ # Utilitaires
│ ├── __init__.py
│ ├── file_manager.py # Gestion fichiers
│ ├── file_processor.py # Gestion traitement fichiers
│ ├── intelligent_calculator.py # Calculateur intelligent
│ ├── logger.py # Gestion des logs
│ └── validators.py # Validateurs et utilitaires divers
├── main.py # Point d'entrée principal
├── Modelfile # Configuration modèle Ollama
├── requirements.txt # Dépendances
├── launch.bat # Script pour lancer le programme
├── clean_project.bat # Script pour supprimer les fichiers temporaires
├── create_custom_model.bat # Script pour créer un modèle personnalisé Ollama
└── config.yaml # Configuration
git clone https://github.com/gonicolas12/My_AI
cd My_AIpip install -r requirements.txtLe suivi GPU dans l'onglet Agents nécessite des packages supplémentaires selon votre carte graphique :
# NVIDIA (nécessite les drivers NVIDIA installés)
pip install pynvml GPUtil
# AMD (nécessite ROCm ou les drivers AMDGPU + Microsoft C++ Build Tools)
pip install pyamdgpuinfo
# Windows — tout GPU (infos basiques : nom, VRAM totale)
pip install wmiSans ces packages, l'application fonctionne normalement — les métriques GPU affichent simplement "N/A".
Le projet supporte les proxys standards via variables d'environnement et via config.yaml (section network).
Exemples (PowerShell):
$env:HTTP_PROXY="http://proxy.company.com:8080"
$env:HTTPS_PROXY="http://proxy.company.com:8080"
$env:NO_PROXY="localhost,127.0.0.1,::1"Exemples (Linux/macOS):
export HTTP_PROXY="http://proxy.company.com:8080"
export HTTPS_PROXY="http://proxy.company.com:8080"
export NO_PROXY="localhost,127.0.0.1,::1"Si votre proxy intercepte TLS, renseignez aussi network.ca_bundle dans config.yaml avec le chemin de votre certificat racine (PEM).
Le mode
network.allow_insecure_ssl: trueexiste en dernier recours, mais il est déconseillé en production.
# Télécharger depuis https://ollama.com/download, puis :
# Modèle texte (choisir selon votre RAM)
ollama pull qwen3.5:2b # Ultra léger — réponses concises (4 GB RAM)
ollama pull qwen3.5:4b # Recommandé — léger et rapide (8 GB RAM)
ollama pull qwen3.5:9b # Plus lourd — réponses détaillées (16 GB RAM)
# Modèle vision pour l'analyse d'images
ollama pull minicpm-v # Recommandé — meilleur rapport qualité/vitesse (3 GB)
ollama pull llava # Alternative (4.7 GB)
# Créer le modèle personnalisé
.\create_custom_model.batChanger de modèle : modifiez
llm.local.default_modeldansconfig.yamlet la ligneFROMdans leModelfileavec la même valeur, puis relancezcreate_custom_model.bat. Les deux fichiers doivent toujours être cohérents.
.\launch.batSélectionnez l'option 1 (Interface Graphique), puis patientez.
💡 L'interface intègre des boutons de feedback sous chaque réponse de l'IA. Chaque feedback est automatiquement enregistré pour améliorer le modèle.
.\clean_project.batSi vous observez des comportements inattendus ou des erreurs après plusieurs lancements, ce script supprime tous les fichiers temporaires (logs, caches, historiques) pour repartir sur une base propre.
Parlez à votre IA depuis votre téléphone (iOS/Android), où que vous soyez, tant que l'application tourne sur votre PC.
- Cliquez sur le bouton 📡 Relay dans la barre latérale gauche
- My_AI Relay démarre un serveur WebSocket et ouvre un tunnel sécurisé (cloudflared)
- Scannez le QR code ou copiez l'URL sur votre téléphone
- Chattez depuis votre mobile — les messages apparaissent en temps réel sur le PC
- Joignez images, PDF, DOCX, Excel ou fichiers de code via le bouton + de la zone de saisie mobile : ils sont traités par les mêmes processeurs que le PC (modèle vision pour les images, contexte vectoriel pour les documents)
| Fonctionnalité | Détail |
|---|---|
| 📱 Interface mobile | PWA responsive, thème sombre, style messagerie |
| 🔒 Authentification | Token unique par session ou mot de passe configurable |
| 🌐 Tunnel sécurisé | cloudflared (gratuit, HTTPS automatique) |
| 🔄 Synchronisation | Messages visibles en temps réel sur PC et mobile |
| ⚡ WebSocket | Communication instantanée, indicateur de frappe |
| 📎 Pièces jointes | Images + documents (PDF, DOCX, XLSX, CSV, code) jusqu'à 25 Mo, routés vers vision + contexte |
| 📥 Auto-install | cloudflared est téléchargé automatiquement si absent |
relay:
auto_start: false # Démarrage auto au lancement du GUI
port: 8765 # Port du serveur Relay
response_timeout: 500 # Délai max de réponse IA (secondes)
password: "" # Mot de passe (vide = token aléatoire)
tunnel: true # Activer le tunnel cloudflared
host: "0.0.0.0" # Adresse d'écouteSans cloudflared, le Relay reste accessible sur le réseau local uniquement.
Si Ollama n'est pas installé, la génération de code nécessite une clé API GitHub.
- Rendez-vous sur github.com/settings/tokens
- Cliquez sur "Generate new token" (classic ou fine-grained)
- Accordez les permissions nécessaires (
repo,user, etc.) - Copiez la clé générée
$env:GITHUB_TOKEN="votre_token_github"Sans clé, l'IA utilise automatiquement le backend local et les fonctionnalités GitHub sont désactivées. Consultez
config.yamlpour personnaliser les backends et modèles.
| Document | Description |
|---|---|
| 🏗️ Architecture | Structure technique détaillée |
| 📦 Installation | Guide d'installation complet |
| 🔍 Recherche Internet | Guide complet sur la recherche web |
| ⚡ Optimisation | Conseils et techniques d'optimisation locale |
| 💾 Mémoire Vectorielle 10M | Détails sur la gestion de la mémoire interne étendue |
| 📋 Usage | Exemples d'utilisation et workflows |
| 📝 Changelog | Historique des mises à jour |
| ❓ FAQ | Questions fréquentes et réponses détaillées |
| 📄 Génération de Fichiers | Guide sur la génération de fichiers via l'IA |
| 🤖 Agents IA | Documentation complète sur les agents spécialisés |
| 🎨 Agents GUI | Guide de l'interface graphique agents (canvas, monitoring) |
| 🔌 Intégration MCP | Guide sur le Model Context Protocol |
| 🎓 Fonctionnalités Avancées | RLHF, Training, Compression |
| 💬 Feedback GUI | Boutons de feedback dans l'interface graphique |
| Caractéristique | Description |
|---|---|
| 🎓 RLHF | Apprentissage automatique depuis le feedback utilisateur |
| 🔁 Pipeline d'entraînement | Fine-tuning moderne avec monitoring temps réel |
| 📦 Compression intelligente | Ratios détaillés et métriques exposées |
| 🔀 Hybride Local/Internet | IA locale avec recherche internet optionnelle |
| 🌐 API REST | Serveur FastAPI intégré pour intégrations externes |
| 🧠 Base de connaissances | Extraction automatique de faits depuis les conversations |
| 💼 Multi-workspaces | Sessions isolées avec sauvegarde automatique |
| 📤 Export multi-format | Markdown, HTML et PDF avec métadonnées |
| 🌍 12 langues | Détection automatique de la langue de l'utilisateur |
| 💻 Multiplateforme | Windows · macOS · Linux |
| 🪶 Léger | Fonctionnement optimal sur machines modestes |
| 📡 My_AI Relay | Accès mobile via tunnel sécurisé + WebSocket |
| 🔩 Extensible | Architecture modulaire |
| 🔒 Sécurisé | Données locales protégées |
- 📡 My_AI Relay : Agents et workspaces accessibles depuis le mobile
- 💻 Extension VS Code
- 🔗 Intégrations API tierces
Construit avec ❤️ pour rester local, privé et puissant.



