freshcrate
Home > MCP Servers > My_AI

My_AI

Local-first AI assistant — 9 specialized agents (code, web, debug, security…), 10M token vector memory, mobile relay via secure tunnel, real-time web search and document processing. Runs 100% on your

Description

Local-first AI assistant — 9 specialized agents (code, web, debug, security…), 10M token vector memory, mobile relay via secure tunnel, real-time web search and document processing. Runs 100% on your machine with Ollama. Your data, your control.

README


✨ Points Forts

💾 Mémoire Vectorielle Étendue
Jusqu'à 10 485 760 tokens stockés en mémoire interne (ChromaDB + SQLite).

🤖 9 Agents IA Spécialisés
Code, Debug, Web, Sécurité... et création d'agents personnalisés avec interface style n8n.

🧠 Mode Thinking
Pour les requêtes complexes, l'IA réfléchit étape par étape avant de répondre.

🔌 Intégration MCP (Model Context Protocol)
Connexion standardisée à des outils locaux et serveurs externes (fichiers, git, bases de données).

🌐 API REST Locale
Serveur FastAPI intégré pour piloter l'IA depuis n'importe quel outil externe.

🔍 Recherche Internet
Accès aux informations en temps réel via DuckDuckGo. Résumés automatiques inclus.

📄 Traitement de Documents PDF, DOCX, Excel, CSV, Code, images, analyse contextuelle ultra-étendue avec compression intelligente.

📡 Accès Mobile
Discutez avec votre IA depuis votre téléphone, où que vous soyez, via un tunnel sécurisé.

💼 Workspaces & Sessions
Organisez vos conversations en espaces de travail isolés avec sauvegarde automatique.

📤 Export Multi-Format
Exportez vos conversations en Markdown, HTML ou PDF avec métadonnées complètes.


🖥️ Interface Utilisateur

Chat — Interface style Claude

Interface Chat

Fonctionnalité Détail
🎨 Design moderne Interface sombre élégante avec bulles de chat optimisées
🧠 Mode Thinking Widget de raisonnement animé pour les requêtes complexes
🧭 Barre latérale Relay, sessions, historique, exports de conversations, base de connaissances
🎓 Feedback RLHF Notation 1-5 étoiles (☆☆☆☆☆) — feedback enregistré automatiquement
📂 Gestion de fichiers Glissez-déposez vos fichiers — ajout direct à la mémoire

Agents — Interface dédiée

Interface Agents Interface Workflow

Fonctionnalité Détail
🤖 Vue d'ensemble Liste claire de tous les agents avec rôles et descriptions
🧩 Création d'agents personnalisés Interface de création d'agents sur mesure
🔄 Canvas de workflow visuel (style n8n) Nœuds connectables, zoom/pan, grille, minimap
🎭 Mode Débat Confrontation argumentée entre deux agents
📊 Statistiques et monitoring ressources CPU, RAM, GPU, VRAM, temps d'inférence et tokens/s

⚡ Fonctionnalités Principales

🤖 Système d'Agents IA Spécialisés

Agent Rôle
🐍 CodeAgent Génération et debug de code multi-langages
🔍 WebAgent Recherche Internet & Fact-Checking
📊 AnalystAgent Analyse de données et insights
CreativeAgent Rédaction et contenu créatif
🐛 DebugAgent Détection et correction d'erreurs
📋 PlannerAgent Planification de projets complexes
🛡️ SecurityAgent Audit de sécurité & vulnérabilités
OptimizerAgent Optimisation & Performance
🧬 DataScienceAgent Data Science & Machine Learning

🦙 Intégration Ollama — LLM 100% Local

  • Confidentialité totale : aucune donnée envoyée sur internet
  • Fallback intelligent : sans Ollama, l'IA bascule automatiquement en mode patterns/règles
  • Modèle personnalisable : température, contexte, system prompt via le Modelfile
  • Multi-modèles : texte (qwen3.5:2b, qwen3.5:4b, mistral...) et vision (minicpm-v, llava, llama3.2-vision...)

📚 FAQ Thématique Prioritaire

  • Placez vos fichiers d'enrichissement dans data/enrichissement/
  • Chargement automatique — toutes les Q/R sont fusionnées et accessibles instantanément
  • La FAQ répond avant tout autre modèle (priorité maximale)
  • Ajoutez, modifiez ou supprimez des fichiers à la volée

🔍 Recherche Internet Intelligente

  • Recherche web en temps réel via DuckDuckGo
  • Résumés automatiques et extraction de contenu avec BeautifulSoup
  • Traitement parallèle de plusieurs sources simultanément
  • Adaptation du format de réponse selon le type de recherche

🔌 Accès à tout le PC (Root System) via MCP Local

  • Outils locaux pour lire, écrire, déplacer des fichiers et créer des dossiers
  • Vérification rigoureuse des chemins complets retournés par les outils pour garantir une gestion précise des fichiers
  • Capacité à organiser les espaces de travail de manière autonome
  • Dialogue de confirmation avant toute suppression de fichier (sécurité utilisateur)

💥 Capacités Techniques

Capacité Valeur
💾 Mémoire vectorielle interne jusqu'à 10 485 760 tokens
📝 Résumé glissant automatique dès 24k tokens
🔍 Recherche sémantique sentence-transformers + HNSW cosinus
🗃️ Base vectorielle ChromaDB (local)
  • Chunking intelligent avec chevauchement configurable (chunk 256 tokens, overlap 32)
  • Auto-optimisation de la mémoire selon l'usage (éviction FIFO)
  • Métriques de chunking exposées : overhead de chevauchement, taille moyenne des chunks

🏗️ Architecture du Projet

my_ai/
├── core/                                # Cœur de l'IA
│   ├── __init__.py
│   ├── agent_orchestrator.py            # Orchestrateur d'agents
│   ├── ai_engine.py                     # Moteur principal IA
│   ├── api_server.py                    # Serveur API REST (FastAPI)
│   ├── chat_orchestrator.py             # Orchestrateur de chat (ReAct + Plan & Execute)
│   ├── command_history.py               # Historique des commandes utilisateur
│   ├── compression_monitor.py           # Moniteur de compression (ratios, métriques)
│   ├── config.py                        # Gestion de la configuration
│   ├── context_manager.py               # Gestion de contexte long
│   ├── conversation_exporter.py         # Export conversations (MD/HTML/PDF)
│   ├── conversation.py                  # Gestion des conversations
│   ├── data_preprocessing.py            # Prétraitement des données
│   ├── error_analysis.py                # Analyse des erreurs et feedback RLHF
│   ├── evaluation.py                    # Évaluation des performances et métriques
│   ├── knowledge_base_manager.py        # Base de connaissances structurée
│   ├── language_detector.py             # Détection automatique de langue
│   ├── mcp_client.py                    # Client Model Context Protocol (Outils)
│   ├── network.py                       # Gestion des connexions réseau et proxys
│   ├── optimization.py                  # Optimisation des performances et ressources
│   ├── rlhf_manager.py                  # RLHF intégré (feedback automatique)
│   ├── session_manager.py               # Gestionnaire de workspaces/sessions
│   ├── shared.py                        # Modules partagés
│   ├── training_manager.py              # Training Manager moderne (pipeline complet)
│   ├── training_pipeline.py             # Pipeline d'entraînement local
│   ├── validation.py                    # Validation des entrées utilisateur
│   └── web_cache.py                     # Cache web persistant (diskcache)
├── data/                                # Données persistantes
│   ├── enrichissement/                  # FAQ thématiques
│   ├── knowledge_base/                  # Base de faits (SQLite)
│   ├── web_cache/                       # Cache des recherches web
│   ├── workspaces/                      # Espaces de travail sauvegardés
│   └── data_collection.py               # Script de structuration des données
├── docs/                                # Documentations
├── examples/                            # Exemples d'utilisation
│   └── advanced_features_demo.py        # Démonstration des fonctionnalités avancées
├── generators/                          # Générateurs de contenu
│   ├── __init__.py
│   ├── document_generator.py            # Génération docs avec contexte étendu
│   └── code_generator.py                # Génération code avec analyse ultra
├── interfaces/                          # Interfaces utilisateur
│   ├── agents/                          # Modules Agents IA
│   │   ├── __init__.py
│   │   ├── _common.py                   # Fonctions communes aux agents
│   │   ├── agent_selection.py           # Interface de sélection d'agents
│   │   ├── base.py                      # Interface de base pour les agents
│   │   ├── custom_agents.py             # Gestion des agents personnalisés
│   │   ├── debate.py                    # Interface de débat entre agents
│   │   ├── drag_drop.py                 # Interface de glisser-déposer
│   │   ├── execution.py                 # Gestion de l'exécution des agents
│   │   ├── file_handling.py             # Gestion des fichiers pour les agents
│   │   ├── output_area.py               # Zone de sortie pour les agents
│   │   ├── output_rendering.py          # Rendu de la sortie pour les agents
│   │   ├── stats_section.py             # Section de statistiques pour les agents
│   │   ├── syntax_helper.py             # Aide syntaxique
│   │   ├── task_input.py                # Interface de saisie des tâches pour les agents
│   │   └── workflow.py                  # Gestion du workflow des agents
│   ├── gui/                             # Modules GUI (mixins)
│   │   ├── __init__.py
│   │   ├── animations.py                # Animations et transitions modernes
│   │   ├── base.py                      # Base GUI + écran d'accueil + confirmation MCP
│   │   ├── chat_area.py                 # Zone de chat
│   │   ├── file_handling.py             # Gestion fichiers (drag & drop, attachments)
│   │   ├── layout.py                    # Layout avec onglets (Chat + Agents)
│   │   ├── markdown_formatting.py       # Rendu Markdown avancé (code, tableaux, etc.)
│   │   ├── message_bubbles.py           # Bulles de messages avec RLHF
│   │   ├── sidebar.py                   # Sidebar avec historique et outils
│   │   ├── streaming.py                 # Gestion du streaming de réponses
│   │   ├── syntax_highlighting.py       # Highlighting de code dans les réponses
│   │   └── widgets.py                   # Widgets personnalisés
│   ├── __init__.py
│   ├── agents_interface.py              # Interface Agents IA
│   ├── cli.py                           # Interface ligne de commande
│   ├── gui_modern.py                    # Interface moderne (assemblage)
│   ├── modern_styles.py                 # Styles et thèmes modernes
│   ├── resource_monitor.py              # Monitoring ressources système (CPU/RAM/GPU)
│   ├── vscode_extension.py              # Extension VS Code
│   └── workflow_canvas.py               # Canvas visuel de workflow style n8n
├── memory/                              # Mémoire vectorielle
│   ├── vector_store/chroma_db/          # Base de données ChromaDB
│   ├── __init__.py
│   └── vector_memory.py                 # Mémoire vectorielle avec ChromaDB
├── models/                              # Modèles d'IA
│   ├── mixins/                          # Mixins (recherche internet, etc.)
│   ├── training_runs/                   # Enregistrements des runs d'entraînement
│   ├── weights/                         # Poids de modèles entraînés localement
│   ├── __init__.py
│   ├── advanced_code_generator.py       # Générateur de code avancé
│   ├── ai_agents.py                     # Agents IA spécialisés
│   ├── base_ai.py                       # Interface de base
│   ├── conversation_memory.py           # Mémoire conversationnelle avancée
│   ├── custom_ai_model.py               # Modèle IA principal avec intentions
│   ├── intelligent_code_orchestrator.py # Orchestrateur pour la génération de code
│   ├── intelligent_document_analyzer.py # Analyseur de documents intelligent
│   ├── internet_search.py               # Moteur de recherche internet
│   ├── knowledge_base.py                # Base de connaissances locale
│   ├── linguistic_patterns.py           # Reconnaissance d'intentions et patterns
│   ├── local_llm.py                     # Gestionnaire Ollama (détection + fallback)
│   ├── ml_faq_model.py                  # FAQ avec ML et fuzzy matching
│   ├── real_web_code_generator.py       # Générateur de Code Basé sur Recherche Web Pure
│   ├── reasoning_engine.py              # Moteur de raisonnement logique
│   ├── smart_code_searcher.py           # Recherche de code intelligente
│   ├── smart_web_searcher.py            # Système de Recherche Web Intelligent pour Code
│   └── ultra_custom_ai.py               # Modèle ULTRA
├── outputs/                             # Fichiers générés par l'IA
│   └── exports/                         # Conversations exportées (MD/HTML/PDF)
├── processors/                          # Processeurs de fichiers
│   ├── __init__.py
│   ├── code_processor.py                # Traitement de code avec analyse sémantique
│   ├── docx_processor.py                # Traitement DOCX avec compression
│   ├── excel_processor.py               # Traitement Excel (.xlsx, .xls) et CSV
│   └── pdf_processor.py                 # Traitement PDF avec chunking intelligent
├── relay/                               # My_AI Relay (accès mobile)
│   ├── __init__.py
│   ├── relay_bridge.py                  # Pont de synchronisation GUI ↔ Mobile
│   ├── relay_server.py                  # Serveur FastAPI + WebSocket + tunnel
│   └── static/
│       ├── index.html                   # Interface mobile PWA (structure)
│       ├── style.css                    # Styles de l'interface mobile
│       └── app.js                       # Logique WebSocket et chat
├── tests/                               # Tests unitaires
├── tools/                               # Outils
├── turboquant/                          # Modules d'optimisation et de quantification
├── utils/                               # Utilitaires
│   ├── __init__.py
│   ├── file_manager.py                  # Gestion fichiers
│   ├── file_processor.py                # Gestion traitement fichiers
│   ├── intelligent_calculator.py        # Calculateur intelligent
│   ├── logger.py                        # Gestion des logs
│   └── validators.py                    # Validateurs et utilitaires divers
├── main.py                              # Point d'entrée principal
├── Modelfile                            # Configuration modèle Ollama
├── requirements.txt                     # Dépendances
├── launch.bat                           # Script pour lancer le programme
├── clean_project.bat                    # Script pour supprimer les fichiers temporaires
├── create_custom_model.bat              # Script pour créer un modèle personnalisé Ollama
└── config.yaml                          # Configuration

🚀 Démarrage Rapide

1 · Cloner le dépôt

git clone https://github.com/gonicolas12/My_AI
cd My_AI

2 · Installer les dépendances

pip install -r requirements.txt

🎮 Monitoring GPU (Optionnel)

Le suivi GPU dans l'onglet Agents nécessite des packages supplémentaires selon votre carte graphique :

# NVIDIA (nécessite les drivers NVIDIA installés)
pip install pynvml GPUtil

# AMD (nécessite ROCm ou les drivers AMDGPU + Microsoft C++ Build Tools)
pip install pyamdgpuinfo

# Windows — tout GPU (infos basiques : nom, VRAM totale)
pip install wmi

Sans ces packages, l'application fonctionne normalement — les métriques GPU affichent simplement "N/A".

🌐 Réseaux avec Proxy (Optionnel)

Le projet supporte les proxys standards via variables d'environnement et via config.yaml (section network).

Exemples (PowerShell):

$env:HTTP_PROXY="http://proxy.company.com:8080"
$env:HTTPS_PROXY="http://proxy.company.com:8080"
$env:NO_PROXY="localhost,127.0.0.1,::1"

Exemples (Linux/macOS):

export HTTP_PROXY="http://proxy.company.com:8080"
export HTTPS_PROXY="http://proxy.company.com:8080"
export NO_PROXY="localhost,127.0.0.1,::1"

Si votre proxy intercepte TLS, renseignez aussi network.ca_bundle dans config.yaml avec le chemin de votre certificat racine (PEM).

Le mode network.allow_insecure_ssl: true existe en dernier recours, mais il est déconseillé en production.

3 · Installer Ollama

# Télécharger depuis https://ollama.com/download, puis :

# Modèle texte (choisir selon votre RAM)
ollama pull qwen3.5:2b       # Ultra léger — réponses concises (4 GB RAM) 
ollama pull qwen3.5:4b       # Recommandé — léger et rapide (8 GB RAM)
ollama pull qwen3.5:9b       # Plus lourd — réponses détaillées (16 GB RAM)

# Modèle vision pour l'analyse d'images
ollama pull minicpm-v        # Recommandé — meilleur rapport qualité/vitesse (3 GB)
ollama pull llava            # Alternative (4.7 GB)

# Créer le modèle personnalisé
.\create_custom_model.bat

Changer de modèle : modifiez llm.local.default_model dans config.yaml et la ligne FROM dans le Modelfile avec la même valeur, puis relancez create_custom_model.bat. Les deux fichiers doivent toujours être cohérents.

4 · Lancer l'application

.\launch.bat

Sélectionnez l'option 1 (Interface Graphique), puis patientez.

💡 L'interface intègre des boutons de feedback sous chaque réponse de l'IA. Chaque feedback est automatiquement enregistré pour améliorer le modèle.

🧹 Nettoyage en cas de problème

.\clean_project.bat

Si vous observez des comportements inattendus ou des erreurs après plusieurs lancements, ce script supprime tous les fichiers temporaires (logs, caches, historiques) pour repartir sur une base propre.


📡 My_AI Relay — Accès Mobile

Parlez à votre IA depuis votre téléphone (iOS/Android), où que vous soyez, tant que l'application tourne sur votre PC.

Fonctionnement

  1. Cliquez sur le bouton 📡 Relay dans la barre latérale gauche
  2. My_AI Relay démarre un serveur WebSocket et ouvre un tunnel sécurisé (cloudflared)
  3. Scannez le QR code ou copiez l'URL sur votre téléphone
  4. Chattez depuis votre mobile — les messages apparaissent en temps réel sur le PC
  5. Joignez images, PDF, DOCX, Excel ou fichiers de code via le bouton + de la zone de saisie mobile : ils sont traités par les mêmes processeurs que le PC (modèle vision pour les images, contexte vectoriel pour les documents)

Caractéristiques

Fonctionnalité Détail
📱 Interface mobile PWA responsive, thème sombre, style messagerie
🔒 Authentification Token unique par session ou mot de passe configurable
🌐 Tunnel sécurisé cloudflared (gratuit, HTTPS automatique)
🔄 Synchronisation Messages visibles en temps réel sur PC et mobile
WebSocket Communication instantanée, indicateur de frappe
📎 Pièces jointes Images + documents (PDF, DOCX, XLSX, CSV, code) jusqu'à 25 Mo, routés vers vision + contexte
📥 Auto-install cloudflared est téléchargé automatiquement si absent

Configuration (config.yaml)

relay:
  auto_start: false      # Démarrage auto au lancement du GUI
  port: 8765             # Port du serveur Relay
  response_timeout: 500  # Délai max de réponse IA (secondes)
  password: ""           # Mot de passe (vide = token aléatoire)
  tunnel: true           # Activer le tunnel cloudflared
  host: "0.0.0.0"        # Adresse d'écoute

Sans cloudflared, le Relay reste accessible sur le réseau local uniquement.


🔑 Clé API GitHub (pour la génération de code sans Ollama)

Si Ollama n'est pas installé, la génération de code nécessite une clé API GitHub.

Générer un token

  1. Rendez-vous sur github.com/settings/tokens
  2. Cliquez sur "Generate new token" (classic ou fine-grained)
  3. Accordez les permissions nécessaires (repo, user, etc.)
  4. Copiez la clé générée

Configurer le token

$env:GITHUB_TOKEN="votre_token_github"

Sans clé, l'IA utilise automatiquement le backend local et les fonctionnalités GitHub sont désactivées. Consultez config.yaml pour personnaliser les backends et modèles.


📖 Documentation Complète

Document Description
🏗️ Architecture Structure technique détaillée
📦 Installation Guide d'installation complet
🔍 Recherche Internet Guide complet sur la recherche web
⚡ Optimisation Conseils et techniques d'optimisation locale
💾 Mémoire Vectorielle 10M Détails sur la gestion de la mémoire interne étendue
📋 Usage Exemples d'utilisation et workflows
📝 Changelog Historique des mises à jour
❓ FAQ Questions fréquentes et réponses détaillées
📄 Génération de Fichiers Guide sur la génération de fichiers via l'IA
🤖 Agents IA Documentation complète sur les agents spécialisés
🎨 Agents GUI Guide de l'interface graphique agents (canvas, monitoring)
🔌 Intégration MCP Guide sur le Model Context Protocol
🎓 Fonctionnalités Avancées RLHF, Training, Compression
💬 Feedback GUI Boutons de feedback dans l'interface graphique

🔧 Caractéristiques Techniques

Caractéristique Description
🎓 RLHF Apprentissage automatique depuis le feedback utilisateur
🔁 Pipeline d'entraînement Fine-tuning moderne avec monitoring temps réel
📦 Compression intelligente Ratios détaillés et métriques exposées
🔀 Hybride Local/Internet IA locale avec recherche internet optionnelle
🌐 API REST Serveur FastAPI intégré pour intégrations externes
🧠 Base de connaissances Extraction automatique de faits depuis les conversations
💼 Multi-workspaces Sessions isolées avec sauvegarde automatique
📤 Export multi-format Markdown, HTML et PDF avec métadonnées
🌍 12 langues Détection automatique de la langue de l'utilisateur
💻 Multiplateforme Windows · macOS · Linux
🪶 Léger Fonctionnement optimal sur machines modestes
📡 My_AI Relay Accès mobile via tunnel sécurisé + WebSocket
🔩 Extensible Architecture modulaire
🔒 Sécurisé Données locales protégées

✨ Évolutions Futures

  • 📡 My_AI Relay : Agents et workspaces accessibles depuis le mobile
  • 💻 Extension VS Code
  • 🔗 Intégrations API tierces

Construit avec ❤️ pour rester local, privé et puissant.

Release History

VersionChangesUrgencyDate
v7.2.0## 📡 My_AI Relay — Accès mobile depuis partout Accède à ton IA locale depuis ton smartphone via un tunnel sécurisé cloudflared, avec synchronisation temps réel entre le mobile et le GUI desktop. ### 📱 Nouveau module Relay - Serveur FastAPI + WebSocket sur le port 8765 - Tunnel cloudflared automatique (téléchargement auto si absent) - QR Code généré pour connexion mobile instantanée - Authentification par token SHA-256 ou token aléatoire par session - Interface PWA mobile-first instHigh4/16/2026

Dependencies & License Audit

Loading dependencies...

Similar Packages

LIA-AssistantOpen-source multi-agent AI assistant powered by LangGraph, FastAPI & Next.js — 16+ agents, Human-in-the-Loop, MCP integration, voice TTS, RAG, 500+ metrics, 6 languages.v1.17.1
roampal-coreOutcome-based persistent memory MCP server for Claude Code and OpenCode. Good advice promoted, bad advice demoted. pip install roampal.v0.5.2
py-gptDesktop AI Assistant powered by GPT-5, GPT-4, o1, o3, Gemini, Claude, Ollama, DeepSeek, Perplexity, Grok, Bielik, chat, vision, voice, RAG, image and video generation, agents, tools, MCP, plugins, spev2.7.12
RIGELA Multi-Agentic AI Assistant/Builder0.0.0
mcp-nixosMCP-NixOS - Model Context Protocol Server for NixOS resourcesv2.4.0