Cursus
Formation Déployer et utiliser un modèle open source type Mistral (niveau technique)
Objectifs
Décrire les caractéristique et les avantages des principaux modèles open source.
Déployer un modèle Mistral.
Concevoir et créer un chatbot connecté à des documents internes.
Ecrire des scripts Python pour générer des réponses via l'API Mistral.
Appliquer les bonnes pratiques de sécurité et de conformité, y compris le RGPD et les exigences de l'AI Act pour héberger et gérer des données localement.
Pré-requis
Participants
Programme de formation
PANORAMA DES MODÈLES OPEN SOURCE
-
Mistral, Llama 3, Falcon, Gemma
-
Pourquoi choisir un modèle open source ?
-
Modèle vs LLM hébergé (Azure, OpenAI, Anthropic)
DÉPLOIEMENT DE MISTRAL
-
Utiliser Ollama, Text Generation WebUI, HuggingFace
-
Exécution locale vs cloud
-
Premiers tests en ligne de commande ou via API
-
Contraintes matérielles, performance, sécurité
INTÉGRATION SIMPLE VIA API
-
Générer des réponses via l'API Mistral (vLLM, Transformers, etc.)
-
Utiliser l'API dans un script Python
-
Notions de token, prompt, température, top-p...
RAG (RETRIEVAL AUGMENTED GENERATION)
-
Introduction au RAG : ajouter de la mémoire et des données à son IA
-
Intégration avec LangChain / LlamaIndex
-
Créer un chatbot connecté à ses propres documents
BONNES PRATIQUES DE SÉCURITÉ ET CONFORMITÉ
-
RGPD et IA souveraine : héberger les données localement
-
Logs, effacement de données, authentification, isolation
-
Application aux exigences de l'AI Act (registre, gouvernance)
PROTOTYPAGE D'UN USE CASE
-
Création d'un assistant IA métier
-
Déploiement local ou en cloud souverain
-
Présentation de l'architecture technique + plan d'évolution