MCP (Model Context Protocol) est un protocole de contexte de modèle lancé par Anthropic, permettant aux modèles d’IA (comme Claude, GPT, etc.) d’appeler des outils externes via une interface standardisée. Grâce au Luma MCP Server fourni par AceData Cloud, vous pouvez générer directement des vidéos AI dans des clients AI tels que Claude Desktop, VS Code, Cursor, etc.Documentation Index
Fetch the complete documentation index at: https://docs.acedata.cloud/llms.txt
Use this file to discover all available pages before exploring further.
Vue d’ensemble des fonctionnalités
Luma MCP Server offre les fonctionnalités clés suivantes :- Génération de vidéos à partir de texte — Générer des vidéos de haute qualité à partir de mots-clés textuels
- Génération de vidéos à partir d’images — Générer des vidéos à partir d’une image de départ ou d’arrivée
- Continuation de vidéos — Continuer la génération à partir de la dernière image d’une vidéo existante
- Multiples rapports d’aspect — Prise en charge de plusieurs rapports tels que 16:9, 9:16, 1:1, etc.
- Amélioration de l’image — Fonctionnalité d’amélioration de la qualité visuelle optionnelle
- Interrogation de tâches — Surveiller l’avancement de la génération et obtenir des résultats
Préparations préalables
Avant utilisation, vous devez obtenir un token API AceData Cloud :- Inscrivez-vous ou connectez-vous à la plateforme AceData Cloud
- Rendez-vous sur la page Luma Videos API
- Cliquez sur « Acquire » pour obtenir un token API (première demande avec un quota gratuit)
Installation et configuration
Méthode 1 : Installation via pip (recommandée)
Méthode 2 : Installation à partir du code source
mcp-luma pour démarrer le service.
Utilisation dans Claude Desktop
Éditez le fichier de configuration de Claude Desktop :- macOS :
~/Library/Application Support/Claude/claude_desktop_config.json - Windows :
%APPDATA%\Claude\claude_desktop_config.json
uvx (pas besoin d’installer le package à l’avance) :
Utilisation dans VS Code / Cursor
Créez un fichier.vscode/mcp.json dans le répertoire racine du projet :
uvx :
Liste des outils disponibles
| Nom de l’outil | Description |
|---|---|
luma_generate_video | Générer une vidéo à partir de mots-clés textuels |
luma_generate_video_from_image | Générer une vidéo à partir d’une image |
luma_extend_video | Continuer une vidéo existante |
luma_extend_video_from_url | Continuer une vidéo spécifiée par URL |
luma_get_task | Interroger l’état d’une tâche unique |
luma_get_tasks_batch | Interroger l’état de plusieurs tâches |
Exemples d’utilisation
Une fois la configuration terminée, vous pouvez appeler ces fonctionnalités directement en langage naturel dans le client AI, par exemple :- « Aidez-moi à générer une vidéo de coucher de soleil au bord de la mer »
- « Utilisez cette photo comme première image pour générer une vidéo de 5 secondes »
- « Continuez cette vidéo et prolongez-la »
- « Générer une vidéo en mode portrait, rapport 9:16 »
Plus d’informations
- Dépôt GitHub : AceDataCloud/MCPLuma
- Package PyPI : mcp-luma
- Documentation API : API de génération de vidéos Luma

