MCP (Model Context Protocol) est un protocole de contexte de modèle lancé par Anthropic, permettant aux modèles d’IA (comme Claude, GPT, etc.) d’appeler des outils externes via une interface standardisée. Grâce au Sora MCP Server fourni par AceData Cloud, vous pouvez directement utiliser OpenAI Sora pour générer des vidéos AI dans des clients AI tels que Claude Desktop, VS Code, Cursor, etc.Documentation Index
Fetch the complete documentation index at: https://docs.acedata.cloud/llms.txt
Use this file to discover all available pages before exploring further.
Vue d’ensemble des fonctionnalités
Le Sora MCP Server offre les fonctionnalités principales suivantes :- Génération de vidéos à partir de texte — Générer des vidéos de haute qualité à partir de prompts textuels
- Génération de vidéos à partir d’images — Générer des vidéos basées sur des images
- Vidéos avec cohérence de personnage — Maintenir la cohérence des personnages à l’aide d’images de référence
- Génération asynchrone — Prise en charge de la soumission de tâches asynchrones et de la consultation des résultats
- Multiples orientations d’image — Prise en charge du mode paysage (landscape) et portrait
- Consultation des tâches — Surveiller l’avancement de la génération et obtenir des résultats
Préparations préalables
Avant d’utiliser, vous devez obtenir un token API AceData Cloud :- Inscrivez-vous ou connectez-vous à la plateforme AceData Cloud
- Rendez-vous sur la page Sora Videos API
- Cliquez sur « Acquire » pour obtenir un token API (première demande avec un quota gratuit)
Installation et configuration
Méthode 1 : installation avec pip (recommandée)
Méthode 2 : installation à partir du code source
mcp-sora pour démarrer le service.
Utilisation dans Claude Desktop
Éditez le fichier de configuration de Claude Desktop :- macOS :
~/Library/Application Support/Claude/claude_desktop_config.json - Windows :
%APPDATA%\Claude\claude_desktop_config.json
uvx (pas besoin d’installer le package à l’avance) :
Utilisation dans VS Code / Cursor
Créez un fichier.vscode/mcp.json dans le répertoire racine du projet :
uvx :
Liste des outils disponibles
| Nom de l’outil | Description |
|---|---|
sora_generate_video | Générer des vidéos à partir de prompts textuels |
sora_generate_video_from_image | Générer des vidéos basées sur des images |
sora_generate_video_with_character | Générer des vidéos cohérentes avec des images de référence |
sora_generate_video_async | Soumettre des tâches de génération de vidéos de manière asynchrone |
sora_get_task | Consulter l’état d’une tâche unique |
sora_get_tasks_batch | Consulter l’état de plusieurs tâches |
Exemples d’utilisation
Une fois la configuration terminée, vous pouvez directement appeler ces fonctionnalités en langage naturel dans le client AI, par exemple :- « Aidez-moi à générer une vidéo d’un chat courant sur l’herbe avec Sora »
- « Générez une vidéo à partir de cette photo de personne, en maintenant la cohérence du personnage »
- « Générez une vidéo en mode portrait, le contenu est le lever de soleil sur la ville »
- « Générez une vidéo de manière asynchrone et consultez les résultats plus tard »
Plus d’informations
- Dépôt GitHub : AceDataCloud/MCPSora
- Package PyPI : mcp-sora
- Documentation API : API de génération de vidéos Sora

