Killer-Skills Review
Decision support comes first. Repository text comes second.
This page remains useful for operators, but Killer-Skills treats it as reference material instead of a primary organic landing page.
Parfait pour les agents d'IA nécessitant un déploiement de point de terminaison d'API d'apprentissage automatique sécurisé et sans état en utilisant FastAPI. Эксперт ML API. Используй для model serving, inference endpoints, FastAPI и ML deployment.
Pourquoi utiliser cette compétence
Permet aux agents de concevoir et de déployer des API versionnées avec une validation d'entrée rigoureuse, standardisant les formats de réponse de réussite et d'erreur en utilisant FastAPI et Pydantic, tout en planifiant des mises à jour de modèles avec une solide stratégie de contrôle de version.
Meilleur pour
Parfait pour les agents d'IA nécessitant un déploiement de point de terminaison d'API d'apprentissage automatique sécurisé et sans état en utilisant FastAPI.
↓ Cas d'utilisation exploitables for ml-api-endpoint
! Sécurité et Limitations
- Nécessite un environnement Python
- Dépend des bibliothèques FastAPI et Pydantic
- La conception sans état peut ne pas convenir à toutes les applications d'apprentissage automatique
Why this page is reference-only
- - Current locale does not satisfy the locale-governance contract.
Source Boundary
The section below is supporting source material from the upstream repository. Use the Killer-Skills review above as the primary decision layer.
Browser Sandbox Environment
⚡️ Ready to unleash?
Experience this Agent in a zero-setup browser environment powered by WebContainers. No installation required.
FAQ & Installation Steps
These questions and steps mirror the structured data on this page for better search understanding.
? Frequently Asked Questions
What is ml-api-endpoint?
Parfait pour les agents d'IA nécessitant un déploiement de point de terminaison d'API d'apprentissage automatique sécurisé et sans état en utilisant FastAPI. Эксперт ML API. Используй для model serving, inference endpoints, FastAPI и ML deployment.
How do I install ml-api-endpoint?
Run the command: npx killer-skills add Nir-Bhay/markups/ml-api-endpoint. It works with Cursor, Windsurf, VS Code, Claude Code, and 19+ other IDEs.
What are the use cases for ml-api-endpoint?
Key use cases include: Déployer des modèles d'apprentissage automatique sans état comme des API, Mettre en œuvre des formats de réponse cohérents pour la gestion des réussites et des erreurs, Valider les entrées avant l'inférence pour assurer des interactions d'API sécurisées.
Which IDEs are compatible with ml-api-endpoint?
This skill is compatible with Cursor, Windsurf, VS Code, Trae, Claude Code, OpenClaw, Aider, Codex, OpenCode, Goose, Cline, Roo Code, Kiro, Augment Code, Continue, GitHub Copilot, Sourcegraph Cody, and Amazon Q Developer. Use the Killer-Skills CLI for universal one-command installation.
Are there any limitations for ml-api-endpoint?
Nécessite un environnement Python. Dépend des bibliothèques FastAPI et Pydantic. La conception sans état peut ne pas convenir à toutes les applications d'apprentissage automatique.
↓ How To Install
-
1. Open your terminal
Open the terminal or command line in your project directory.
-
2. Run the install command
Run: npx killer-skills add Nir-Bhay/markups/ml-api-endpoint. The CLI will automatically detect your IDE or AI agent and configure the skill.
-
3. Start using the skill
The skill is now active. Your AI agent can use ml-api-endpoint immediately in the current project.
! Reference-Only Mode
This page remains useful for installation and reference, but Killer-Skills no longer treats it as a primary indexable landing page. Read the review above before relying on the upstream repository instructions.
Imported Repository Instructions
The section below is supporting source material from the upstream repository. Use the Killer-Skills review above as the primary decision layer.
ml-api-endpoint
Install ml-api-endpoint, an AI agent skill for AI agent workflows and automation. Works with Claude Code, Cursor, and Windsurf with one-command setup.