Skrun : Transformez vos compétences IA en API en un clin d'œil

Vous avez un dossier rempli de fichiers SKILL.md issus de Claude ou Copilot. Des reliques inutiles — jusqu'à Skrun. Ce runtime open source les transforme en endpoints POST que les devs peuvent vraiment utiliser.

Skrun libère vos compétences IA oubliées en API de production — sans frameworks requis — theAIcatchup

Key Takeaways

  • Skrun transforme les fichiers SKILL.md coincés en API invocables sans apprendre de nouveau framework.
  • Basculements multi-fournisseurs et intégration d'outils rendent les agents résilients en production.
  • Comme Docker pour l'IA : libère le partage et annonce des marketplaces d'agents à venir.

Imaginez : vous êtes un dev avec un tiroir de compétences IA à moitié cuites, ces fichiers SKILL.md nés de vos bidouillages avec Claude Code ou Copilot. Elles sont malignes, c’est sûr — elles relisent du code, appliquent du lint sur du JS, interrogent des bases de données — mais coincées. Pas de webhooks. Pas d’intégration produit. Juste de l’accumulation numérique.

Skrun change la donne. Du jour au lendemain.

Pour les vrais gens — devs solo, hackers indie, équipes d’ingénieurs — ça veut dire ressusciter des expériences en API live. Visez votre dossier de compétences, lancez skrun init --from-skill ./my-skill, peaufinez agent.yaml, déployez. Boum : POST /api/agents/dev/my-skill/run. Curllez-le. Branchez-le à Zapier. Et hop, votre projet IA perso alimente un SaaS.

Le hic, on l’a déjà vu. Vous vous souvenez des jours pré-Docker ? Des apps collées à des serveurs spécifiques, des compétences cloisonnées dans des playgrounds comme celui d’Anthropic. Skrun ? C’est le Docker des agents IA — mon affirmation audacieuse, absente du post original. Conteneurisez vos compétences une fois, exécutez partout : local, bientôt VMs cloud. Pas de verrouillage sur un playground LLM.

Pourquoi vos compétences IA prenaient-elles la poussière ?

Les compétences sont nées du hype autour de l’IA agentique — Artifacts de Claude, agents custom de Copilot, GPTs d’OpenAI. Super pour des one-shots. Nul pour la production.

Chaque plateforme les garde jalousement. Anthropic n’expose pas votre compétence Claude en API JSON. Copilot ? Coincé dans VS Code. Vous bricolez des wrappers, réécrivez en LangChain (beurk, un framework de plus), ou vous abandonnez.

Skrun lit nativement les SKILL.md. Parse la description, les tools, les inputs. Crache un agent.yaml avec votre config. Pas de galère de migration.

Prenez un SKILL.md → obtenez un endpoint POST /run Pas de nouveau framework à apprendre. Pas d’infra à monter. Visez une compétence, configurez le modèle, déployez.

Paroles du créateur. Pile poil. Mais creusez : c’est architecturalement malin. Une couche runtime abstrait le bazar — fournisseurs de modèles, exécution de tools, persistance d’état — en une passerelle API légère.

Comment Skrun fonctionne vraiment (les tripes)

Démarrez local : npm install -g @skrun-dev/cli, clonez le repo, pnpm dev:registry. Mettez GOOGLE_API_KEY dans .env.

Init depuis une compétence. Éditez agent.yaml :

Choisissez Gemini-2.5-flash en principal, GPT-4o en fallback. Malin — les LLM flanchent ; la redondance l’emporte.

Tools ? Deux saveurs. Bundlez le dossier scripts/ : shell, Node, Python. Déclarez en YAML, le LLM invoque, Skrun exécute.

Ou serveurs MCP — l’écosystème Model Context Protocol de npm. npx @playwright/mcp --headless pour contrôler un navigateur. L’agent navigue, persiste l’état KV entre les appels. Revue de code deux fois ? Il se souvient des problèmes précédents.

Déployez : skrun deploy. Localhost:4000 qui tourne. Auth via Bearer token. JSON en entrée : snippet de code. JSON en sortie : score, issues, review.

curl -X POST http://localhost:4000/api/agents/dev/code-review/run \
-H "Authorization: Bearer dev-token" \
-H "Content-Type: application/json" \
-d '{"input": {"code": "function add(a,b) { return a + b; }"}}'

Résultat ? Score 60, nags ESLint, critique sur la gestion d’erreurs. Prêt pour la prod.

Quatre paquets : schema, cli, runtime, api. 154 tests. MIT. v0.1 local only ; cloud, streaming, hub à venir.

Mais — ma critique — le contrat I/O d’agent.yaml ? Bon début, mais rigide. Inputs en JSON plat ? OK pour revue de code. Bancal pour graphs, fichiers. Le créateur veut du feedback ; attendez de l’évolution.

Skrun est-il prêt à livrer vos agents ?

Réponse courte : oui, pour prototypes à mid-scale. Registry local qui scale en équipe via tokens dev.

Interface RuntimeAdapter qui crie l’extensibilité — VMs sandbox pour cloud (Fly.io ? Render ?). Clés API appelant next — fini le .env partagé.

Pourquoi ça compte pour les devs : découple les compétences des UI. Construisez une fois, branchez dans Streamlit, Vercel, bots Slack internes. Multi-fournisseurs ? Optimisez les coûts : Groq pour la vitesse, Mistral pas cher, Anthropic pour la qualité.

Parallèle historique : npm en 2010. Libs JS piégées dans des repos. npm ? Partage instantané, explosion d’outils. Skrun fait ça pour les agents. Attendez un hub — marketplace de compétences partageables, forkables.

Risques ? Sandboxing exécution tools en retard (local pour l’instant). Persistance état ? KV only — pas de vectors encore. Mais v0.1 livre ce que d’autres promettent.

Les équipes thésaurisent des agents custom : revue code, tri bugs, docs API. Skrun les API-fie. Webhooks CI/CD. Orchestration swarm d’agents.

Les indies ? Monétisez vos compétences. Endpoint POST → produit Gumroad.

Regard sceptique : pas toutes les compétences se API-fient bien. Prompts simples ? Overkill. Agents complexes ? Ça brille.

Le grand virage : les agents s’échappent du playground

L’IA bouge. Des UI chat vers des API composables. LangGraph, CrewAI forcent l’enfer YAML. Skrun ? YAML minimal, natif compétence.

Victoire architecturale : agnostique fournisseur. YAML swap modèles. Fallbacks auto-réparent les pannes.

Prédiction : dans 6 mois, hubs Skrun pour marketplaces de compétences. Comme Replicate pour modèles, mais agents. DevTools Feed surveille.

Testez. Le feedback forge v1.


🧬 Related Insights

Frequently Asked Questions

What is Skrun and how does it work?

Skrun’s open-source runtime converts SKILL.md files from Claude/Copilot into REST APIs. Init, configure models/tools in agent.yaml, deploy — get POST endpoints with auth.

How do I deploy an existing AI skill with Skrun?

skrun init --from-skill ./path/to/skill, edit agent.yaml (models, tools), skrun deploy. Hits localhost:4000. Curl JSON input, get structured output.

Does Skrun support multiple LLM providers?

Yes — Anthropic, OpenAI, Google, Mistral, Groq. Set primary + fallbacks in YAML. Tools via scripts or MCP (e.g., Playwright).

James Kowalski
Written by

Investigative tech reporter focused on AI ethics, regulation, and societal impact.

Frequently asked questions

What is Skrun and how does it work?
Skrun's open-source runtime converts SKILL.md files from Claude/Copilot into REST APIs. Init, configure models/tools in agent.yaml, deploy — get POST endpoints with auth.
How do I deploy an existing AI skill with Skrun?
`skrun init --from-skill ./path/to/skill`, edit agent.yaml (models, tools), `skrun deploy`. Hits localhost:4000. Curl JSON input, get structured output.
Does Skrun support multiple LLM providers?
Yes — Anthropic, OpenAI, Google, Mistral, Groq. Set primary + fallbacks in YAML. Tools via scripts or MCP (e.g., Playwright).

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by dev.to