想像してみてください。Claude CodeやCopilotをいじくり回して作った半端なAIスキルが詰まった引き出しをお持ちの開発者です。それらは賢い——コードレビュー、JSのリンター、データベースクエリなど——ものの、閉じ込められたまま。Webhookなし。製品統合なし。ただのデジタル溜め込みです。
Skrunがそれを変えます。一夜にして。
実際の開発者——ソロ開発者、インディーハッカー、エンジニアチーム——にとって、これは実験をライブAPIとして蘇らせることを意味します。スキルフォルダを指定し、skrun init --from-skill ./my-skillを実行、agent.yamlを調整してデプロイ。するとPOST /api/agents/dev/my-skill/runが完成。curlで呼び出し、Zapierに接続。突然、あなたのAIサイドプロジェクトがSaaSを支えるのです。
ここがポイントです。これまでにも似た経験があります。Docker以前を思い出してください? アプリが特定サーバーに縛られ、スキルがAnthropicのプレイグラウンドのようなツールに孤立。SkrunはAIエージェントのDocker——オリジナル投稿にはない私の大胆な見立てです。スキルを一度コンテナ化すれば、どこでも実行:ローカル、近日中のクラウドVM。特定のLLMプレイグラウンドにロックインされません。
AIスキルが埃をかぶっていた理由は?
スキルはエージェントAIのブームから生まれました——ClaudeのArtifacts、Copilotのカスタムエージェント、OpenAIのGPTs。ワンオフには最適。本番運用には不向きです。
各プラットフォームがスキルを囲い込みます。AnthropicはClaudeスキルをJSON APIとして公開しません。Copilot? VS Codeに閉じ込め。ラッパーを自作するか、LangChainで書き直す(またフレームワークか)か、諦めるしかありません。
SkrunはSKILL.mdをネイティブに読み込みます。説明、ツール、入力などを解析し、あなたの設定付きagent.yamlを出力。移行の苦痛なし。
SKILL.mdを受け取る → POST /runエンドポイントを取得 新しいフレームワークを学ぶ必要なし。インフラ構築不要。スキルを指定し、モデルを設定してデプロイするだけ。
クリエイターの言葉です。的確です。ですが深掘りすると:アーキテクチャが巧み。モデルプロバイダ、ツール実行、状態永続化などの面倒を薄いAPIゲートウェイに抽象化しています。
Skrunの実際の仕組み(内部構造)
ローカルで起動:npm install -g @skrun-dev/cli、リポジトリをクローン、pnpm dev:registry。.envにGOOGLE_API_KEYを設定。
スキルから初期化。agent.yamlを編集:
Gemini-2.5-flashをプライマリに、GPT-4oをフォールバックに。賢い選択——LLMは不安定、冗長性が鍵です。
ツールは2種類。scripts/ディレクトリをバンドル:シェル、Node、Python。YAMLで宣言し、LLMが呼び出し、Skrunが実行。
またはMCPサーバ——npmのModel Context Protocolエコシステム。npx @playwright/mcp --headlessでブラウザ制御。エージェントが閲覧、呼び出し間でKV状態を永続化。コードレビューを2回実行? 前回の指摘を記憶します。
デプロイ:skrun deploy。localhost:4000が起動。Bearerトークンで認証。JSON入力:コードスニペット。JSON出力:スコア、問題点、レビュー。
curl -X POST http://localhost:4000/api/agents/dev/code-review/run \
-H "Authorization: Bearer dev-token" \
-H "Content-Type: application/json" \
-d '{"input": {"code": "function add(a,b) { return a + b; }"}}'
出力? 60点、ESLintの指摘、エラーハンドリングの批評。本番運用準備完了です。
4つのパッケージ:schema、cli、runtime、api。154のテスト。MITライセンス。v0.1はローカル限定、クラウド、ストリーミング、ハブが近日公開予定。
ただし——私の批評ですが——agent.yamlのI/O契約? 良いスタートですが硬直的。入力はフラットJSON? コードレビューには適するが、グラフやファイルには不向き。クリエイターがフィードバックを求めています。将来的な進化が期待されます。
Skrunはあなたのエージェントを本番投入できるか?
簡潔に:はい、プロトタイプから中規模まで。ローカルレジストリはdevトークンでチーム展開可能。
RuntimeAdapterインターフェースが拡張性を叫んでいます——クラウド用サンドボックスVM(Fly.io? Render?)。次は呼び出し元APIキー——共有.env不要。
開発者にとって重要な点:スキルをUIから切り離す。一度構築すればStreamlit、Vercel、社内Slackボットに接続。マルチプロバイダ? コスト最適化:Groqで高速、Mistralで低価格、Anthropicで高品質。
歴史的類似:2010年のnpm。JSライブラリがリポジトリに閉じ込め。npmで即時共有、ツール爆発。Skrunがエージェント版をやります。ハブを期待——共有・フォーク可能なスキルマーケットプレイス。
リスク? ツール実行のサンドボックス化が遅れ(現在ローカル)。状態永続化? KVのみ——ベクター未対応。ですがv0.1は他が約束するものを提供します。
チームはカスタムエージェントを溜め込み:コードレビュー、バグトリアージ、APIドキュメント。SkrunがAPI化。Webhook CI/CD。エージェントスウォームオーケストレーション。
インディー? スキルを収益化。POSTエンドポイント→Gumroad製品。
懐疑的な見方:すべてのスキルがAPI向きとは限りません。シンプルプロンプト? 過剰。複雑エージェント? ここで真価発揮。
大きな変化:エージェントがプレイグラウンドを脱出
AIは進化中。チャットUIからコンポーザブルAPIへ。LangGraph、CrewAIはYAML地獄。Skrun? 最小YAML、スキルネイティブ。
アーキテクチャの勝ち:プロバイダ非依存。YAMLでモデル交換。フォールバックで障害自動回復。
予測:6カ月後、Skrunがスキルマーケットプレイスをハブ化。モデル版Replicateのような、エージェント版。DevTools Feedが注視。
試してみてください。フィードバックがv1を形作ります。
🧬 Related Insights
- Read more: Script-Kiddie Scrapers to Enterprise Shields: FastMCP’s Quiet Revolution in Python Data Pipelines
- Read more: Zero Code to Live App: How AI Let a Beginner Ship Pet Stickers for Cash
Frequently Asked Questions
Skrunとは何で、どう動作しますか?
Skrunのオープンソースランタイムは、Claude/Copilot由来のSKILL.mdファイルをREST APIに変換します。初期化、agent.yamlでモデル/ツール設定、デプロイ——認証付きPOSTエンドポイントを取得。
既存のAIスキルをSkrunでどうデプロイしますか?
skrun init --from-skill ./path/to/skill、agent.yaml編集(モデル、ツール)、skrun deploy。localhost:4000起動。curlでJSON入力、構造化出力取得。
Skrunは複数LLMプロバイダをサポートしますか?
はい——Anthropic、OpenAI、Google、Mistral、Groq。YAMLでプライマリ+フォールバック設定。ツールはスクリプトまたはMCP(例:Playwright)経由。