Skill Overview
Start with fit, limitations, and setup before diving into the repository.
適した場面: Ideal for AI agents that need llm model evaluation. ローカライズされた概要: AI Agent Starter Kit - Production-ready boilerplate for AI-powered applications with Next.js, Mastra, Convex, and n8n # LLM Model Evaluation Evaluiert LLM-Modelle basierend auf aktuellem Preis/Leistungs-Verhältnis.
このスキルを使用する理由
推奨ポイント: llm-evaluate helps agents llm model evaluation. AI Agent Starter Kit - Production-ready boilerplate for AI-powered applications with Next.js, Mastra, Convex, and n8n # LLM Model Evaluation Evaluiert LLM-Modelle
おすすめ
適した場面: Ideal for AI agents that need llm model evaluation.
↓ 実現可能なユースケース for llm-evaluate
! セキュリティと制限
- 制約事項: Requires repository-specific context from the skill documentation
- 制約事項: Works best when the underlying tools and dependencies are already configured
About The Source
The section below is adapted from the upstream repository. Use it as supporting material alongside the fit, use-case, and installation summary on this page.
Browser Sandbox Environment
⚡️ Ready to unleash?
Experience this Agent in a zero-setup browser environment powered by WebContainers. No installation required.
FAQ とインストール手順
These questions and steps mirror the structured data on this page for better search understanding.
? よくある質問
llm-evaluate とは何ですか?
適した場面: Ideal for AI agents that need llm model evaluation. ローカライズされた概要: AI Agent Starter Kit - Production-ready boilerplate for AI-powered applications with Next.js, Mastra, Convex, and n8n # LLM Model Evaluation Evaluiert LLM-Modelle basierend auf aktuellem Preis/Leistungs-Verhältnis.
llm-evaluate はどうやって導入しますか?
次のコマンドを実行してください: npx killer-skills add lucidlabs-hq/lucidlabs-agent-kit。Cursor、Windsurf、VS Code、Claude Code など19以上のIDEで使えます。
llm-evaluate の主な用途は?
主な用途は次のとおりです: ユースケース: LLM Model Evaluation, ユースケース: Evaluiert LLM-Modelle basierend auf aktuellem Preis/Leistungs-Verhältnis, ユースケース: Während /init-project bei der Komplexitätsbewertung。
llm-evaluate に対応するIDEは?
このスキルは Cursor, Windsurf, VS Code, Trae, Claude Code, OpenClaw, Aider, Codex, OpenCode, Goose, Cline, Roo Code, Kiro, Augment Code, Continue, GitHub Copilot, Sourcegraph Cody, and Amazon Q Developer に対応しています。統一された導入には Killer-Skills CLI を使えます。
llm-evaluate に制限はありますか?
制約事項: Requires repository-specific context from the skill documentation. 制約事項: Works best when the underlying tools and dependencies are already configured.
↓ このスキルの導入方法
-
1. ターミナルを開く
プロジェクトディレクトリでターミナルまたはコマンドラインを開きます。
-
2. インストールコマンドを実行
npx killer-skills add lucidlabs-hq/lucidlabs-agent-kit を実行してください。CLI がIDEまたはエージェントを自動検出し、スキルを設定します。
-
3. スキルを使い始める
このスキルはすぐに有効になります。現在のプロジェクトで llm-evaluate をすぐ使えます。
! Source Notes
This page is still useful for installation and source reference. Before using it, compare the fit, limitations, and upstream repository notes above.
Upstream Repository Material
The section below is adapted from the upstream repository. Use it as supporting material alongside the fit, use-case, and installation summary on this page.
llm-evaluate
Install llm-evaluate, an AI agent skill for AI agent workflows and automation. Explore features, use cases, limitations, and setup guidance.