Dingoは、FastMCPを使用した組み込みのModel Context Protocol(MCP)サーバーを提供します。これにより、CursorなどのMCPクライアントがDingoのデータ評価機能とプログラム的に対話できるようになります。
- MCPを通じてDingoの評価ロジックを公開
- 以下のツールを提供:
run_dingo_evaluation: 指定されたデータに対してルールベースまたはLLMベースの評価を実行list_dingo_components: Dingo内で利用可能なルールグループと登録されたLLMモデルをリスト表示get_rule_details: 特定のルールの詳細情報を取得get_llm_details: 特定のLLMの詳細情報を取得get_prompt_details: 特定のプロンプトの詳細情報を取得run_quick_evaluation: 高レベルな目標に基づいて簡略化された評価を実行
- CursorなどのMCPクライアントを通じた対話を可能にする
pip install dingo-pythonインストール後、dingo CLIコマンドが使用可能になり、MCPサーバーが含まれています。リポジトリのクローンは不要です。
開発やmcp_server.pyの直接カスタマイズが必要な場合:
git clone https://github.com/MigoXLab/dingo.git
cd dingo
pip install -e .# SSEトランスポート(デフォルト)、ポート8000でリッスン
dingo serve
# カスタムホストとポート
dingo serve --host 127.0.0.1 --port 9000
# stdioトランスポート(Claude Desktopやローカルエージェント起動用)
dingo serve --transport stdioリポジトリをクローンした場合、サーバースクリプトを直接実行することもできます:
python mcp_server.py| モード | 使用シーン | 起動方法 |
|---|---|---|
| SSE(デフォルト) | ネットワークサービス、Cursor統合 | dingo serve または dingo serve --port 9000 |
| stdio | Claude Desktop、ローカルエージェント起動 | dingo serve --transport stdio |
実行中のDingo MCPサーバーにCursorを接続するには、CursorのMCP設定ファイル(mcp.json)を編集する必要があります。このファイルは通常、Cursorのユーザー設定ディレクトリ(例:~/.cursor/または%USERPROFILE%\.cursor\)にあります。
mcpServersオブジェクト内でDingoサーバーのエントリを追加または変更します。
例1:SSEモード(先にdingo serveを起動してから設定):
{
"mcpServers": {
"dingo": {
"url": "http://localhost:8000/sse"
}
}
}例2:stdioモード(Cursorが自動的にプロセスを起動):
{
"mcpServers": {
"dingo": {
"command": "dingo",
"args": ["serve", "--transport", "stdio"],
"env": {
"OPENAI_API_KEY": "your-api-key",
"OPENAI_BASE_URL": "https://api.openai.com/v1",
"OPENAI_MODEL": "gpt-4"
}
}
}
}- SSEモード:先に
dingo serveを起動し、urlがホストとポートと一致する必要があります。デフォルトはhttp://localhost:8000/sseです。 - stdioモード:Cursorが
dingo serve --transport stdioプロセスを自動的に起動します。手動でサーバーを起動する必要はありません。 mcp.jsonへの変更を保存した後、Cursorを再起動してください。
設定が完了すると、Cursor内でDingoツールを呼び出すことができます:
- コンポーネントのリスト表示: "dingo_evaluatorツールを使用して利用可能なDingoコンポーネントをリストしてください。"
- 評価の実行: "dingo_evaluatorツールを使用してルール評価を実行してください..." または "dingo_evaluatorツールを使用してLLM評価を実行してください..."
- 詳細の取得: "dingo_evaluatorツールを使用して特定のルール/LLM/プロンプトの詳細を取得してください..."
- クイック評価: "dingo_evaluatorツールを使用してファイルを迅速に評価してください..."
Cursorが必要な引数の入力を促します。
利用可能なDingoルールグループ、登録されたLLMモデル識別子、およびプロンプト定義をリストします。
- 引数:
component_type(Literal["rule_groups", "llm_models", "prompts", "all"]): リストするコンポーネントのタイプ。デフォルト:"all"。include_details(bool): 各コンポーネントの詳細な説明とメタデータを含めるかどうか。デフォルト:false。
- 戻り値:
Dict[str, List[str]]- component_typeに基づいてrule_groups、llm_models、prompts、および/またはllm_prompt_mappingsを含む辞書。
Cursor使用例:
dingo_evaluatorツールを使用してdingoコンポーネントをリストしてください。
特定のDingoルールの詳細情報を取得します。
- 引数:
rule_name(str): 詳細を取得するルールの名前。
- 戻り値: ルールの詳細を含む辞書(説明、パラメータ、評価特性を含む)。
Cursor使用例:
Dingo Evaluatorツールを使用して'default'ルールグループの詳細を取得してください。
(Cursorは以下のようなツール呼び出しを提案するはずです)
<use_mcp_tool>
<server_name>dingo_evaluator</server_name>
<tool_name>get_rule_details</tool_name>
<arguments>
{
"rule_name": "default"
}
</arguments>
</use_mcp_tool>特定のDingo LLMの詳細情報を取得します。
- 引数:
llm_name(str): 詳細を取得するLLMの名前。
- 戻り値: LLMの詳細を含む辞書(説明、機能、設定パラメータを含む)。
Cursor使用例:
Dingo Evaluatorツールを使用して'LLMTextQualityModelBase' LLMの詳細を取得してください。
(Cursorは以下のようなツール呼び出しを提案するはずです)
<use_mcp_tool>
<server_name>dingo_evaluator</server_name>
<tool_name>get_llm_details</tool_name>
<arguments>
{
"llm_name": "LLMTextQualityModelBase"
}
</arguments>
</use_mcp_tool>特定のDingoプロンプトの詳細情報を取得します。
- 引数:
prompt_name(str): 詳細を取得するプロンプトの名前。
- 戻り値: プロンプトの詳細を含む辞書(説明、関連するメトリックタイプ、所属するグループを含む)。
Cursor使用例:
Dingo Evaluatorツールを使用して'PromptTextQuality'プロンプトの詳細を取得してください。
(Cursorは以下のようなツール呼び出しを提案するはずです)
<use_mcp_tool>
<server_name>dingo_evaluator</server_name>
<tool_name>get_prompt_details</tool_name>
<arguments>
{
"prompt_name": "PromptTextQuality"
}
</arguments>
</use_mcp_tool>高レベルな目標に基づいて簡略化されたDingo評価を実行します。
- 引数:
input_path(str): 評価するファイルのパス。evaluation_goal(str): 評価する内容の説明(例:'不適切なコンテンツをチェック'、'テキスト品質を評価'、'有用性を評価')。
- 戻り値: 評価結果の要約または詳細結果へのパス。
Cursor使用例:
Dingo Evaluatorツールを使用してファイル'test/data/test_local_jsonl.jsonl'のテキスト品質を迅速に評価してください。
(Cursorは以下のようなツール呼び出しを提案するはずです)
<use_mcp_tool>
<server_name>dingo_evaluator</server_name>
<tool_name>run_quick_evaluation</tool_name>
<arguments>
{
"input_path": "test/data/test_local_jsonl.jsonl",
"evaluation_goal": "テキスト品質を評価し、問題をチェックする"
}
</arguments>
</use_mcp_tool>Dingo評価(ルールベースまたはLLMベース)を実行します。
- 引数:
input_path(str): 入力ファイルまたはディレクトリのパス。以下をサポート:- 相対パス(推奨):現在の作業ディレクトリ(CWD)からの相対パスで解決、例:
test_data.jsonl - 絶対パス:ファイルが存在する場合、直接使用
- プロジェクト相対パス(レガシー):CWDで見つからない場合、プロジェクトルートにフォールバック
- 相対パス(推奨):現在の作業ディレクトリ(CWD)からの相対パスで解決、例:
evaluation_type(Literal["rule", "llm"]): 評価のタイプ。eval_group_name(str):ruleタイプのルールグループ名(デフォルト:""、'default'を使用)。有効なルールグループはDingoのModelレジストリから動的に読み込まれます。利用可能なグループを確認するにはlist_dingo_components(component_type="rule_groups")を使用してください。llmタイプでは無視されます。output_dir(Optional[str]): 出力を保存するディレクトリ。デフォルトはinput_pathの親ディレクトリ内のdingo_output_*サブディレクトリ。task_name(Optional[str]): タスクの名前(出力パス生成に使用)。デフォルトはmcp_eval_<uuid>。save_data(bool): 詳細なJSONL出力を保存するかどうか(デフォルト:True)。save_correct(bool): 正しいデータを保存するかどうか(デフォルト:True)。kwargs(dict): 追加のdingo.io.InputArgs用の辞書。一般的な用途:dataset(str): データセットタイプ(例:'local'、'hugging_face')。input_pathが指定されている場合、デフォルトは'local'。data_format(str): 入力データ形式(例:'json'、'jsonl'、'plaintext')。可能であればinput_pathの拡張子から推測されます。column_content(str): JSON/JSONLなどの形式では必須 - 評価するテキストを含むキーを指定。column_id、column_prompt、column_image: その他の列マッピング。custom_config(str | dict): JSONコンフィグファイルのパス、JSON文字列、またはLLM評価やカスタムルール設定用の辞書。LLMのAPIキーはここで提供する必要があります。max_workers、batch_size: Dingo実行パラメータ(安定性のためMCPではデフォルトで1)。
- 戻り値:
str- 主要出力ファイルの絶対パス(例:summary.json)。
Cursor使用例(ルールベース):
Dingo Evaluatorツールを使用して
test/data/test_local_jsonl.jsonlでデフォルトルール評価を実行してください。'content'列を使用することを確認してください。
(Cursorは以下のようなツール呼び出しを提案するはずです)
<use_mcp_tool>
<server_name>dingo_evaluator</server_name>
<tool_name>run_dingo_evaluation</tool_name>
<arguments>
{
"input_path": "test/data/test_local_jsonl.jsonl",
"evaluation_type": "rule",
"eval_group_name": "default",
"kwargs": {
"column_content": "content"
// data_format="jsonl"とdataset="local"は推測されます
}
}
</arguments>
</use_mcp_tool>Cursor使用例(LLMベース):
Dingo Evaluatorツールを使用して
test/data/test_local_jsonl.jsonlでLLM評価を実行してください。'content'列を使用してください。ファイルexamples/mcp/config_self_deployed_llm.jsonを使用して設定してください。
(Cursorは以下のようなツール呼び出しを提案するはずです。LLM評価でcustom_configを使用する場合、eval_group_nameは省略または設定可能です)
<use_mcp_tool>
<server_name>dingo_evaluator</server_name>
<tool_name>run_dingo_evaluation</tool_name>
<arguments>
{
"input_path": "test/data/test_local_jsonl.jsonl",
"evaluation_type": "llm",
"kwargs": {
"column_content": "content",
"custom_config": "examples/mcp/config_self_deployed_llm.json"
// data_format="jsonl"とdataset="local"は推測されます
}
}
</arguments>
</use_mcp_tool>APIキーやURLの配置場所を含むcustom_configファイルの構造については、examples/mcp/config_api_llm.json(APIベースLLM用)とexamples/mcp/config_self_deployed_llm.json(セルフホストLLM用)を参照してください。