一:准备工作
使用官方C# sdk:https://github.com/modelcontextprotocol/csharp-sdk
版本:dotnet add package ModelContextProtocol --version 0.1.0-preview.4
* 注意 preview版本迭代比较快,方法名、参数都有可能变动,甚至意外BUG,本示只保证使用0.1.0-preview.4版本复现功能。
VS2022版本: 17.13.3
.NET 版本:9.0.201
二:创建MCPServer
我们创建一个天气服务。
新建控制台项目,选择.NET9框架,名称叫做MCPServer。
添加ModelContextProtocol引用,注意当前是preview版本,需要勾选包含发行版才能搜到。
在Program.cs 文件中添加下述代码,注册McpServer
using Microsoft.Extensions.DependencyInjection;
using Microsoft.Extensions.Hosting;
using Microsoft.Extensions.Logging;
var builder = Host.CreateApplicationBuilder(args);
builder.Logging.AddConsole(consoleLogOptions =>
{
consoleLogOptions.LogToStandardErrorThreshold = LogLevel.Trace;
});
builder.Services
//Mcp服务
.AddMcpServer()
.WithStdioServerTransport()
.WithToolsFromAssembly();
await builder.Build().RunAsync();
新增一个天气Tool文件,命名为:WeatherTool,增加下述代码
using ModelContextProtocol.Server;
using System.ComponentModel;
namespace MCPServer
{
[McpServerToolType]
public class WeatherTool
{
[McpServerTool(Name = "Get City Weather"), Description("获取指定城市的天气,返回temperature温度和weather天气情况组成的json信息。")]
public static string GetCurrentWeather([Description("城市名称")] string city)
{
//随机温度
var temperature = new Random().Next(-20, 50);
//天气组
var weatherList = new string[] { "晴", "多云", "大雨", "小雨", "大雪" };
//随机天气
var weather = weatherList[new Random(Guid.NewGuid().GetHashCode()).Next(0, weatherList.Length - 1)];
//模仿json格式返回
return "{\"temperature\":" + temperature + ",\"weather\":\"" + weather + "\"}";
}
}
}
使用McpServerToolType和McpServerTool对类和方法进行标识。preview早期版本命名为McpToolType和McpTool,注意分辨。
到此,MCPServer编写完成,运行不报错即可。
[可选]调试工具:
在MCPServer项目根目录执行node.js命令,可以打开mcp调试web页:
npx @modelcontextprotocol/inspector dotnet run
打开http://localhost:5173/,并点击链接,需要等一会
连接成功后,点击Tools页面,ListTools可以查看目前注册的Tool。点击相应Tool,可以进行调试,如下图:
如果点击链接报错,没有出现"Connected",你可以手动重新生成一下MCPServer项目,看看是否会报错。有可能项目被某些进程占用了,使用taskkill /pid 进程id /f 杀掉即可。
调试窗口不使用后,建议Ctrl+C杀掉,提示Terminate batch job (Y/N)? 输入Y即可。
三:创建McpClient
新建控制台项目,选择.NET9框架,名称叫做MCPClient。
依然添加ModelContextProtocol引用。
1. 注册Client
McpClientOptions options = new()
{
ClientInfo = new() { Name = "Weather Client", Version = "1.0.0" }
};
//1:注册MCPServer,以项目中引用为例。
var config = new McpServerConfig
{
Id = "weather",
Name = "Weather MCP Server",
TransportType = TransportTypes.StdIo,
//此处注册McpSever
TransportOptions = new Dictionary<string, string>
{
//当前以项目内部直接运行为例
["command"] = "dotnet",
["arguments"] = "run --project ../../../../MCPServer --no-build",
}
};
//创建Client
await using var mcpClient = await McpClientFactory.CreateAsync(config, options);
//查找McpServer中注册的Tools
var mcpTools = await mcpClient.ListToolsAsync();
foreach (var tool in mcpTools)
{
Console.WriteLine($"{tool.Name} ({tool.Description})");
}
Console.WriteLine("---------- Tools");
Console.WriteLine();
2:注册大模型
方案1,使用本地大模型。示例,使用Ollama 下载的qwq大模型。
添加:Microsoft.Extensions.AI.Ollama程序包,当前示例版本:9.3.0-preview.1.25161.3
//注册大模型
var openClient = new OllamaChatClient(new Uri("http://localhost:11434/"), "qwq:32b");
确保端口是畅通状态,建议先在浏览器打开上述http网址,如果是局域网、广域网,注意配置局域网内可以访问策略,此处不做太多赘述。
方案2,使用远程模型,如阿里百炼平台、华为、腾讯等,此处以阿里百炼(https://bailian.console.aliyun.com/)为例。
添加:Microsoft.Extensions.AI.OpenAI程序包,当前示例版本:9.3.0-preview.1.25161.3
var oclinet = new OpenAIClient(new System.ClientModel.ApiKeyCredential("密钥"), new OpenAIClientOptions
{
//阿里云提供的基础地址
Endpoint = new Uri("https://dashscope.aliyuncs.com/compatible-mode/v1")
});
//模型名称
var openClient = new OpenAIChatClient(oclinet, "qwen-max");
无论使用本地还是远程大模型,创建成功后先测试一下:
//测试模型,使用流式输出。
var res = openClient.GetStreamingResponseAsync("你好");
await foreach (var message in res)
{
Console.Write(message);
}
Console.WriteLine();
Console.WriteLine("-------------llm test");
返回示例:
到此,连接大模型成功。
3:注册ChatClient
var client = new ChatClientBuilder(openClient)
//添加日志
.UseLogging(factory)
//向聊天客户端添加函数调用
.UseFunctionInvocation()
.Build();
4:执行大模型对话
下述代码比较简单,就是循环接收输入,然后执行大模型对话输出,不做太多解释。
var msg = "";
while (true)
{
Console.WriteLine();
Console.WriteLine("这里是天气服务,你想咨询哪里的天气?");
msg = Console.ReadLine();
if (msg == "exit")
{
Console.WriteLine("程序退出");
return;
}
IList<ChatMessage> messages =
[
//为ai设定身份
new(ChatRole.System, """
你是一个天气助理,在输出天气时,请以家长口吻叮嘱用户添衣、带伞等。
"""),
new(ChatRole.User, msg)
];
//区别于GetStreamingResponseAsync,此处示例非流式输出
//注意,某些大模型要求流水输出,只能使用GetStreamingResponseAsync方式。
var response =
await client.GetResponseAsync(
messages,
new ChatOptions { Tools = [.. mcpTools] });
Console.WriteLine(response);
}
注意点1:使用ChatRole.System设定ai角色。
注意点2:使用 GetStreamingResponseAsync 流模式接收推理大模型,使用GetResponseAsync接收普通模型。有些模型不支持GetResponseAsync方式,只支持GetStreamingResponseAsync方式,注意区分。比如下图所示:
5:执行程序
输入北京
拿到tool的回答,气温20度,大雨。
大模型根据天气及角色定义,给出最后的回答,到此结束。
以下是源码:
MCPServer.Program.cs
using Microsoft.Extensions.DependencyInjection;
using Microsoft.Extensions.Hosting;
using Microsoft.Extensions.Logging;
var builder = Host.CreateApplicationBuilder(args);
builder.Logging.AddConsole(consoleLogOptions =>
{
consoleLogOptions.LogToStandardErrorThreshold = LogLevel.Trace;
});
builder.Services
.AddMcpServer()
.WithStdioServerTransport()
.WithToolsFromAssembly();
await builder.Build().RunAsync();
MCPServer.WeatherTool.cs
using ModelContextProtocol.Server;
using System.ComponentModel;
namespace MCPServer
{
[McpServerToolType]
public class WeatherTool
{
[McpServerTool(Name = "Get City Weather"), Description("获取指定城市的天气,返回temperature温度和weather天气情况组成的json信息。")]
public static string GetCurrentWeather([Description("城市名称")] string city)
{
//随机温度
var temperature = new Random().Next(-20, 50);
//天气组
var weatherList = new string[] { "晴", "多云", "大雨", "小雨", "大雪" };
//随机天气
var weather = weatherList[new Random(Guid.NewGuid().GetHashCode()).Next(0, weatherList.Length - 1)];
//模仿json格式返回
return "{\"temperature\":" + temperature + ",\"weather\":\"" + weather + "\"}";
}
}
}
MCPClient.Program.cs
using Microsoft.Extensions.AI;
using Microsoft.Extensions.Logging;
using ModelContextProtocol.Client;
using ModelContextProtocol.Configuration;
using ModelContextProtocol.Protocol.Transport;
using OpenAI;
Console.WriteLine($"程序启动中,请稍后");
McpClientOptions options = new()
{
ClientInfo = new() { Name = "Weather Client", Version = "1.0.0" }
};
//1:注册MCPServer,以项目中引用为例。
var config = new McpServerConfig
{
Id = "weather",
Name = "Weather MCP Server",
TransportType = TransportTypes.StdIo,
TransportOptions = new Dictionary<string, string>
{
//运行MCPServer
["command"] = "dotnet",
["arguments"] = "run --project ../../../../MCPServer --no-build",
}
};
using var factory =
LoggerFactory.Create(builder => builder.AddConsole().SetMinimumLevel(LogLevel.Trace));
//2:创建MCPClient
await using var mcpClient = await McpClientFactory.CreateAsync(config, options);
//3:发现MCPServer中的Tool
var mcpTools = await mcpClient.ListToolsAsync();
foreach (var tool in mcpTools)
{
Console.WriteLine($"{tool.Name} ({tool.Description})");
}
Console.WriteLine("---------- Tools");
Console.WriteLine();
//4:注册大模型
//注册方式1,使用本地模型。以本地使用Ollama启动的千问32b模型为例
//var openClient = new OllamaChatClient(new Uri("http://localhost:11434/"), "qwq:32b");
//注册方式2,使用远程模型。以阿里云百炼平台为例
var oclinet = new OpenAIClient(new System.ClientModel.ApiKeyCredential("sk-密钥"), new OpenAIClientOptions
{
Endpoint = new Uri("https://dashscope.aliyuncs.com/compatible-mode/v1")
});
//模型名称
var openClient = new OpenAIChatClient(oclinet, "qwen-max");
//测试模型,使用流式输出。
var res = openClient.GetStreamingResponseAsync("你好");
await foreach (var message in res)
{
Console.Write(message);
}
Console.WriteLine();
Console.WriteLine("-------------llm test");
Console.WriteLine();
//5:创建Chat客户端
var client = new ChatClientBuilder(openClient)
//添加日志
.UseLogging(factory)
//向聊天客户端添加函数调用
.UseFunctionInvocation()
.Build();
//6:执行对话
var msg = "";
while (true)
{
Console.WriteLine();
Console.WriteLine("这里是天气服务,你想咨询哪里的天气?");
msg = Console.ReadLine();
if (msg == "exit")
{
Console.WriteLine("程序退出");
return;
}
IList<ChatMessage> messages =
[
//为ai设定身份
new(ChatRole.System, """
你是一个天气助理,在输出天气时,请以家长口吻叮嘱用户添衣、带伞等。
"""),
new(ChatRole.User, msg)
];
//区别于GetStreamingResponseAsync,此处示例非流式输出
//注意,某些大模型要求流水输出,只能使用GetStreamingResponseAsync方式。
var response =
await client.GetResponseAsync(
messages,
new ChatOptions { Tools = [.. mcpTools] });
Console.WriteLine(response);
}