最强开源通用智能体Suna部署调用实战—100%吊打Manus

发布于:2025-06-18 ⋅ 阅读:(21) ⋅ 点赞:(0)

前言

大家是否还记得笔者的文章10万一个邀请码!Manus的AI神话是技术革命还是“缝合怪”狂欢?带你一探究竟(最详细Manus测评、分析、感悟),曾经爆火的Manus,内测期间激活码一度炒到10万天价,通过营销策略坐实最强通用智能体的称号。然而仅仅两个多月,一个将Manus名字倒着写的开源项目——Suna(Manus倒着写)竟然取得了吊打Manus的结果。

你还不信?快看下图,我让两个应用执行一个相同任务:整理过去6个月以来Kaggle上大模型竞赛的相关信息,两个应用都能仔细的进行任务规划逐步执行,并根据运行结果实时反思调整策略。两个应用的UI都是左边流程显示栏,右边虚拟电脑操作栏。

在这里插入图片描述
使用体验没有差异的情况下,两者的运行结果至关重要。从下图的展示结果来看,开源的Suna展示样式更丰富,更精确。尽管现在Manus已经开放了注册,但20$一个月的费用再加上科学上网的门槛,性价比确实很低。而反观Suna,作为一个100%开源甚至能完全离线部署的通用智能体,不仅可以很好的保障隐私安全性,更具备二次开发的价值。那这个打败Manus的开源利器到底是何来路呢?今天笔者就带大家了解Suna的核心技术并上手部署Suna,让你快速拥有自己的AI 小管家~(本分享依赖对Suna源码进行修改的项目包,关注笔者微信公众号:大模型真好玩,并私信Suna部署教程免费获得)

在这里插入图片描述
在这里插入图片描述

一、Suna是什么?

Suna 是Kortix公司推出的通用型 AI Agent 开源项目,支持高效解决现实场景中的各类任务。据官方发布介绍,Suna拥有满血版Manus的全部能力,不仅支持DeepResearch, 还支持沙盒环境内的ComputerUse。Suna 具备强大的功能,包括浏览器自动化、文件管理、网络爬虫、命令行执行、网站部署及与多种API的集成。通过自然流畅的对话交互,Suna 支持智能辅助研究分析、数据处理及日常事务,能快速化身成为你专属的“数字伙伴”。 下图是Suna github网站的用例展示:

在这里插入图片描述

Suna是最接近甚至超越Manux的存在。Manus虽然技术门槛不高,但一开始很多开源项目例如Open-Manus更像是在蹭Manus的热度,用户使用设计并不精美,更多是代码环境中的展示。直到Suna发布,让笔者真正看到通用智能体的开发模板,甚至前段时间字节开源的DeerFlow就是基于Suna项目的DeepResearch部分功能进行的二次开发。说了这么多大家是不是已经迫不及待想在本地使用Suna感受它的强大魔力了!

二、Suna本地安装

Suna官方提供的部署文档不太完整,我这里对Suna配置源码进行修改,并在下方撰写了详细步骤,确保大家都能逐步上手部署!大家可以关注笔者微信公众号:大模型真好玩,并私信Suna部署教程获得完整安装包。 以下教程基于笔者提供的Suna修改后项目源码,大家不要搞错~

2.1 Suna技术架构

在快速部署Suna前需要先对Suna技术架构有一个完整了解。

在这里插入图片描述

基座模型选择方面,Suna默认使用目前Agent性能最强的Claude3.7模型作为基座模型,同时支持使用OpenRouter和LiteLLM这两款工具调用其它模型(不用担心你充值的Claude4无用武之地!)。

开发框架选取上,Suna采用LangChainLangGraph作为开发框架。核心组件方面通用智能体运行往往需要创建独立的沙盒环境,相当于搭建一个虚拟机在安全环境中操作浏览器和编程。Suna使用的沙盒工具是Daytona,也是目前为数不多支持MCP工具调用的沙盒环境。此外智能体数据方面Suna采用稳定高效的Redis交互,保证内容快速传导。后端Suna采用了Supabase开源工具,为项目提供了一整套所需的Agent后端功能。

MCP工具使用方面,Suna采用的搜索引擎是tavily, 这是目前性能最好专门为智能体提供搜索服务的MCP引擎,也是LangChain内置的搜索引擎。在爬虫方面,suna采用了FireCrawl工具,这也是一款新兴的、专门为Agent和RAG系统设计的智能爬虫工具(我在 Qwen3+Qwen Agent +MCP智能体开发实战(二)—10分钟打造"MiniManus"文章中也介绍过FireCrawl工具的使用)。

Suna依赖的很多组件是当代企业级智能体开发的必备基础,对Suna项目的深入研究也是对人工智能大模型发展现状的直观了解~

2.2 Suna环境基础

在初步了解了Suna的基础组件后,接下来就正式上手在本地部署Suna,这里以windows系统为例(注意最好全程开启科学上网,否则会遇到部分配置无法完成情况)。Suna是一个包含前后端的全栈项目,我们需要使用anaconda和docker运行Suna必备的后端依赖,使用NodeJs运行Suna的前端依赖,我们首先安装anaconda, nodejs和docker。

  1. anaconda创建虚拟环境,node.js运行前端依赖。这部分我写过很多次这里就不加赘述了。可以看我的文章基于 MCP Http SSE模式的天气助手智能体开发实战(一文带你了解MCP两种开发模式)
  2. suna的安装需要docker部署,windows下可下载docker desktop软件快速进行docker 容器的部署, 详细教程可参考博客:https://blog.csdn.net/HYP_Coder/article/details/141753300

2.3 Suna依赖包安装

  1. 首先大家进入我提供的Suna修改后项目源码文件夹中,进入backend后端文件夹并在该目录下打开命令行,执行如下命令创建Suna后端运行虚拟环境。
conda create -n suna python=3.11 #创建suna后端运行虚拟环境
conda activate #激活虚拟环境

然后在后端目录下执行pip install -r requirements.txt目录安装后端依赖库

在这里插入图片描述

  1. 后端库安装完成后我们进入项目前端文件夹frontend, 同样在当前目录下打开命令行并执行npm install命令安装前端依赖,

在这里插入图片描述

前后端依赖安装完成后我们就初步搭建了Suna的运行环境!

2.4 suna先决配置

Suna运行由很多先决软件配置:

  1. 获取搜索引擎tavily的API Key, 登录tavily官网, 完成注册并获取API Key。

在这里插入图片描述
在这里插入图片描述

获取API Key后进入Suna项目的后端backend文件夹,用文本编辑器打开.env文件,将刚刚复制的API-KEY写入TAVILY_API_KEY

在这里插入图片描述

  1. 接下来继续获取网络爬虫FireCrawl的API Key,同样需要登录官网在完成注册后在dashboard页面复制API-KEY,然后同样是在backend.env文件中写入FIRECRAWL_API_KEY

在这里插入图片描述

  1. 接下来继续设置沙盒环境Daytona, Daytona设置稍微复杂一些,需先进入daytona官网并注册, 同时daytona需要搭配一个Suna镜像才能顺利运行。点击左边栏images, 点击右上角的Create Image,按下图中的内容进行填写,然后等待镜像导入完成。

在这里插入图片描述

镜像导入结束后点击左侧的keys选项并创建API-Key, 最后同样将创建好的Daytona API-KEY写入backend中的.env配置文件中。

在这里插入图片描述

  1. 配置后端服务工具Supabase, 我们还是需要登录supbase官网,根据引导完成注册和项目创建

在这里插入图片描述
在这里插入图片描述

我这里创建了一个名为suna-test的项目,然后在项目主页的左侧选择Project setting, 然后点击Data API, 往下翻找到Schemas选型,确保选择如图所示的三种格式。

在这里插入图片描述

继续在当前页面往上翻,找到如下图所示的三项核心信息,分别复制填入.env文件中箭头所示的三个变量中,保存env文件。

在这里插入图片描述

  1. 完成上述四项配置之后回到后端文件夹backend的命令行中,输入如下三项命令:
npx supabase login #登录supabase命令

该命令输入后会弹出supabase登录网页,按验证码填入命令行即可

在这里插入图片描述

第二条命令是在本地设置默认项目,需要关联到supabase对应的项目ID(我们这里就是suna-test的项目ID)

supbase link --project-ref 项目ID

在这里插入图片描述

第三条命令则是将本地数据表格式同步到关联的项目中, 全部执行完后suna后端的配置就全部完成了。

npx supbase db push

在这里插入图片描述

  1. 接下来进行Suna的基础模型配置,我们这里分别为Suna的前端和后端配置不同的大模型,大幅加快suna的响应速度。在后端配置中推荐使用Claude3.7模型,这是目前Agent能力最强的模型,也是suna官方的默认模型。我这里直接在某宝获得Claude官方API-KEY,并在后端的.env文件中写入API-KEY:

在这里插入图片描述

然后我们进入前端frontend目录,打开.env.local配置文件,按下图所示把后端的部分配置复制写入前端配置文件中, 并在最后一行OPENAI_API_KEY一栏写入DeepSeek官方的API-KEY,保存并退出。

在这里插入图片描述

完成以上这些步骤后,我们就可以体验Suna啦!

三、 Suna启动流程

  1. 启动docker desktop, 在backend文件夹下打开命令行输入如下启动命令启动Redis:
conda activate suna
docker compose up redis

在这里插入图片描述

  1. 同样在backend文件夹下再打开一个命令行, 执行如下启动命令开启后端suna服务:
conda activate suna
python api.py

在这里插入图片描述

  1. 最后在frontend文件夹下打开命令行,输入npm run dev命令开启前端:

在这里插入图片描述

  1. 前端启动后我们就可以再http://localhost:3000启动suna啦!首次启动suna需要注册,使用任意邮箱注册即可,然后就可以看到对话页面开始进行对话啦

在这里插入图片描述
在这里插入图片描述

四、Suna体验结果

接下来我们就测试Suna的基本性能,Suna支持普通对话聊天也可以执行各类复杂任务。我们使用开始的Kaggle分析报告需求检验Suna:

帮我在Kaggle网站上筛选过去6个月中与大预言模型多模态模型相关的比赛项目,抓取每个比赛的基本信息,包括标题、链接、举办时间、主办方、任务类型(如文本生成、图文理解、函数调用、评估优化等),以及是否由模型规模、资源限制的要求,最后汇总成一份结构化报告(表格或JSON均可),用于分析当前大模型赛题的分布趋势

在这里插入图片描述
在这里插入图片描述

整个过程Suna会先进行任务规划,然后一步步执行,执行过程中能够调用命令行、操作浏览器、编写Python代码、并且还能在沙盒环境中创建和编写相关文件等,看到这大家是不是觉得再复杂的部署流程也是值得的呢!

五、结语

本期分享我们介绍了Suna的核心架构,并手把手教学如何借助Saas服务来部署Suna。相信大家目前在本地都已经布置好了Suna,请在评论区留下你利用Suna进行的骚操作玩法吧!技术只有脚踏实地,开源分享才能被更好的发展和利用,Suna给“营销之王”Manus狠狠的上了一课!

今天分享到这里就结束了,感兴趣大家点个关注吧。大家也可关注我的同名微信公众号:大模型真好玩,免费分享工作生活中大模型的开发经验和资料~


网站公告

今日签到

点亮在社区的每一天
去签到