蓝耘 MaaS 搭载海螺 AI 视频
海螺AI
海螺 AI 是由上海稀宇科技有限公司(
MiniMax
)基于自研的万亿参数 MoE 大语言模型 ABAB6.5 和 MiniMax语音大模型研发的一款多功能 AI 工具。MiniMax是一家人工智能初创公司,核心团队来自商汤科技等知名企业,聚焦多模态大模型研发。
核心模型架构
基础模型:abab-6.5
(自研万亿参数 MoE
架构)
混合专家系统设计
- 动态路由机制:采用
Sparse Gating Network
,根据输入内容自动激活 8-12个子专家模型(如代码专家、多语言专家、逻辑推理专家)。 - 参数规模:总参数量达 1.2 万亿,其中活跃参数量控制在 2000 亿/query,实现高容量与低推理成本的平衡。
训练优化:
- 数据并行:128 路模型并行 + ZeRO-3 显存优化
- 损失函数:Task-MoE 联合训练(任务损失 + 专家负载均衡损失)
语音模型:speech-01
(多语言语音合成引擎)
技术栈:
- 前端处理:HiFi-GAN 声码器 + FastSpeech2韵律控制
核心创新:
- 音色解耦编码:通过 Vector-Quantized VAEs 分离音色与语义特征
- 跨语言迁移:共享音素编码空间,支持 8 语言音色无缝切换
声音克隆:
- Zero-shot 克隆:基于 10 秒样本提取 音色指纹(d-vector),适配预设音素序列
- speech-01:语音大模型,支持 8 种语言(中/英/德/法等),内置 30+ 音色,实现高拟真语音交互。
视频生成管线
三阶段生成流程:
图像理解层:
- 基于 GLIPv2 的开放域对象检测 + 关系提取
物理引擎层:
- 集成 NVIDIA PhysX 实现粒子/刚体运动模拟
渲染层:
- 基础帧生成:Stable Video Diffusion-XL
- 特效合成:NeRF 动态光照 + GAN 细节增强
关键子系统
长文本处理引擎
- 上下文窗口:支持 128K tokens 连贯处理
内存优化:
- Hierarchical Attention:分层压缩历史上下文
- FlashAttention-2:实现 3.2 倍于常规 Transformer 的吞吐量
结构化输出:
- 基于 CodeLlama 的文本到 Markdown/LaTeX/JSON 自动转换
智能搜索系统
混合检索架构:
def retrieve(query):
bm25_scores = sparse_retriever(query)
dense_embeddings = colbert_encoder(query)
reranked = cross_encoder.rerank(bm25_top100, dense_top100)
return fusion(reranked, dbpedia_graph.expand())
- 集成 ColBERT 稠密检索 + BM25 稀疏检索
- 知识图谱扩展:基于 ROG(Reasoning Over Graph) 实现多跳推理
边缘推理优化
移动端部署方案:
- 模型压缩:采用 AWQ(Activation-aware Weight Quantization) 实现 4-bit 量化,精度损失<1%
异构计算:
- iOS:CoreML + ANE(Apple Neural Engine)加速
- 安卓:TFLite GPU 委托 + Hexagon DSP 协同
蓝耘MaaS平台
什么是MaaS平台?
- MaaS(
Model-as-a-Service
,模型即服务)平台
模型即服务(MaaS)平台面向企业开发者、创业者及非技术背景用户,提供开箱即用的热门AI模型服务,支持零代码体验、API快速集成与灵活计费,降低AI应用开发门槛,加速业务创新。允许用户通过API接口或其他方式访问和使用预先训练好的机器学习模型,无需自己从头开始训练模型,使得即使没有深厚机器学习背景的用户也能享受到高水平的AI技术支持。
蓝耘MaaS平台属于企业级AI模型服务基础设施,旨在通过云服务形式提供预训练模型、行业定制化模型及配套工具链,降低企业AI应用门槛。
核心目标
- 模型快速部署:简化模型从开发到生产的全流程。
- 资源弹性扩展:按需调用算力与模型服务,优化成本。
- 垂直场景适配:针对金融、医疗、工业等领域提供专用模型。
技术架构
- 云原生架构:基于
Kubernetes
的弹性资源调度,适配混合云/私有云部署。 - 异构计算支持:集成
GPU/NPU
算力池,优化推理效率。 - 数据隐私合规:提供联邦学习、隐私计算选项,满足金融/医疗等敏感场景需求。
- 开放生态:可能支持
PyTorch
、TensorFlow
等框架,并与主流数据平台(如Hadoop、Spark
)集成。
支持的大模型
文本模型:
模型 | API 调用模型名 | 免费赠送token | 单价(元/百万token) | 支持上下文长度 | 输入 token 上限 | 输出 token 上限 |
---|---|---|---|---|---|---|
DeepSeek-R1 | /maas/deepseek-ai/DeepSeek-R1 | 5百万 | 8.00 元 | 60K | 65536 | 9536 |
DeepSeek-V3 | /maas/deepseek-ai/DeepSeek-V3 | 5百万 | 4.00 元 | 60K | 65536 | 9536 |
QwQ-32B | /maas/qwen/QwQ-32B | 1百万 | 4.00 元 | 40K | 40960 | 9536 |
Token是指模型处理和生成文本时的基本单元,中文的Token通常是一个字或词,英文的Token通常是一个单词、子词或词组。
除了上述文生文的deepseek,Maas平台还支持图像理解与生成、音视频理解与生成、数学领域、法律领域等方面的大模型。平台后续将纳管众多主流的第三方大模型,例如Llama
、ChatGLM
、零一万物、Stable Diffusion
等大模型。
其他大模型:
模型类别 | 典型模型示例 | 应用场景案例 |
---|---|---|
视觉大模型 | ViT/Stable Diffusion/工业质检微调模型 | 生产线缺陷检测、医疗影像分析 |
多模态模型 | Flamingo/BLIP-2变体 | 电商图文生成、广告创意设计 |
科学模型 | 类AlphaFold结构/气象预测模型 | 分子模拟、气候建模 |
为什么选择蓝耘使用海螺AI?
技术适配性优势
维度 | 蓝耘MaaS + 海螺AI 方案 | 通用云平台方案对比 |
---|---|---|
多模态支持 | 深度优化海螺AI的图生视频/语音克隆能力,提供低代码适配工具(如工业质检视频模板) | 需自行开发适配层,增加3-6个月研发周期 |
长文本处理 | 基于蓝耘的128K上下文扩展技术,使海螺AI的文档解析效率提升40%(实测金融合同场景) | 通常限制在32K-64K,需多次分段处理 |
边缘部署 | 提供ARM/X86异构编译工具链,支持海螺AI模型在工厂摄像头/医疗设备端运行(时延<50ms) | 仅支持云端API调用,边缘端需自建推理框架 |
核心技术协同架构
视频生成加速方案
# 视频生成管线优化示例
def generate_video_optimized(image, prompt):
# 阶段1:蓝耘MaaS并行预处理
with parallel_process(
feature_extractor=ViT-22B,
scene_graph=GraphRCNN
) as (features, graph):
# 阶段2:海螺AI核心生成
frames = StableVideoXL(
latent_space=features,
physics_constraints=PhysX(graph)
)
# 阶段3:边缘端实时渲染
return render_with_neRF(frames, device='edge')
性能指标:4K视频生成速度从15分钟/秒提升至2分钟/秒(Tesla T4环境)
全生命周期工具链
# 示例:从训练到部署命令行工具链
$ bluecloud train --model=abab6.5 --task=ner --dataset=medical
$ bluecloud quantize --precision=int8 --accelerator=jetson
$ bluecloud deploy --target=edge --protocol=MQTT
开放生态集成
- 支持ONNX/TensorRT等工业标准格式
- 提供与Kafka/Spark/Flink等大数据组件预集成方案
部署架构对比
维度 | 蓝耘MaaS方案 | 传统方案 |
---|---|---|
模型格式 | 自适应量化(FP16/INT8动态切换) | 固定精度(通常FP32) |
硬件兼容性 | 支持NVIDIA Jetson/华为Atlas/寒武纪MLU全系列 | 单一芯片架构绑定 |
热更新机制 | 差分模型更新(<10MB/次) | 全量替换(>2GB/次) |
蓝耘MaaS平台与海螺AI的组合,本质上是通过领域工程化能力(蓝耘)放大基础模型潜力(海螺AI),在成本可控前提下实现“AI能力即插即用”。建议通过其官网申请制造业/金融/医疗专项试用包,针对性验证业务场景匹配度。
蓝耘MaaS使用海螺AI
如何注册并部署
首先得注册蓝耘平台账号,老生常谈的问题我就不细说了哈。
接下来我们为大家介绍如何注册蓝耘平台。
跳转到如下界面:我们根据需要填写对应信息就可以注册成功。
注册成功后进入主页面,点击MaaS
平台
随后选择视觉模型,可以看到已经MaaS平台已经提前为我们部署了海螺AI的模型,有图片生成视频和文本生曾视频两种途径。
使用教程
接下来我以图片生成视频为例,教会大家如何利用海螺AI快速实现图片生成视频。
操作步骤:
- 首先我们需要上传相应的图片,比如我这里就上传一个我喜欢的壁纸
- 然后还需要对想要生成的视频进行一段文字描述,上限200字,用来给AI知名视频的创作方向,
- 接着选择对应的视频模型,我以基础版的模型为例,最后点击下方的立即生成即可
注意:
- 每个用户都是有一次免费的生成机会的,由于我之前已经用过好多次,所以我都免费次数已经耗尽,我需要购买次数,大家可以借助免费的生成体验一下海螺AI的视频生成水平
可以看到视频已经在生成中,即便退出后AI仍会继续生成,接着等待一会,我们来看视频效如何
示例视频1:
然后我们优化一下提示词,同样是选择最基础的视频模型,让海螺AI重新生成视频,略微等待,我们查看视频效果
- 优化后的提示词如下:
大朵大朵的雪花如同鹅毛般纷纷扬扬地飘落,将整个世界装点得银装素裹。在这漫天飞雪之中,一位女孩静静伫立。她的发丝间沾着少许晶莹剔透的雪花,宛如点点细碎的钻石在闪烁。只见她缓缓眨动着那双明亮的眼睛,长长的睫毛如蝴蝶翅膀般扑闪,眸中似藏着星辰与雪花交融的光芒。紧接着,她微微抬起手,动作轻柔得仿佛怕惊扰了这漫天飞雪,那纤细的手指轻轻穿过发丝,将沾着雪花的几缕头发捋到耳后,一举一动间,尽显温婉与柔美。
示例视频2:
这样看来,蓝耘MaaS平台下部署的海螺AI名不虚传,而且这还只是最基础版本的视频模型,如果追求更高的视频创作质量,可以选择更加专业的视频模型。
无论是专业版还是基础版的价格都是一样的,多种选择供你来挑选!
API接口调用
OpenAI兼容接口
直接使用 OpenAI 官方提供的 SDK 来调用大模型对话接口。您仅需要将 base_url
和 api_key
替换成相关配置,不需要对应用做额外修改,即可无缝将您的应用切换到相应的大模型。
base_url:https://maas-api.lanyun.net/v1
api_key:如需获取请参考获取API KEY
接口完整路径:https://maas-api.lanyun.net/v1/chat/completions
python
创建一个python文件命名为 ark_example.py
,将下面示例代码拷贝进文件。并替换密钥为您的API KEY。替换content中的<你是谁>为您想要的提问内容。点击运行,稍等您可以在终端窗口中看到模型调用的返回结果。这样您就完成了您的首次型服务调用。
from openai import OpenAI
# 构造 client
client = OpenAI(
api_key="sk-xxxxxxxxxxx", # APIKey
base_url="https://maas-api.lanyun.net/v1",
)
# 流式
stream = True
# 请求
chat_completion = client.chat.completions.create(
model="/maas/deepseek-ai/DeepSeek-R1",
messages=[
{
"role": "user",
"content": "你是谁",
}
],
stream=stream,
)
if stream:
for chunk in chat_completion:
# 打印思维链内容
if hasattr(chunk.choices[0].delta, 'reasoning_content'):
print(f"{chunk.choices[0].delta.reasoning_content}", end="")
# 打印模型最终返回的content
if hasattr(chunk.choices[0].delta, 'content'):
if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0:
print(chunk.choices[0].delta.content, end="")
else:
result = chat_completion.choices[0].message.content
NodeJS
const OpenAI = require("openai");
// 构造 client
const client = new OpenAI({
apiKey: "sk-xxxxxxxxxxx", // APIKey
baseURL: "https://maas-api.lanyun.net/v1/chat/completions",
});
// 定义一个异步函数来处理请求
async function getCompletion() {
try {
const completion = await client.chat.completions.create({
model: '/maas/deepseek-ai/DeepSeek-R1',
messages: [{ role: 'user', content: '你好' }],
stream: true,
});
// 处理流式响应
for await (const chunk of completion) {
if (chunk.choices) {
// 打印思维链内容
console.log("reasoning_content:", chunk.choices[0]?.delta?.reasoning_content);
// 打印模型最终返回的content
console.log("content", chunk.choices[0]?.delta?.content);
}
}
} catch (error) {
console.error("Error occurred:", error);
}
}
// 调用异步函数
getCompletion();
cURL
您可以通过 HTTP 方式直接调用模型服务。在终端窗口中,拷贝下面命令,并替换密钥为您的API KEY。替换content中的<你好>为您想要的提问内容。稍等您可以在终端窗口中看到模型调用的返回结果。这样您就完成了您的首次型服务调用
curl https://maas-api.lanyun.net/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-xxxxxxxxxxx" \
-d '{
"model": "/maas/deepseek-ai/DeepSeek-R1",
"messages": [
{
"role": "user",
"content": "你好"
}
],
"stream": true
}'
获取 API Key
进入 API平台 > 立即接入 管理,单击创建 API KEY。
- 单击创建
API Key
按钮。 - 在弹出框的名称文本框中确认/更改 API Key 名称,单击创建。
说明: 请妥善保存好API Key,强烈建议不要将其直接写入到调用模型的代码中
- 创建完成后,进入 API KEY 管理,进行新增、查看、删除操作
写在最后
蓝耘MaaS平台提供了一种便捷的途径,让用户能够快速注册并部署海螺AI,享受其强大的视频生成等核心功能。通过该平台,用户可以轻松获取API密钥并进行功能调用,同时享受平台提供的可扩展性、安全保障以及专业的技术支持。
本文到这里就结束了,如果你也被海螺AI的强大的视频生成能力所吸引,想去完成自己的探索和尝试,那么欢迎你成为蓝耘平台的新用户前来体验,注册链接就在下面,快去试试吧!我们下期再见!
https://cloud.lanyun.net//#/registerPage?promoterCode=0131