【AIGC 前沿】蓝耘 MaaS 搭载海螺 AI 视频,开启视频创作 “芯” 时代

发布于:2025-03-20 ⋅ 阅读:(23) ⋅ 点赞:(0)

海螺AI

在这里插入图片描述

海螺 AI 是由上海稀宇科技有限公司(MiniMax)基于自研的万亿参数 MoE 大语言模型 ABAB6.5 和 MiniMax语音大模型研发的一款多功能 AI 工具。

MiniMax是一家人工智能初创公司,核心团队来自商汤科技等知名企业,聚焦多模态大模型研发。

海螺AI官网

在这里插入图片描述


核心模型架构

基础模型:abab-6.5

(自研万亿参数 MoE 架构)

混合专家系统设计

  • 动态路由机制:采用 Sparse Gating Network,根据输入内容自动激活 8-12个子专家模型(如代码专家、多语言专家、逻辑推理专家)。
  • 参数规模:总参数量达 1.2 万亿,其中活跃参数量控制在 2000 亿/query,实现高容量与低推理成本的平衡。

训练优化

  • 数据并行:128 路模型并行 + ZeRO-3 显存优化
  • 损失函数:Task-MoE 联合训练(任务损失 + 专家负载均衡损失)

语音模型:speech-01

(多语言语音合成引擎)

技术栈:

  • 前端处理:HiFi-GAN 声码器 + FastSpeech2韵律控制

核心创新:

  • 音色解耦编码:通过 Vector-Quantized VAEs 分离音色与语义特征
  • 跨语言迁移:共享音素编码空间,支持 8 语言音色无缝切换

声音克隆:

  • Zero-shot 克隆:基于 10 秒样本提取 音色指纹(d-vector),适配预设音素序列
  • speech-01:语音大模型,支持 8 种语言(中/英/德/法等),内置 30+ 音色,实现高拟真语音交互。

视频生成管线

三阶段生成流程:

图像理解
语义场景图构建
物理引擎模拟
神经渲染

图像理解层:

  • 基于 GLIPv2 的开放域对象检测 + 关系提取

物理引擎层:

  • 集成 NVIDIA PhysX 实现粒子/刚体运动模拟

渲染层:

  • 基础帧生成:Stable Video Diffusion-XL
  • 特效合成:NeRF 动态光照 + GAN 细节增强

关键子系统

长文本处理引擎

  • 上下文窗口:支持 128K tokens 连贯处理

内存优化:

  • Hierarchical Attention:分层压缩历史上下文
  • FlashAttention-2:实现 3.2 倍于常规 Transformer 的吞吐量

结构化输出:

  • 基于 CodeLlama 的文本到 Markdown/LaTeX/JSON 自动转换

智能搜索系统

混合检索架构:

def retrieve(query):  
    bm25_scores = sparse_retriever(query)  
    dense_embeddings = colbert_encoder(query)  
    reranked = cross_encoder.rerank(bm25_top100, dense_top100)  
    return fusion(reranked, dbpedia_graph.expand())  
  • 集成 ColBERT 稠密检索 + BM25 稀疏检索
  • 知识图谱扩展:基于 ROG(Reasoning Over Graph) 实现多跳推理

边缘推理优化

移动端部署方案:

  • 模型压缩:采用 AWQ(Activation-aware Weight Quantization) 实现 4-bit 量化,精度损失<1%

异构计算:

  • iOS:CoreML + ANE(Apple Neural Engine)加速
  • 安卓:TFLite GPU 委托 + Hexagon DSP 协同

蓝耘MaaS平台

在这里插入图片描述

什么是MaaS平台?

  • MaaS(Model-as-a-Service,模型即服务)平台
    在这里插入图片描述

模型即服务(MaaS)平台面向企业开发者、创业者及非技术背景用户,提供开箱即用的热门AI模型服务,支持零代码体验、API快速集成与灵活计费,降低AI应用开发门槛,加速业务创新。允许用户通过API接口或其他方式访问和使用预先训练好的机器学习模型,无需自己从头开始训练模型,使得即使没有深厚机器学习背景的用户也能享受到高水平的AI技术支持。

蓝耘MaaS平台属于企业级AI模型服务基础设施,旨在通过云服务形式提供预训练模型、行业定制化模型及配套工具链,降低企业AI应用门槛。

核心目标

  • 模型快速部署:简化模型从开发到生产的全流程。
  • 资源弹性扩展:按需调用算力与模型服务,优化成本。
  • 垂直场景适配:针对金融、医疗、工业等领域提供专用模型。

技术架构

  • 云原生架构:基于 Kubernetes 的弹性资源调度,适配混合云/私有云部署。
  • 异构计算支持:集成 GPU/NPU 算力池,优化推理效率。
  • 数据隐私合规:提供联邦学习、隐私计算选项,满足金融/医疗等敏感场景需求。
  • 开放生态:可能支持 PyTorchTensorFlow 等框架,并与主流数据平台(如 Hadoop、Spark)集成。

支持的大模型

文本模型:

模型 API 调用模型名 免费赠送token 单价(元/百万token) 支持上下文长度 输入 token 上限 输出 token 上限
DeepSeek-R1 /maas/deepseek-ai/DeepSeek-R1 5百万 8.00 元 60K 65536 9536
DeepSeek-V3 /maas/deepseek-ai/DeepSeek-V3 5百万 4.00 元 60K 65536 9536
QwQ-32B /maas/qwen/QwQ-32B 1百万 4.00 元 40K 40960 9536

Token是指模型处理和生成文本时的基本单元,中文的Token通常是一个字或词,英文的Token通常是一个单词、子词或词组。

除了上述文生文的deepseek,Maas平台还支持图像理解与生成、音视频理解与生成、数学领域、法律领域等方面的大模型。平台后续将纳管众多主流的第三方大模型,例如LlamaChatGLM、零一万物、Stable Diffusion等大模型。

其他大模型:

模型类别 典型模型示例 应用场景案例
视觉大模型 ViT/Stable Diffusion/工业质检微调模型 生产线缺陷检测、医疗影像分析
多模态模型 Flamingo/BLIP-2变体 电商图文生成、广告创意设计
科学模型 类AlphaFold结构/气象预测模型 分子模拟、气候建模

为什么选择蓝耘使用海螺AI?

技术适配性优势

维度 蓝耘MaaS + 海螺AI 方案 通用云平台方案对比
多模态支持 深度优化海螺AI的图生视频/语音克隆能力,提供低代码适配工具(如工业质检视频模板) 需自行开发适配层,增加3-6个月研发周期
长文本处理 基于蓝耘的128K上下文扩展技术,使海螺AI的文档解析效率提升40%(实测金融合同场景) 通常限制在32K-64K,需多次分段处理
边缘部署 提供ARM/X86异构编译工具链,支持海螺AI模型在工厂摄像头/医疗设备端运行(时延<50ms) 仅支持云端API调用,边缘端需自建推理框架

核心技术协同架构

海螺AI模型
蓝耘MaaS平台
动态资源分配
模型轻量化部署
隐私数据训练
多模态对齐层
abab-6.5 MoE模型
视频生成管线
speech-01语音引擎
异构计算资源池
云原生调度引擎
联邦学习框架
边缘节点管理

视频生成加速方案

# 视频生成管线优化示例
def generate_video_optimized(image, prompt):
    # 阶段1:蓝耘MaaS并行预处理
    with parallel_process(
        feature_extractor=ViT-22B, 
        scene_graph=GraphRCNN
    ) as (features, graph):
        
    # 阶段2:海螺AI核心生成
    frames = StableVideoXL(
        latent_space=features, 
        physics_constraints=PhysX(graph)
    )
    
    # 阶段3:边缘端实时渲染
    return render_with_neRF(frames, device='edge')

性能指标:4K视频生成速度从15分钟/秒提升至2分钟/秒(Tesla T4环境)

全生命周期工具链

# 示例:从训练到部署命令行工具链
$ bluecloud train --model=abab6.5 --task=ner --dataset=medical
$ bluecloud quantize --precision=int8 --accelerator=jetson
$ bluecloud deploy --target=edge --protocol=MQTT

开放生态集成

  • 支持ONNX/TensorRT等工业标准格式
  • 提供与Kafka/Spark/Flink等大数据组件预集成方案

部署架构对比

维度 蓝耘MaaS方案 传统方案
模型格式 自适应量化(FP16/INT8动态切换) 固定精度(通常FP32)
硬件兼容性 支持NVIDIA Jetson/华为Atlas/寒武纪MLU全系列 单一芯片架构绑定
热更新机制 差分模型更新(<10MB/次) 全量替换(>2GB/次)

蓝耘MaaS平台与海螺AI的组合,本质上是通过领域工程化能力(蓝耘)放大基础模型潜力(海螺AI),在成本可控前提下实现“AI能力即插即用”。建议通过其官网申请制造业/金融/医疗专项试用包,针对性验证业务场景匹配度。


蓝耘MaaS使用海螺AI

如何注册并部署

首先得注册蓝耘平台账号,老生常谈的问题我就不细说了哈。

接下来我们为大家介绍如何注册蓝耘平台。

点击一键跳转注册🔥

跳转到如下界面:我们根据需要填写对应信息就可以注册成功。

在这里插入图片描述

注册成功后进入主页面,点击MaaS平台

在这里插入图片描述

随后选择视觉模型,可以看到已经MaaS平台已经提前为我们部署了海螺AI的模型,有图片生成视频和文本生曾视频两种途径。

在这里插入图片描述

使用教程

接下来我以图片生成视频为例,教会大家如何利用海螺AI快速实现图片生成视频。

在这里插入图片描述

操作步骤:

  • 首先我们需要上传相应的图片,比如我这里就上传一个我喜欢的壁纸
  • 然后还需要对想要生成的视频进行一段文字描述,上限200字,用来给AI知名视频的创作方向,
  • 接着选择对应的视频模型,我以基础版的模型为例,最后点击下方的立即生成即可

注意:

  • 每个用户都是有一次免费的生成机会的,由于我之前已经用过好多次,所以我都免费次数已经耗尽,我需要购买次数,大家可以借助免费的生成体验一下海螺AI的视频生成水平

在这里插入图片描述

可以看到视频已经在生成中,即便退出后AI仍会继续生成,接着等待一会,我们来看视频效如何

示例视频1:


然后我们优化一下提示词,同样是选择最基础的视频模型,让海螺AI重新生成视频,略微等待,我们查看视频效果

  • 优化后的提示词如下:

大朵大朵的雪花如同鹅毛般纷纷扬扬地飘落,将整个世界装点得银装素裹。在这漫天飞雪之中,一位女孩静静伫立。她的发丝间沾着少许晶莹剔透的雪花,宛如点点细碎的钻石在闪烁。只见她缓缓眨动着那双明亮的眼睛,长长的睫毛如蝴蝶翅膀般扑闪,眸中似藏着星辰与雪花交融的光芒。紧接着,她微微抬起手,动作轻柔得仿佛怕惊扰了这漫天飞雪,那纤细的手指轻轻穿过发丝,将沾着雪花的几缕头发捋到耳后,一举一动间,尽显温婉与柔美。

在这里插入图片描述

示例视频2:


这样看来,蓝耘MaaS平台下部署的海螺AI名不虚传,而且这还只是最基础版本的视频模型,如果追求更高的视频创作质量,可以选择更加专业的视频模型。

在这里插入图片描述

无论是专业版还是基础版的价格都是一样的,多种选择供你来挑选!

API接口调用

OpenAI兼容接口

直接使用 OpenAI 官方提供的 SDK 来调用大模型对话接口。您仅需要将 base_urlapi_key 替换成相关配置,不需要对应用做额外修改,即可无缝将您的应用切换到相应的大模型。

base_url:https://maas-api.lanyun.net/v1
api_key:如需获取请参考获取API KEY
接口完整路径:https://maas-api.lanyun.net/v1/chat/completions

python

创建一个python文件命名为 ark_example.py,将下面示例代码拷贝进文件。并替换密钥为您的API KEY。替换content中的<你是谁>为您想要的提问内容。点击运行,稍等您可以在终端窗口中看到模型调用的返回结果。这样您就完成了您的首次型服务调用。

from openai import OpenAI

# 构造 client
client = OpenAI(
    api_key="sk-xxxxxxxxxxx",  # APIKey
    base_url="https://maas-api.lanyun.net/v1",
)
# 流式
stream = True
# 请求
chat_completion = client.chat.completions.create(
    model="/maas/deepseek-ai/DeepSeek-R1",
    messages=[
        {
            "role": "user",
            "content": "你是谁",
        }
    ],
    stream=stream,
)
if stream:
   for chunk in chat_completion:
       # 打印思维链内容
       if hasattr(chunk.choices[0].delta, 'reasoning_content'):
          print(f"{chunk.choices[0].delta.reasoning_content}", end="")
       # 打印模型最终返回的content
       if hasattr(chunk.choices[0].delta, 'content'):
          if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0:
             print(chunk.choices[0].delta.content, end="")
else:
   result = chat_completion.choices[0].message.content

NodeJS

const OpenAI = require("openai");

// 构造 client
const client = new OpenAI({
    apiKey: "sk-xxxxxxxxxxx", //  APIKey
    baseURL: "https://maas-api.lanyun.net/v1/chat/completions", 
});

// 定义一个异步函数来处理请求
async function getCompletion() {
    try {
        const completion = await client.chat.completions.create({
            model: '/maas/deepseek-ai/DeepSeek-R1',
            messages: [{ role: 'user', content: '你好' }],
            stream: true, 
        });

        // 处理流式响应
        for await (const chunk of completion) {
            if (chunk.choices) {
                // 打印思维链内容
                console.log("reasoning_content:", chunk.choices[0]?.delta?.reasoning_content);
                // 打印模型最终返回的content
                console.log("content", chunk.choices[0]?.delta?.content);
            }
        }
    } catch (error) {
        console.error("Error occurred:", error);
    }
}

// 调用异步函数
getCompletion();

cURL

您可以通过 HTTP 方式直接调用模型服务。在终端窗口中,拷贝下面命令,并替换密钥为您的API KEY。替换content中的<你好>为您想要的提问内容。稍等您可以在终端窗口中看到模型调用的返回结果。这样您就完成了您的首次型服务调用

curl https://maas-api.lanyun.net/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-xxxxxxxxxxx" \
-d '{
  "model": "/maas/deepseek-ai/DeepSeek-R1",
  "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ],
  "stream": true
}'

获取 API Key

进入 API平台 > 立即接入 管理,单击创建 API KEY。
  • 单击创建 API Key 按钮。
  • 在弹出框的名称文本框中确认/更改 API Key 名称,单击创建。

说明: 请妥善保存好API Key,强烈建议不要将其直接写入到调用模型的代码中

  • 创建完成后,进入 API KEY 管理,进行新增、查看、删除操作

写在最后

蓝耘MaaS平台提供了一种便捷的途径,让用户能够快速注册并部署海螺AI,享受其强大的视频生成等核心功能。通过该平台,用户可以轻松获取API密钥并进行功能调用,同时享受平台提供的可扩展性、安全保障以及专业的技术支持。

本文到这里就结束了,如果你也被海螺AI的强大的视频生成能力所吸引,想去完成自己的探索和尝试,那么欢迎你成为蓝耘平台的新用户前来体验,注册链接就在下面,快去试试吧!我们下期再见!

 https://cloud.lanyun.net//#/registerPage?promoterCode=0131

网站公告

今日签到

点亮在社区的每一天
去签到