随着人工智能模型规模的指数级增长,传统计算精度带来的存储和算力需求已成为制约AI发展的关键瓶颈。在这一背景下,FP4(4位浮点数)精度的出现标志着一场深刻的计算范式变革。本文将全面剖析FP4精度的技术原理、硬件实现、算法创新以及在训练和推理中的应用突破,揭示这一超低精度格式如何重新定义AI计算的效率边界。从NVIDIA Blackwell架构的硬件支持到清华SageAttention的算法优化,从微软的FP4训练框架到量化误差控制技术,我们将深入探索FP4精度如何在不显著牺牲模型性能的前提下,实现计算速度的飞跃提升和能耗的大幅降低,为边缘计算、大模型推理等前沿领域开辟新的可能性。
FP4精度技术概述:重新定义AI计算效率
在人工智能计算领域,精度与效率的平衡始终是核心挑战。FP4(4位浮点数)作为一种超低精度的数值表示格式,正在引发一场深刻的计算革命。传统AI模型通常使用FP32(32位浮点数)或FP16(16位浮点数)进行训练和推理,而FP4通过将每个参数压缩到仅4位,实现了8倍于FP32的内存占用减少和显著的计算加速,同时保持了浮点表示的非线性特性。
FP4的基本结构遵循E2M1格式:1位符号位表示正负,2位指数位决定数值范围,1位尾数位提供有限的精度。这种设计使得FP4能够表示的数值包括±0、±0.5、±1.0、±1.5以及无穷大和NaN(非数值)。与整型量化(如INT4)不同,FP4属于非均匀量化,其数值间隔在接近零处较密,远离零处较疏,这一特性使其更适合处理神经网络中常见的非均匀分布数据。
FP4的技术优势主要体现在三个方面:内存效率、计算速度和能耗比。在内存方面,FP4仅需FP32的1/8存储空间,使得大型语言模型能够在有限的内存资源下运行;在计算速度上,Blackwell架构GPU的专用FP4张量核心相比FP16可提供2-8倍的运算吞吐量提升;在能耗方面,FP4运算所需的数据移动和计算能耗显著降低,实现了3.2倍的每瓦性能提升。
然而,FP4也面临精度损失的挑战。由于仅有4位表示,FP4只有15个可表示的有效数值(不包括零和特殊值),直接量化会导致显著的信息丢失。为解决这一问题,业界发展出了多种创新技术,如微缩比例量化(Micro-scaling)、两级量化策略以及混合精度设计,这些方法共同构成了FP4实用化的技术基础。
FP4的应用场景主要集中在AI推理领域,特别是在大型语言模型(LLM)、图像生成和专家混合(MoE)模型等方面表现出色。随着技术进步,FP4也开始向训练领域拓展,微软等机构已成功开发出支持FP4训练的框架,在130亿参数规模的模型上实现了与BF16相当的训练效果。这一发展为降低大模型训练成本提供了新的可能性。
从技术演进角度看,FP4并非孤立存在,而是浮点精度持续下探的最新成果。从FP64、FP32到FP16、BF16,再到FP8和现在的FP4,每一代精度降低都伴随着专用硬件支持和算法创新的协同发展7。FP4的成熟标志着AI计算进入了一个新纪元,其影响不仅限于数据中心,还将延伸至边缘设备和移动终端,为AI的普惠化铺平道路。
FP4的硬件架构支持:Blackwell革命与专用加速
FP4精度从理论走向实践的关键在于专用硬件支持,而NVIDIA的Blackwell架构GPU则成为这一技术落地的里程碑。2024年3月,NVIDIA在GTC大会上发布的Blackwell架构首次在硬件层面原生支持FP4运算,通过创新的Tensor Core设计和内存子系统优化,为超低精度AI计算提供了强大的基础设施。这一突破不仅解决了学术界量化算法长期面临的"硬件支持滞后"问题,更重新定义了AI计算的效能标竿。
Blackwell架构的FP4实现基于第五代Tensor Core,每个核心内部集成了直接支持4位浮点运算的专用硬件单元。与传统设计不同,这些Tensor Core采用了微张量缩放技术(Micro Tensor Scaling),能够动态调整数值范围,在保持精度的同时最大化表示效率。具体而言,Blackwell支持三种主要的4位浮点格式:标准FP4(E2M1)、MXFP4和NVFP4,其中NVFP4作为Blackwell的创新设计,通过结合高精度比例编码和二级微块缩放策略,显著减少了量化误差。
NVFP4的技术创新主要体现在两个方面:首先是高精度比例编码,它使用E4M3 FP8精度对每个16值微块进行编码,相比传统的E8M0格式,能够更准确地捕捉张量的实际分布;其次是二级微块缩放策略,即在每个张量级别应用FP32标量缩放,同时在更细粒度的16值微块上应用FP8缩放系数,通过这两个级别的缩放共同实现更精确的值表示。这种设计使得NVFP4在AI推理任务中能够保持接近FP8的准确度,同时获得约2倍的计算速度提升和1.8倍的内存占用减少。
Blackwell架构在不同产品形态中的FP4性能表现令人瞩目:B100 GPU提供7/14 petaflops(密集/稀疏)的FP4运算能力;B200 GPU提升至9/18 petaflops;而GB200 NVL72系统(36个CPU+72个GPU组合)更是达到了惊人的1,440 petaflops FP4计算性能。在消费级领域,RTX 5000系列显卡通过Blackwell架构的Tensor Core实现了FP4高效执行,结合GDDR7内存和512位总线,使模型载入速度提升2.3倍,能够支持更大规模的AI模型运行。
硬件架构的另一个关键创新是混合精度管线设计。Blackwell的Transformer Engine能够无缝协调FP4与FP8/FP16之间的转换,在模型的不同部分动态应用不同精度:在数值范围较大的区域使用较高精度,而在对误差不敏感的区域使用FP4以获得最大效率9。这种"智能精度分配"机制使得整体计算在保持质量的同时,显著提升了吞吐量。
特别值得注意的是,Blackwell架构针对FP4优化的内存子系统设计。传统量化方法虽然减少了模型大小,但由于需要频繁在高低精度之间转换,往往无法实现预期的加速效果。Blackwell通过硬件级支持FP4运算,避免了这种反量化开销,真正将低精度的理论优势转化为实际性能提升。测试表明,在RTX5090上,基于FP4优化的模型推理速度可比FP16快4-5倍,充分展现了硬件原生支持的价值24。
FP4硬件支持的影响不仅限于NVIDIA生态系统。行业趋势显示,AMD的RDNA4和Intel的Falcon Shores架构也将加入对FP4的支持,表明4位浮点运算正成为AI加速的行业标准。这种硬件层面的共识将进一步推动FP4算法和应用的快速发展,为AI模型的轻量化和高效化开辟更广阔的空间。
FP4量化的算法创新与误差控制
FP4精度的实用化不仅依赖硬件支持,更需要算法层面的突破来克服仅有4位表示带来的严重信息损失。传统量化方法直接应用于FP4会导致模型精度急剧下降,特别是在处理注意力机制等对数值范围敏感的运算时表现尤为明显。为解决这一挑战,研究人员发展出了一系列创新性的FP4量化算法,通过精细的数值表示策略和误差补偿机制,在极低精度下保持了模型性能。
微缩比例量化(Microscaling)是FP4算法创新的核心之一。该方法将矩阵划分为多个小块,每个块对应一个FP8格式的缩放因子。量化过程将矩阵每个值除以缩放因子后舍入得到FP4值;反量化则是将FP4值乘以缩放因子恢复近似原始值。这种技术的优势在于:一方面,FP8缩放因子提供了足够的动态范围来适应不同数值分布;另一方面,细粒度的块级缩放能够更好地捕捉局部数值特性。在实际应用中,微缩比例FP4矩阵乘法速度可达1600 TOPS,比传统FP16矩阵乘法(200 TOPS)快8倍。
清华大学的SageAttention3采用了更为精细的两级量化策略,专门针对注意力机制中的特殊数值分布进行优化。注意力图中的小值通常集中在[0,1]范围内,直接FP4量化会导致缩放因子动态范围极其狭窄。SageAttention3的解决方案是:首先通过按token量化将每个token的值范围归一化到[0,448×6],然后使用FP4微缩量化以提高精度,充分利用FP8缩放因子的表示范围。对于中间矩阵P的量化,研究人员发现直接使用FP4微缩量化会导致精度损失,因为缩放因子需要从FP32转换为E4M3格式时会降低精度。为此,他们先将矩阵P的每一行值范围扩展到一个更大区间,以充分利用E4M3的表示范围,然后再进行标准FP4量化。这种两级量化方法显著减少了缩放因子的数值表示误差和矩阵量化误差。
在硬件实现上,FP4量化算法面临内存布局和并行计算的挑战。例如,在FP4矩阵乘法中,FP32累加器的内存布局与操作数A的寄存器布局不一致,强行对齐会降低内核性能。解决方案是调整P块的列顺序,并相应调整K的列顺序,这一过程可与量化操作同步完成。此外,对P进行微缩比例量化时需要找到16个连续行元素的最大值,而这些元素分布在四个线程中,传统方法需要大量线程间通信。SageAttention3通过将量化与在线softmax操作融合,重用softmax计算中的最大值,减少了50%的冗余shuffle和最大值计算操作,实现了约10%的整体内核加速。
针对训练过程的FP4量化面临更大挑战,因为反向传播中的梯度特别容易受到量化误差影响。微软亚洲研究院开发的FP4训练框架采用了几项关键创新:在权重矩阵W与激活矩阵A上采用不同粒度策略——W使用列方向(channel-wise)量化,A使用行方向(token-wise)量化;采用逐层量化参数校准方法,通过scale+shift校准使数值分布良好映射到FP4范围;针对隐层激活中的"离群点"问题,实施"削峰和补偿"策略,对超出阈值的数值进行限制和校正。在混合精度设计上,该框架在梯度通信中使用FP8,优化器状态存储使用FP16,既保证了数值稳定性,又降低了计算和存储开销。
误差补偿是FP4量化算法的另一关键环节。NVIDIA开发了可微分梯度估计器(DGE)和动态截断补偿技术(OCC),通过数学方法修正4位量化引入的误差。这些技术能够在LLM训练中将损失差距控制在可接受范围内。同样值得注意的是,FP4量化通常需要识别计算图中对误差最敏感的部分并保持较高精度。例如,SageAttention3在反向传播的五个矩阵乘法中,识别出最敏感的一个保持FP16精度,其余四个使用FP4/INT8量化,既提高了效率又避免了误差累积。
不同FP4格式选择也影响算法效果。研究表明,在注意力量化中,NVFP4的精度明显高于MXFP45。NVFP4采用每16个值一个FP8(E4M3)缩放因子加每个张量一个FP32二级缩放系数的设计,相比MXFP4的每32个值一个共享power-of-two尺度,能更好地适应局部数值分布。这种格式选择对保持模型质量至关重要,特别是在生成式任务中。
FP4量化算法的演进体现了从均匀量化到非均匀量化,从全局缩放到局部自适应,从单纯推理加速到训练推理一体化的发展路径。这些创新不仅使FP4成为可行的计算格式,更为未来更低精度(如FP2)的探索奠定了基础。随着算法不断优化,FP4有望在更多场景中替代高精度计算,实现AI计算的效率革命。
FP4在模型推理中的突破性应用
FP4精度在AI模型推理阶段展现出变革性的应用价值,特别是在处理大型语言模型、图像生成和视频理解等计算密集型任务时,能够在不显著牺牲模型质量的前提下,大幅提升推理速度和能效比。随着NVIDIA Blackwell架构的推出和FP4算法的成熟,4位推理正从研究走向广泛的实际部署,为AI应用落地开辟了新的可能性。
在大型语言模型(LLM)推理领域,FP4的价值尤为突出。传统上,百亿参数级别的LLM需要高端GPU集群才能运行,而FP4量化使得单卡部署成为可能。DeepSeek推出的DeepSeek-R1-FP4模型专为Blackwell架构优化,单卡即可执行700亿参数级模型推理。关键突破在于FP4将模型内存占用减少到FP16的约25%,同时Blackwell的Tensor Core提供原生FP4计算支持,避免了传统量化方法中反量化带来的开销。实际测试表明,当使用训练后量化(PTQ)将FP8模型转为NVFP4时,DeepSeek-R1在关键语言建模任务上的准确度下降仅为1%或更低,在某些任务中甚至出现准确率提升2%的情况。
注意力机制加速是FP4推理的另一个重要应用场景。清华大学朱军教授团队开发的SageAttention3是首个专为FP4优化的注意力机制,在RTX5090上实现了1038 TOPS(每秒万亿次运算),比标准FlashAttention快5倍,比xformers快8-11倍。这一突破源自创新的量化策略:将注意力计算中的查询矩阵和键矩阵分别量化为FP4格式,使用FP4微缩比例矩阵乘法指令计算中间结果,应用在线softmax后,再将结果矩阵P和值矩阵量化为FP4进行最终计算。在HunyuanVideo视频生成和Stable-Diffusion3.5图像生成测试中,SageAttention3完全保持了生成质量,同时实现了2.4-3倍的端到端推理加速。
FP4在生成式AI模型中的应用效果同样令人印象深刻。在Stable Diffusion等图像生成模型中,FP4能将单张图像生成时间从几十秒缩短至5秒左右,批次处理能力提升4倍。这主要得益于FP4减少了内存带宽压力,使GPU能够同时处理更多样本。对于视频生成模型如CogVideoX,FP4量化不仅加速了推理过程,还通过更高效的缓存利用支持了更长上下文窗口的处理,提升了生成连贯性。
专家混合(MoE)模型是FP4发挥优势的另一场景。Blackwell的Transformer Engine利用微张量缩放技术优化FP4计算,使MoE模型大小和效能翻倍,同时保持准确性。测试显示,经过量化感知训练(QAT)的FP4版MoE模型可以达到接近FP8和FP16的推理质量,而计算资源需求大幅降低。这对于需要实时响应的大型专家系统尤为重要,如多语言翻译、内容审核等应用场景。
FP4推理的能效优势在边缘计算场景中表现尤为突出。相比FP16,FP4运算可减少37%的能耗,提供3.2倍的每瓦性能提升。这一特性使得复杂AI模型能够在资源受限的边缘设备上运行,如自动驾驶汽车的智能座舱、移动端AI助手等应用。NVIDIA的Jetson Thor边缘计算平台凭借2000 TOPS的FP4算力,为终端设备提供了前所未有的AI处理能力,推动了AI技术向更广泛场景的渗透。
在多模态模型推理中,FP4也展现出独特价值。处理图像、文本、音频等多模态输入时,模型通常需要处理差异极大的数值范围,传统整数量化面临挑战。FP4的非均匀特性使其能够更好地适应这种多样化分布。实际应用中,FP4量化后的多模态模型在保持交互质量的同时,响应速度显著提升,使实时多模态交互成为可能。
值得注意的是,FP4推理的实际部署需要综合考虑模型、硬件和软件栈的协同优化。NVIDIA通过与DeepSeek等合作伙伴共同开发FP4优化模型,推动整个生态系统的成熟。开发者面临的挑战包括:选择合适的FP4变体(NVFP4、MXFP4或标准FP4)、确定不同层的最佳量化策略、以及处理模型输出可能需要的反量化步骤。随着工具链的完善,如TensorRT对FP4的原生支持,FP4推理的门槛正在降低,加速其在行业中的普及应用。
FP4推理的应用前景不仅限于当前场景。随着模型压缩技术和硬件加速能力的持续进步,FP4有望在增强现实、实时视频分析、大规模推荐系统等更多领域发挥价值。特别在需要低延迟高吞吐的场景,如金融交易分析、工业质检等,FP4提供的效率优势可能成为业务落地的关键因素。行业专家预测,到2026年,超过30%的边缘AI推理将采用FP4或更低精度格式,标志着AI计算进入超高效时代。
FP4在模型训练中的前沿探索
传统观点认为超低精度格式仅适用于推理,而训练过程需要更高精度以保持梯度计算的准确性。然而,这一范式正在被打破——FP4训练技术的出现标志着AI模型开发进入了一个全新阶段。微软亚洲研究院等机构的最新研究表明,通过创新的算法设计和系统优化,FP4精度已能够支持从十亿到百亿参数规模模型的训练,且效果与主流BF16训练相当。这一突破有望大幅降低大模型训练的资源门槛,加速AI创新步伐。
微软开发的首个FP4训练框架采用了E2M1格式的FP4量化,成功在FP8 TensorCore上模拟实现了FP4训练。该框架支持训练最高130亿参数的
的模型,训练token数量可达千亿级别,在1.3B、7B和13B的LLaMA模型上测试表明,其损失曲线与BF16训练几乎一致。这一成就的关键在于多项协同创新的技术:定制化的FP4矩阵乘法(GeMM)CUDA内核、行列差异化的量化策略、以及针对离群点的特殊处理机制。框架将权重矩阵W采用列方向(channel-wise)量化,激活矩阵A采用行方向(token-wise)量化,最大化硬件并行效率。
FP4训练的核心挑战在于梯度计算和更新的准确性。低位宽表示会引入显著的量化误差,这些误差在反向传播过程中不断累积,最终导致模型无法收敛310。为解决这一问题,研究者发展出了多种创新方法。微软团队采用了可微分梯度估计技术,通过连续可微函数修正量化带来的梯度衰减;同时实施"离群点削峰和补偿"策略,对隐层激活中超出设定阈值的数值进行限制和校正10。在混合精度设计上,该框架在梯度通信中使用FP8,优化器状态存储使用FP16,在保证数值稳定性的前提下尽可能降低资源消耗。
IST-DASLab提出的Quartet方法代表了FP4训练的另一条技术路线。该方法能够在所有主要计算(如线性层中的计算)均以FP4精度进行的情况下,实现准确的端到端训练。Quartet通过对类似Llama的模型进行广泛评估,揭示了一条新的低精度扩展定律,该定律量化了不同位宽下的性能权衡,帮助识别出在准确性和计算之间"接近最优"的低精度训练配置。使用针对Blackwell GPU优化的CUDA内核,Quartet成功训练了数十亿规模的模型,表明完全基于FP4的训练可以成为标准精度和FP8训练的有力替代方案。
在注意力机制训练方面,清华大学开发的SageBwd探索了8比特(INT8)量化的可行性,为未来FP4注意力训练奠定了基础。SageBwd将注意力机制中七个矩阵乘法的六个量化为INT8格式,同时识别并保持最敏感的一个矩阵乘法使用FP16精度。这种方法在微调任务中没有性能下降,虽然在预训练中收敛速度相对较慢,但证明了低精度注意力训练的可行性4。在Llama(1B)模型的16K token微批次训练中,SageBwd实现了约1.15倍的加速,展示了低精度训练的实际价值。
FP4训练的实际效益体现在三个方面:计算资源、内存占用和能耗效率。在计算方面,FP4相比FP16理论上可获得4倍计算速度提升;在内存方面,FP4减少了模型状态(参数、梯度、优化器状态)的存储需求,使更大模型能够在相同硬件上训练;在能耗方面,FP4运算的数据移动和计算能耗显著降低,对大规模训练的环境影响和运营成本产生积极影响。这些优势共同作用,有望将大模型训练成本降低一个数量级,使更多研究机构和企业能够参与前沿AI研发。
然而,FP4训练仍存在明显局限,主要体现在预训练场景。测试表明,FP4训练在微调任务中能够达到与BF16相当的性能,但在从零开始的预训练中,虽然能够实现损失收敛,速度却相对较慢。这种差异可能源于预训练需要学习更基础的特征表示,对数值精度更为敏感。此外,当前FP4训练框架通常需要配合部分高精度组件(如某些梯度计算或优化器状态),并非完全端到端的4位训练。这些限制指明了未来研究的方向。
FP4训练的未来发展可能集中在三个方向:算法方面,改进梯度估计和误差补偿方法,提升纯FP4训练的稳定性;系统方面,优化FP4与其他精度的协作效率,减少混合精度开销;硬件方面,设计更适应FP4训练特性的专用加速单元,如高精度梯度累加器等。随着这些技术进步,FP4训练有望从当前的百亿参数规模向更大模型扩展,并逐步缩小与高精度训练在预训练性能上的差距。
行业专家预测,FP4训练技术将在2-3年内成熟,届时训练成本不再是限制AI创新的主要瓶颈。微软、NVIDIA等公司的早期实践已经证明了这一路径的可行性,开源社区和学术机构正在快速跟进。对于资源有限的研究团队和企业,关注FP4训练技术演进,适时引入适合自身需求的低精度训练方案,将成为在AI竞赛中保持竞争力的关键策略。FP4训练不仅是一项技术革新,更可能重塑整个AI研发的生态格局。
FP4精度的行业影响与未来展望
FP4精度技术的崛起不仅是一项技术突破,更将引发人工智能产业的连锁反应。从数据中心到边缘设备,从学术研究到商业应用,FP4正在重塑AI计算的效率边界和可能性空间。随着NVIDIA Blackwell架构的普及和FP4算法生态的成熟,4位计算有望在未来3-5年内成为AI推理的主流选择,并逐步扩大在训练领域的应用范围。这一转变将带来计算范式、商业模式和应用场景的深刻变革。
数据中心经济学将因FP4而发生显著改变。传统上,AI推理服务需要部署大量高性能GPU,硬件投资和能源消耗构成主要成本。FP4通过提升3.5倍内存效率和2-8倍计算速度,使单台服务器能够承载更多模型实例或更大规模模型。NVIDIA GB300 NVL72系统凭借1,440 petaflops的FP4算力,可将训练千亿参数模型的时间缩短60%,大幅降低AI服务的单位计算成本。这种效率提升可能促使云服务商重新定价AI推理API,加速生成式AI技术的商业化进程。对于企业用户,FP4使得私有化部署大型模型变得更加可行,减少了数据隐私和合规风险。
边缘计算领域将迎来FP4驱动的普及化浪潮。移动设备、物联网终端和自动驾驶系统等边缘场景长期受限于计算资源和功耗约束,难以运行复杂AI模型。FP4的能效优势(3.2倍每瓦性能提升)和紧凑内存需求,使百亿参数模型在终端设备上运行成为可能。预计到2026年,配备FP4加速能力的智能手机、XR设备和车载系统将成为主流,推动真正个性化的实时AI应用发展。在工业物联网领域,FP4使复杂的预测性维护和质检模型能够直接在设备端运行,减少云端依赖和延迟,提升系统可靠性。
FP4对AI研发民主化的影响同样深远。传统大模型训练需要数千万美元的基础设施投入,将研究资源集中在少数科技巨头手中。FP4训练技术有望将这一门槛降低一个数量级,使更多学术机构和初创企业能够参与前沿探索。微软FP4训练框架已证明130亿参数模型可在资源受限环境下有效训练,这种"轻量化"研发模式可能催生更加多样化的AI创新生态。开源社区围绕FP4的工具链建设,如Hugging Face对4位模型的支持、PyTorch的FP4扩展等,将进一步降低技术采纳难度,加速创新循环。
从技术演进角度看,FP4是精度下探过程中的重要里程碑,而非终点。行业正在探索FP2(2位)甚至1位计算的可能性,而FP4的经验将为这些更激进的尝试奠定基础。关键挑战在于,随着精度降低,量化误差呈非线性增长,需要更精巧的算法和硬件协同设计。FP4发展中积累的微缩比例量化、混合精度管理和误差补偿等技术,将成为未来超低精度计算的核心工具箱。同时,FP4也促进了新型数值格式的探索,如NF4(4位NormalFloat)等专为量化设计的表示方法。
FP4的普及面临实际挑战需要克服。硬件方面,虽然Blackwell架构支持FP4,但广泛部署需要时间,且不同厂商的FP4实现可能存在差异,影响模型兼容性。软件方面,现有深度学习框架对FP4的支持仍不完善,开发者需要掌握特定工具链和优化技巧。算法方面,并非所有模型结构都同等适合FP4量化,特别是那些对数值精度极为敏感的操作(如softmax)可能需要特殊处理。这些因素意味着FP4的行业采纳将是一个渐进过程,需要芯片厂商、软件开发商和AI研究者的协同努力。
未来五年,FP4技术可能沿着三个关键方向深化发展:一是专业化,针对特定领域(如计算机视觉、自然语言处理或科学计算)开发专用的FP4优化方案;二是自动化,通过工具自动确定模型各层的最佳精度配置和量化参数,降低使用门槛;三是标准化,推动FP4格式和接口的行业统一,确保模型跨平台兼容性。这些发展将共同决定FP4从实验室技术转变为产业基石的路径和速度。
从更广阔的视角看,FP4代表了高效计算这一不可逆的技术趋势。在摩尔定律放缓的背景下,通过算法-硬件协同设计提升计算效率,已成为延续AI进步的主要途径。FP4及其衍生技术不仅服务于当前的大模型浪潮,更为未来可能出现的全新计算范式提供了效率基础。随着量子计算、神经形态计算等新兴技术的发展,FP4所代表的精度-效率平衡理念很可能继续发挥影响,引导AI计算走向更加可持续的未来。