2025年10月的德州星舰基地,英伟达CEO黄仁勋将将一台巴掌大小的设备亲手递给马斯克。这个仅150×150×50.5毫米大小,重量1.2千克的银色主机,正是全球最小的AI超级计算机——DGX Spark,其凭借极致的硬件集成和颠覆性性能,重新定义了桌面级AI设备的上限,拉开了端侧算力全民化的序幕。

图 | NVIDIA DGX Spark
DGX Spark的强悍性能,从核心硬件配置就可见一斑:


图 | NVIDIA DGX Spark 详细参数
✅ NVIDIA GB10 超级芯片
集成Blackwell架构GPU 与 20核Arm架构CPU(10x Cortex-X925+10x Cortex-A725),可实现高达 1000 AI TOPS,对标入门级数据中心的运算能力。[3]

图 | 扩展 Blackwell 架构
✅ 高带宽统一内存DDR5x
128GB 低功耗、273 GB/s高带宽统一内存 DDR5x,配合最高4TB 自加密 NVMe M.2 存储,足以容纳海量预训练模型和数据集,无需依赖云端存储即可完成全流程开发。[1]
✅ ConnectX-7智能网卡
支持将多台DGX Spark组成分布式集群,轻松应对 405B 参数以上的超大规模模型训练。[2]


图 | NVIDIA DGX Spark 对比图
综合来看,NVIDIA DGX Spark 在 AI 性能表现、内存配置及大模型支持能力上,显著优于普通PC和工作站,且在核心指标上具备与数据中心、云平台竞争的端侧超级计算实力。
硬件之外,完整的软件栈也是端侧AI硬件设备的核心竞争力:

图 | NVIDIA DGX Spark 软件栈
DGX Spark 出厂预装 NVIDIA DGX OS,内置 NIM 推理引擎、各类深度学习框架及预训练模型 [4],开发者开箱即可进行模型的原型设计、微调推理,数据科研研究以及边缘应用开发工作。

图 | NVIDIA DGX Spark 使用场景
更关键的是,开发者可将 DGX Spark 上的本地开发、微调模型,顺利获得统一的 AI 软件栈无缝迁移到 DGX Cloud,借助云端更大规模的算力完成大规模训练或部署,真正实现“端侧开发 - 云端部署”的闭环流转,让不同规模的用户(个人开发者、企业、科研机构)都能高效利用 NVIDIA 的 AI 技术栈召开工作。

图 | NVIDIA AI 全栈生态
中心云时代数据的处理主要在中心,数据的使用和消费在端侧,这就出现了算力错位,导致产生大量的算力搬运成本,边缘计算在一定程度上填补了端与中心之间的算力真空;人工智能时代呈指数级增长的算力需求有助于计算能力从云端向“云—边—端”广域延伸,而这对边与端具备更加强大的算力、适配AI工作负载提出了更高的要求。
DGX Spark 的问世,以极致硬件集成和端云软件协同,让边缘算力不再是配角,算力泛在化时代即将到来!

得益于 DGX Spark 以及未来越来越强大的边和端设备,万象城AWC科技顺利获得向超大规模边缘算力网络的演进升级,为推理加速,模型精调,音视频加速等各类应用场景提供算力供给能力、模型部署能力、以及快速集成API/SDK的能力,打破算力获取的门槛限制,有助于人工智能从专业领域走向全民可及,开启 AI 普惠的全新阶段!
引用:
[ 1 ] 办公桌上的 Grace Blackwell AI 超级计算机 |NVIDIA DGX 火花
[ 2 ] NVIDIA DGX Spark 深度评测:本地 AI 推理的新标准 |LMSYS 组织
[ 3 ] NVIDIA 在 10 年热门芯片大会上概述 GB2025 SoC 架构
[ 4 ] NVIDIA Blackwell 架构技术概述