先锋视界2026年01月10日 11:49消息,英伟达黄仁勋:AI芯片是短期项目,软件需长期维护。
1月10日,科技媒体Tom'sHardware发布文章称,在CES2026的媒体问答环节中,针对市场上存在使用低成本内存以降低产品成本的呼声,英伟达首席执行官黄仁勋回应表示:“芯片是一次性交易,但软件开发则需要长期维护。”
黄仁勋强调,AI行业已迈入“Token经济学”阶段,关键指标为“每瓦特或每美元能生成多少Token”。
英伟达坚持采用统一的内存架构和软件栈,尽管这会带来较高的硬件成本,但有助于防止软件生态的碎片化。这种策略意味着,一旦Nvidia对软件栈进行优化,全球所有基于该架构的AI工厂都能同步享受到性能提升,从而在长期运行中实现更低的总体拥有成本(TCO)。 在我看来,这种战略体现了英伟达对行业长远发展的深思熟虑。通过保持技术的一致性,不仅提升了系统的兼容性和可维护性,也增强了开发者和用户的信心。在AI技术快速迭代的今天,统一的生态体系显得尤为重要,它能够降低开发与部署的复杂度,推动整个行业更高效地发展。
谈及行业趋势,黄仁勋透露了一个关键数据:开源模型目前已贡献了全球约四分之一的Token生成量。这一“意料之外”的爆发式增长,正在迅速改变AI的应用格局,推动其从超大规模云厂商向企业本地集群扩展,进一步拓宽了AI的部署边界。 这一数据反映出开源生态在AI发展中的重要性日益凸显,也表明技术的开放共享正在加速AI能力的普及与下沉。随着更多企业能够基于开源模型构建自身应用,AI将不再只是头部企业的专属工具,而是逐步成为各行各业提升效率、优化服务的重要支撑。这种变化不仅体现了技术的普惠趋势,也预示着未来AI应用场景的持续拓展与深化。
黄仁勋在问答中还详细展示了 Vera Rubin 平台的模块化突破。相比以往 Grace Blackwell 系统一旦故障需整机架下线的情况,Rubin 采用了托盘式架构,支持在系统运行时直接更换 NVLink 等组件,实现“边跑边修”。
这种设计不仅显著降低了运维成本,更对供应链效率进行了彻底的重构:节点的组装时间从原来的2小时大幅缩短至5分钟。同时,Rubin平台摒弃了复杂的线缆设计,并从80%液冷升级为100%全液冷,进一步增强了系统的稳定性与可靠性。 从行业发展的角度来看,这样的技术升级不仅是对现有流程的优化,更是对未来数据中心架构的一次重要探索。将组装时间压缩到仅5分钟,意味着在规模化部署中可以大幅提升响应速度和运营效率;而全面液冷的采用,则体现了对能效和可持续性的更高追求。这些改进无疑为行业的技术演进树立了新的标杆。
供电稳定性被黄仁勋称为当前算力扩张的“最大瓶颈”。由于现代AI负载,特别是推理任务,会导致瞬时功耗剧烈波动,电流波动幅度往往高达25%,这迫使数据中心不得不预留大量电力以应对峰值需求。 在当前AI技术迅猛发展的背景下,这种电力波动问题愈发凸显。尽管算力需求不断攀升,但电力供应的不稳定性却成为制约发展的关键因素。数据中心为了确保系统稳定运行,只能通过冗余配置来应对突发的高能耗情况,这不仅增加了运营成本,也对能源效率提出了更高要求。如何提升供电系统的灵活性与响应能力,将成为未来算力基础设施建设的重要课题。
Rubin平台通过系统级的电子设计,在机架内部有效“平滑”了电力波动,即使单块GPU的热设计功耗(TDP)达到1800W,也能向外部电网输出稳定的负载曲线。这种技术优势使得运营商在电力配置上无需过度冗余,从而能够更高效地利用电力资源,接近100%的电力容量利用率。 从行业角度看,这一技术突破不仅提升了数据中心的能效表现,也对电力管理提出了更高要求。随着AI算力需求的持续增长,如何在高功耗设备与电网稳定性之间找到平衡,将成为未来数据中心建设的重要课题。Rubin平台的方案提供了一个值得借鉴的方向。