CES 2026|黄仁勋携多款新品炸场 英伟达欲成通用机器人领域“安卓”
黄仁勋指出,摩尔定律已经大幅放缓,如果行业要继续进步,除非采用激进的、极端的芯片设计方法,即在所有芯片、整个技术栈上同时进行创新。
2026年1月6日至9日,全球消费电子展(CES)在拉斯维加斯举行。英伟达(NVIDIA)CEO黄仁勋在北京时间1月6日凌晨5点发表主题演讲,介绍 NVIDIA 解决方案如何驱动汽车、游戏、内容创作、智能体AI、物理AI与机器人技术领域的创新发展等。Creative Strategists的分析师表示,黄仁勋在CES 2026的演讲展示了英伟达如何从仅仅提供GPU演变为“全面的AI系统架构师,涵盖计算、网络、内存层次结构、存储和软件编排”。即使超大规模企业将资金投入定制硅芯片,英伟达紧密集成的平台“越来越难以取代”。
在2026年CES上,黄仁勋详细介绍了英伟达物理AI的全栈生态系统,发布了一套新的机器人基础模型、仿真工具和边缘硬件,所有这些模型都可以在Hugging Face上找到。分析指出,英伟达进军机器人领域反映了行业更广泛的转变,随着人工智能从云端走向能够学习如何在物理世界中思考的机器,这一转变得益于更便宜的传感器、先进的仿真和越来越能够跨任务泛化的AI模型。英伟达正试图使机器人开发更加易于接近,希望成为支持这一领域的底层硬件和软件供应商,就像安卓是智能手机制造商的默认选择一样。
而早期迹象表明,英伟达的策略正在奏效,机器人是Hugging Face上增长最快的类别,而英伟达的模型在Hugging Face上的下载量遥遥领先。此外,黄仁勋在演讲中指出,英伟达引领开放模型生态系统,在2025年发布语言模型数量排名中,英伟达超越谷歌、OpenAI、Meta等位列榜首。

具体来看,在自动驾驶方面,英伟达发布首个专为自动驾驶汽车设计的“推理”AI,名为Alpamayo,专为L4自动驾驶开发设计,以实现安全、可靠的全自动驾驶能力。模型针对DRIVE Hyperion平台上的实时性能进行了优化,加速了L4自动驾驶系统在乘用车和商用车队中的发展和部署。展示了NVIDIA从高性能计算机和传感器集成到AI训练和仿真的端到端方法如何简化自动驾驶车辆开发。
黄仁勋表示,潜在用户可以获取Alpamayo模型并进行自主再训练。这一免费提供的产品旨在打造能够通过“思考”来应对突发状况(如红绿灯故障)的车辆。基于与梅赛德斯-奔驰的合作成果,英伟达正致力于推出既能在高速公路上实现脱手驾驶,又能在城市道路中自主穿行的车辆。黄仁勋称,首款搭载英伟达该技术的汽车将于今年第一季度在美国上路。
在演讲中,英伟达还宣布推出的BlueField-4数据处理器,BlueField-4通过增加GPU内存容量,可满足长上下文、多轮次智能推理所需的扩展性和效率,能效比传统存储设备最高提升5倍。此外,其能够实现每秒最大代币产出、缩短首个代币生成时间并提升多轮交互响应速度,消除元数据开销、减少数据传输。
黄仁勋表示,“人工智能已不再局限于单次对话的聊天机器人,而是发展为能够理解物理世界、进行长期推理、立足事实、运用工具完成实际工作,并具备短期与长期记忆的智能协作系统。借助BlueField-4平台, NVIDIA与软硬件合作伙伴正为人工智能的下一个前沿领域重塑存储架构。”
此外,NVIDIA在CES展会上推出了两款桌面AI超级计算机——DGX Spark和DGX Station,旨在助力开发者将创新转化为实际影响力。DGX Spark能够运行100亿参数的模型,而DGX Station则能处理1万亿参数的模型。系统基于NVIDIA Grace Blackwell架构,具备大统一内存和PFLOPS级别的AI性能,使得开发者能够在本地开发,并轻松扩展到云端。为前沿AI实验室提供了从桌面进行大规模模型计算的能力。这些模型包括Kimi-K2 Thinking、DeepSeek-V3.2、Mistral Large 3、Meta Llama 4 Maverick、Qwen3和OpenAI gpt-oss-120b等。
黄仁勋还宣布,英伟达的下一代AI超算芯片平台Vera Rubin已全面投产,并计划于今年晚些时候开始向客户交付。Vera Rubin芯片将运行AI模型的成本降低到英伟达当前领先芯片系统Blackwell的十分之一,能够训练某些大型模型,使用的芯片数量大约是Blackwell所需的四分之一。
黄仁勋指出,摩尔定律已经大幅放缓,所以每年能够增加的晶体管数量根本无法跟上模型规模扩大十倍的需求;也无法跟上每年生成token数量增加五倍的速度;更无法跟上token成本急剧下降的趋势。如果行业要继续进步,除非采用激进的、极端的芯片设计方法,即在所有芯片、整个技术栈上同时进行创新。这正是我们决定这一代产品时别无选择的原因,我们必须重新设计每一个芯片。


