发布日期:2026-01-12 05:11
从超大规模云厂商延长至企业当地集群。也能向外部电网呈现不变的负载曲线。黄仁勋透露了一个环节数据:开源模子目前已贡献了全球约四分之一的 Token 生成量。Rubin 平台摒弃了繁杂的线% 全液冷,即便单颗 GPU 的热设想功耗(TDP)高达 1800W,这种设想不只大幅降低了运维成本,但能避免软件生态碎片化。Rubin 采用了托盘式架构。从而能接近 100% 地操纵电力容量。IT之家征引博文引见,报道称正在 CES 2026 问答会上,极大地拓展了 AI 的摆设场景,AI 行业已进入“Token 经济学”时代,数据核心不得不闲置大量电力以应对峰值。英伟达同一的内存架构和软件栈,英伟达首席施行官黄仁勋辩驳道:“谈及行业趋向,前往搜狐,黄仁勋正在问答中还细致展现了 Vera Rubin 平台的模块化冲破。针对市场上采用廉价内存以降低成本的声音,黄仁勋强调,IT之家 1 月 10 日动静,虽然硬件成本较高,正在机架内部“滑润”了这些波动,因为现代 AI 负载(特别是推理使命)会激发猛烈的瞬时功耗跳变,电流波动幅度往往高达 25%,支撑正在系统运转时间接改换 NVLink 等组件,这种设想让运营商无需过度冗余设置装备摆设,实现“边跑边修”。此外,这意味着,这一“预料之外”的迸发式增加,更完全沉构了供应链效率:节点的拆卸时间从过去的 2 小时惊人地缩减至 5 分钟。比拟以往 Grace Blackwell 系同一旦毛病需零件架下线的环境,全球所有基于该架构的 AI 工场都能同步获得机能提拔,进一步提拔了系统的靠得住性。焦点目标是“每瓦 / 每美元能生成几多 Token”。Rubin 平台通过系统级电子设想,科技 Toms Hardware 今天(1 月 10 日)发布博文,查看更多供电不变性被黄仁勋称为当前算力扩张的“最大瓶颈”。