网站首页

伟德国际产品中心

智能终端处理器 智能云服务器 软件开发环境

伟德国际新闻

行业质询 公司新闻

关于韦德体育

公司概况 核心优势 核心团队 发展历程

联系伟德体育

官方微信 官方微博
主页 > 伟德国际新闻 > 行业质询

伟德bv1946官网-黄仁勋:制程使GPU硬件性能提升75%但架构算法使其能效增长50倍

发布时间:2026-04-21 20:07浏览次数:来源于:网络

  伟德国际(bevictor·1946)源自英国官方网站-

伟德bv1946官网-黄仁勋:制程使GPU硬件性能提升75%但架构算法使其能效增长50倍

  4月16日凌晨1点,美国作家、播客主持人Dwarkesh Patel放出与英伟达创始人黄仁勋的深度访谈。

  本次对谈高达1小时46分钟,我猜测录制总时长要超过2个半小时,也是近两年黄仁勋对谈中第二长的播客采访,信息密度超大。

  对谈内容涵盖英伟达的供应链护城河、TPU竞争威胁,以及英伟达为何不自己做云服务等问题。

  尽管播客里面存在很多黄仁勋谈的旧观点,如“五层蛋糕理论”、英伟达护城河很高等,但Dwarkesh Patel问的非常犀利,所以黄仁勋输出了也很多新颖的观点,值得拆解分析。

  例如,黄仁勋首次抛出英伟达的极简定义:“输入是电子信号,输出是Intelligence Token,中间是英伟达。”

  他认为这是一套系统化的价值链,英伟达需要做到标准化、系统化,而且“只做核心必要业务”,英伟达就不会被淘汰。

  对于中国市场,黄仁勋依然表示,我们不能将芯片、算力简单等同于核武器、浓缩铀这类物资。芯片是通用计算硬件,中国本身具备大规模自主制造能力,无法实现绝对管控。英伟达主动放弃中国市场,只会加速中国本土芯片产业迭代成熟,彻底脱离美国技术生态,这对美国芯片产业、科技领导力,才是更大的伤害。

  黄仁勋指出,制程差距,无法彻底限制 AI 技术迭代。更重要的是,顶尖算法人才的创新能力,能够突破硬件限制。摩尔定律增速有限,但算法优化、架构创新能够带来数十倍的性能提升。DeepSeek等中国开源大模型的快速迭代,已经证明了这一点。

  黄仁勋表示,制程迭代的性能差距,被严重高估。从Hopper到 Blackwell,制程带来的硬件性能提升仅有 75%,而架构、算法、互联优化带来的能效提升达到50倍。半导体工艺只是底层基础,计算架构、软件生态、算法创新、高速互联,才是决定AI算力上限的核心因素。单纯依靠先进制程封锁,无法限制AI发展,反而会倒逼对方探索差异化技术路线。

  黄仁勋强调,绝不对GPU进行“价高者得”的竞价售卖,也不会放弃中国市场。

  我们将通过万字左右的篇幅,人类用AI辅助方式,将黄仁勋的观点摘录拆解,以飨读者:

  主持人问:我们看到一众软件公司的估值大幅暴跌,根源在于市场普遍认为AI会让软件彻底商品化。当下存在一种略显片面的认知逻辑:媒体先传输设计文件,交由台积电完成逻辑芯片的制造;台积电生产芯片开关元件,再搭配 SK 海力士、美光、三星制造的高带宽内存完成封装,随后运往代工厂完成整机机柜组装。从本质来看,英伟达只负责研发软件,硬件制造全部交由外部厂商完成。一旦软件沦为同质化大宗商品,英伟达自身也会随之变成大宗商品化的企业。

  归根结底,必须有一套体系完成电子信号到Intelligence Token的转化,并且持续提升这些tokens的价值。但这种价值增值的商业化落地,其实很难完全闭环实现。

  这种转化,本身就是一套极具复杂度的产业过程;想要区分Token价值、实现差异化,就好比让两种不同分子产生价值差。

  想要赋予智能tokens独特价值,需要凝聚大量工艺设计、工程技术、基础科学与技术创新。眼下我们正亲眼见证这一过程持续演进。

  所以,这套转化流程、制造体系以及底层科学原理,人类远未完全吃透,整个产业的发展旅程也远远没有抵达终点。因此我并不认同软件会快速商品化的判断。

  我们会持续优化整套体系的运行效率,而外界对英伟达的定位认知,恰好契合我对公司的核心定义:输入端是电子信号,输出端是智能tokens。

  英伟达的核心使命,是以最低冗余、最高必要限度,支撑这套转化体系实现极致性能。

  我所说的 “最低冗余”,指所有非核心业务环节,我们都会通过生态合作、外包协同的方式交由合作伙伴完成,纳入自身生态体系。

  放眼当下,英伟达拥有业内规模最庞大的合作伙伴生态,覆盖上下游供应链、整机厂商、应用开发者、大模型研发企业等全链条。

  人工智能可以比作五层叠加的分层产业体系,我们的生态布局贯穿全部五层,始终坚持 “只做核心必要业务” 的原则。

  除此之外,我也不认同多数企业软件公司的商业模式会走向衰退。如今绝大多数软件厂商本质都是工具供应商,少数企业专注工作流与标准化系统搭建。

  我的判断和市场主流观点完全相反:AI 智能体的数量会呈指数级爆发,工具使用者规模同步暴涨,各类工业软件、研发工具的部署体量也会迎来井喷。

  举个例子,新思科技的AI设计编译工具、芯片布局规划软件、版图设计工具、设计规则检测工具,未来的部署规模都会大幅增长。

  过去这类工具的使用规模,受限于工程师的人力数量;未来,工程师会由海量 AI 智能体辅助协同,人类能够前所未有的广度探索设计边界,并且持续沿用当下成熟的工业工具。

  因此我认为,AI 智能体的普及,会带动工具类软件企业的业绩与估值迎来爆发。

  目前这一趋势尚未落地,核心原因是现阶段 AI 智能体熟练使用专业工具的能力仍有欠缺。

  后续要么是软件厂商自主研发适配的专属智能体,要么是通用 AI 能力持续迭代、最终适配各类专业工具,大概率会是两种路径并行发展。

  随后,主持人问:我注意到,英伟达最新财报披露,已与晶圆厂、存储厂商、封装企业达成近千亿美元的长期采购承诺;而半导体行业分析机构预测,这类长期锁量采购的总规模,后续会达到2500亿美元。外界有一种解读:英伟达的核心战略,是提前锁定未来数年全球稀缺的芯片核心零部件。即便其他企业能够自研 AI 加速芯片,也很难拿到配套内存、逻辑芯片等关键物料,无法完成量产落地。这正是英伟达未来数年最核心的竞争壁垒与战略布局。

  我们在产业链上游做出了海量长期投入与采购承诺,既有公开明确的硬性协议,也有隐性的生态绑定。

  多年来,我持续向全产业链上游企业的管理层传递行业判断、拆解 AI 产业的长期规模、梳理发展逻辑、分享我们的前沿洞察。

  而他们优先选择与英伟达合作、而非其他企业,核心原因很简单:我们具备大规模采购消化产能的能力,同时依托庞大的下游生态与需求,帮助上游厂商稳定营收。

  英伟达庞大的下游供应链与海量市场需求,是上游厂商敢于长期重资产投入的底气。

  就像 GTC 大会,外界只会惊叹于它的规模与参会体量,但本质上,这是一场覆盖全 AI 产业的全景生态盛会。

  上下游企业、全产业链参与者齐聚一堂,彼此对接资源、同步行业进展;我主动整合各方资源,让上游看见下游需求、让下游理解上游产能规划,让所有人同步 AI 技术迭代成果。

  更重要的是,所有参会者能够直面 AI 原生企业、初创公司,直观看到 AI 落地的各类创新应用与产业变革,切身验证我对行业的长期判断。

  很多人觉得我的主题演讲只是接连发布新品、公布技术更新,但实际上,我的演讲中始终包含产业科普与趋势解读的内容,这是我刻意设计的核心环节。

  我必须确保上下游全产业链、整个生态体系,都能清晰认知行业未来趋势、变革动因、落地时间与市场规模,像我们一样形成系统化、理性的长期判断。

  倘若未来数年 AI 产业达到万亿级规模,我们提前布局的供应链,足以支撑业务高速增长。

  英伟达能够持续支撑超大算力规模,唯一核心支撑,就是极致庞大的下游需求,这一点全产业链都有目共睹。

  正是基于这样的底层逻辑,我们才有能力持续落地超大体量的产业布局与技术研发。

  主持人问:既然英伟达已经垄断先进制程的绝大部分产能,如何持续保持每年翻倍的算力扩张?当下是否已经进入瓶颈期,受上游产能限制,AI 算力的增速必然放缓?行业该如何实现晶圆厂产能的逐年翻倍扩张?这是所有企业最终要面对的问题。业内都在调侃,明年 GTC 的核心紧缺岗位,就是基建配套的工程人员。

  当前存在一个良性的行业特征:瞬时需求大于整体供给,是优质赛道的核心标志。

  供需严重失衡固然会带来短期压力,但完全供过于求的行业,发展前景只会更加黯淡。

  如果某一个单一零部件、细分材料出现严重短缺,全产业会集中资源攻坚补短板。

  举个例子,此前行业很少讨论CoWoS封装技术,原因在于过去两年,全产业集中发力扩产、多轮翻倍投入,如今CoWoS产能已经趋于稳定。

  台积电也明确意识到,CoWoS封装必须同步匹配逻辑芯片、内存芯片的需求增速,因此正在持续扩产,同时同步升级下一代封装技术,进度与先进制程保持一致,这对整个行业至关重要。

  过去,HBM高带宽内存、高端封装都属于小众定制化产品;而如今,它们已经成为全球通用的主流计算硬件。

  相比 AI 产业起步初期,如今我们对整条供应链的影响力与掌控力,已经大幅提升。

  当时只有少数企业愿意相信并加码投资,美光就是典型代表,我至今清晰记得当年的沟通会议。

  我们精准预判了行业走向,美光坚定加码布局,双方围绕 LPDDR、HBM 内存深度合作,这笔长期投资最终为其带来了爆发式增长。

  过去数年,我们围绕硅光技术,与合作企业、生态伙伴持续投入,联合企业深度协作,彻底重塑了硅光领域的产业生态与供应链体系。

  在硅光赛道,我们依托台积电搭建了完整的配套供应链,联合研发多项原创技术,同时将相关专利开放授权给全行业,维持生态的开放性。

  通过自研新技术、革新工作流程、研发全新检测设备、布局双面探针测试、战略投资细分企业、助力合作方产能爬坡等方式,提前完善供应链配套,为大规模算力落地铺路。

  我们一直在主动塑造产业生态,确保整条供应链能够匹配未来超大算力规模的落地需求。

  不过,硬件产能的短期快速扩张确实存在难度,但这类瓶颈的解决周期,普遍只需要两到三年。

  只要下游释放明确、长期的刚需信号,产能扩张就会快速落地:能造出第一台设备,就能量产十台;能量产十台,就能规模化铺开。硬件设备的规模化复制,本身不存在底层技术壁垒。

  我们的布局分为直接合作与间接联动两种模式。部分核心环节会直接深度绑定;更多时候,我们通过推动台积电等核心代工厂,同步向上游设备厂传递长期需求。

  与此同时,我们还在持续通过技术迭代提升算力效率:从 Hopper 架构到 Blackwell 架构,算力能效提升10至20倍,部分场景甚至达到30至50倍。

  任何产业的落地都离不开能源支撑,全新的高端制造产业、AI 算力产业,更是需要稳定充足的能源供给。

  当下美国正在推进制造业回流,计划重启芯片制造、计算机组装、封装产业,同步布局新能源汽车、机器人、AI 算力工厂等新兴赛道。

  芯片产能扩张、高端封装产能建设,都只需要两到三年就能完成落地;唯有能源体系的升级改造,周期漫长、难度更高。

  如果想要研发全新的注意力机制、拆分重构模型架构、设计混合 SSM 架构、融合扩散模型与自回归模型,或是探索各类创新算法,都需要高度可编程、高灵活性的算力架构。

  英伟达 GPU 能够支撑所有前沿算法研发与架构创新,这是封闭定制化芯片做不到的。

  摩尔定律每年只能带来约 25% 的硬件性能提升,想要实现十倍、百倍的性能飞跃,只能依靠底层算法与计算架构的颠覆性创新。

  Blackwell 架构相比 Hopper 架构能效提升的突破,就是最好的证明:我最初公布的提升幅度是 35 倍,后续实测验证达到 50 倍。

  这种级别的性能飞跃,单纯依靠制程迭代完全不可能实现,核心源于模型架构重构、混合并行计算、算力拆分分布式部署等软件与硬件协同优化。

  依托 CUDA 生态,研发人员能够自定义核心算子、优化底层代码,实现极致定制化优化,这是封闭架构无法复刻的。

  除此之外,英伟达坚持软硬件深度协同设计,能够将部分计算任务下沉至互联架构,结合高速互联总线,打通芯片、整机、网络、软件库、算法的全链路优化。

  主持人谈到关键话题:当下全球顶级大模型中,Claude、Gemini两大模型均基于谷歌TPU进行训练,这一趋势会对英伟达的长期发展造成哪些影响?

  英伟达的产品定位,和 TPU 有着本质区别:我们打造的是通用加速计算体系,而非单一的张量处理器。

  加速计算的应用场景极其广泛,涵盖分子动力学、量子色动力学、结构化与非结构化数据处理、流体力学、粒子物理等科研领域,人工智能只是其中一大核心场景。

  虽然AI是当下行业焦点、影响力巨大,但计算产业的边界远比 AI 更广阔。

  英伟达的核心变革,是将传统通用计算,升级为高效的加速计算模式,覆盖全行业应用。

  我们的市场覆盖范围、落地场景,是 TPU、各类定制 ASIC 芯片无法比拟的。

  放眼全球,英伟达是唯一一家能够全场景应用加速计算的企业,拥有海量生态框架与自研算法适配。

  我们的硬件产品主打开放适配,任何企业、机构都能独立部署运维;反观谷歌等自研算力体系,高度封闭,仅适配自身业务,运维门槛极高。

  目前英伟达算力已经全面入驻全球主流云厂商,包括谷歌云、亚马逊云、微软 Azure、甲骨文云等。

  无论是按需租用云算力,还是自建本地算力集群,英伟达都能提供完整解决方案。

  如果选择租用算力,我们庞大的跨行业客户生态,能够保障算力资源持续消化;如果企业选择自建算力,我们同样能提供全流程技术支持,适配不同行业需求。

  举例来说,礼来制药可以依托英伟达算力搭建超算中心,用于新药研发、生物科学研究。

  英伟达的CUDA生态,本身就具备顶级张量计算能力,同时覆盖数据处理、模型训练、推理部署等全生命周期计算需求。

  我们的市场空间、业务边界、生态体量,都具备绝对优势,几乎适配全球所有应用软件与科研场景。

  企业部署英伟达硬件,无需担心适配问题,天然拥有海量潜在客户,这就是我们的核心差异化优势。

  对于主持人问到的另一个关键问题:英伟达的核心客户结构中,五大超大规模科技企业贡献了 60% 以上的营收。早期 AI 研发以高校、科研机构为主,高度依赖 CUDA 生态,无法脱离英伟达算力;但当下头部超算企业资金雄厚,完全有能力自研底层算子、定制化优化算力架构。Anthropic、谷歌核心采用自研加速芯片,即便使用 GPU,也会基于 Triton 框架重构底层代码,抛弃通用组件,搭建专属技术栈。如果核心大客户都具备自研适配、替代通用算力的能力,英伟达凭借 CUDA 构建的护城河,还能否持续主导前沿 AI 研发?

  开发者优先基于 CUDA 开发模型,是绝对理性的选择:生态覆盖全品类框架,适配所有主流研发工具。

  我们深度参与 Triton 框架的研发迭代,为其后端提供大量英伟达核心技术支持,全力适配各类第三方框架。

  当下大模型后训练、强化学习赛道高速爆发,全新框架层出不穷,而 CUDA 能够无缝兼容所有新技术体系。

  搭建复杂 AI 系统时,代错难以避免,完善的底层生态能够帮研发者快速定位问题:区分自定义代码 bug 与底层硬件、框架漏洞。

  英伟达软硬件经过长期大规模落地验证,稳定性与兼容性具备绝对优势,能够为上层研发提供可靠底座。

  开发者研发模型与工具,最终需要规模化部署落地,必然要求硬件具备广泛适配性。

  英伟达 GPU 覆盖全代际、全规格产品,全面入驻全球云厂商、本地数据中心、边缘设备,机器人、终端设备等场景也深度渗透。

  一旦基于 CUDA 完成模型开发,就能实现全场景部署复用,极大降低落地成本,这是任何封闭自研架构都无法比拟的。

  AI 企业与开发者无法固定单一云厂商,而英伟达算力能够适配公有云、私有云、本地部署等所有模式,灵活适配企业多元化需求。

  生态完善度、装机覆盖规模、全场景适配能力,三者结合,共同构筑了 CUDA 不可替代的核心价值。

  英伟达专门组建了大规模专属技术团队,深度对接头部 AI 实验室,一对一优化客户专属技术栈。

  我们比任何外部企业都更了解自身硬件架构,能够帮助客户实现算力二次翻倍,特定算子、模型的优化幅度甚至达到2至3倍。

  而英伟达 GPU 更像是F1赛车,极限性能极强,想要发挥全部潜力,需要专业技术与深度优化。

  我们同样会运用AI技术优化底层算子,持续拉大通用方案与定制优化方案的性能差距。

  放眼全球,没有任何一家企业的计算集群,能够在性能、总体拥有成本上超越英伟达方案,各类公开基准测试都已验证这一点。

  行业推理基准工具 Inference Max 完全公开,但没有任何一款 TPU、自研芯片能够拿出对标级别的成本与性能数据。

  我们欢迎所有竞品公开训练、推理的实测数据,对标比拼成本优势,但至今无人响应。

  另外需要纠正一个认知:五大超算企业贡献的营收中,绝大多数来自对外云服务,而非自身业务自用。

  亚马逊云、Azure、甲骨文云采购英伟达硬件,核心是为了服务全球各行各业的外部客户。

  这些云厂商选择英伟达,本质是看中我们庞大的生态与客户资源,能够帮助他们吸引全球 AI 企业、开发者入驻。

  数万级别的 AI 初创企业、科研团队,都会优先选择英伟达生态搭建业务,这就是稳固的商业飞轮。

  而对于AI初创企业而言,硬件选型的核心标准永远是:市场存量最大、生态最完善、落地门槛最低。

  第二,单位功耗产出算力全球第一,能够帮助超大规模数据中心最大化营收与产出;

  第三,开放的硬件生态,能够吸引全球海量客户,保障云厂商、算力合作方的业务稳定性。

  主持人继续追问Anthropic官宣与博通、谷歌深度合作的话题:我结合现实现象提问,抛开理论优势,近期 Anthropic 官宣与博通、谷歌深度合作,大规模采用 TPU 集群作为核心训练算力;谷歌更是全面自研 TPU,实现算力自给。曾经前沿大模型清一色基于英伟达 GPU 训练,如今多元算力架构快速崛起,这一趋势该如何解读?既然英伟达软硬件综合优势客观存在,为何头部企业会主动选择竞品架构?

  脱离 Anthropic 来看,TPU 的市场需求与产业规模,很难独立支撑增长,高度依赖单一客户。

  整个 ASIC 定制芯片赛道,并没有出现全面爆发的趋势,仅此一家特例无法代表行业走向。

  再看 OpenAI 与 AMD 的合作、自研加速芯片项目:即便布局多元算力,其核心算力集群依然以英伟达为主,双方的深度合作也会长期持续。

  我们完全尊重竞品布局,行业良性竞争能够倒逼技术迭代,持续巩固我们的产品力。

  各类自研芯片项目层出不穷,但最终能够实现规模化落地、全面超越英伟达的产品,至今尚未出现。

  英伟达常年保持每年一代的技术跨越式迭代,持续拉大技术差距,这是其他企业难以复刻的节奏。

  长期来看,供应链成本、研发投入、技术迭代成本最终都会转嫁,不存在单方面的成本优势。

  还有一个关键历史因素:AI 产业早期,我们并未预判到头部大模型实验室需要千亿级别的重资产投资。

  谷歌、亚马逊云早期通过战略投资绑定 Anthropic,以资本换取算力采购绑定,这是我们早期错失的布局机会。

  受限于当时的企业体量与战略节奏,我们无法拿出数百亿级别资金,战略投资头部 AI 实验室。

  这是我当年的战略失误:低估了顶级大模型实验室的资金门槛,原本依赖风险投资的行业,最终需要算力厂商的大额战略输血。

  如今我们已经战略投资OpenAI,全面助力其算力扩容;后续Anthropic寻求合作时,我们也主动参与投资、提供技术支持。

  如果时光倒流,以英伟达如今的体量与现金流,我们一定会更早入局,绑定头部 AI 原生企业。

  当年 Anthropic 寻求战略合作时,我们确实不具备大规模投资的能力,整体战略节奏也尚未成熟。

  但大模型赛道完全打破了这套规则,OpenAI、Anthropic这类企业的发展需求,早已超出传统风投的承载能力,这也是它们选择绑定算力巨头的核心原因。

  即便如此,我也认可当下的行业格局,Anthropic 的存在丰富了行业生态,对全球 AI 发展具备积极意义。

  主持人继续问:英伟达现金流持续暴涨,营收季度创新高,当下手握海量闲置资金。外界普遍好奇,英伟达该如何规划这笔巨额资金?当下行业诞生了大量中间服务商,专门承接算力重资产投入,为 AI 实验室提供算力租赁服务。高端芯片造价高昂,但大模型迭代能够持续提升tokens价值,算力集群的长期回报率极高。英伟达已经通过战略投资布局算力生态,为何不亲自下场,自建云服务、打造超大规模算力集群,直接入局超算企业赛道?

  这是英伟达长期坚守的企业哲学:有所为,有所不为,只做核心刚需业务,最小化业务冗余。

  我们只深耕不可替代的核心领域:如果英伟达放弃研发加速计算架构、放弃互联生态搭建、放弃 CUDA 全栈布局、放弃长达二十年的长期技术投入,整个加速计算产业都会停滞不前,没有任何企业能够替代我们完成这些工作。

  无论是光线追踪、图像生成、早期 AI 研发、数据处理、计算光刻等细分领域的专用软件库,都是英伟达长期自研沉淀的成果。

  这些底层基础技术,没有商业企业会主动投入长期亏损式研发,而这正是我们的核心使命。

  公有云服务赛道已经高度成熟,现有厂商完全能够满足市场需求,英伟达没有必要重复入局、冗余竞争。

  我们的生态投资,核心目标不是跨界做金融、做云服务,而是扶持 AI 原生云厂商、新兴算力企业,完善产业生态。

  助力 CoreWeave、Crusoe、Lambda 等新兴算力企业成长,能够丰富算力供给体系,扩大英伟达硬件的落地场景,巩固全行业生态优势。

  同时我们坚持投资多元化基础模型企业,不刻意扶持单一头部玩家,不押注单一技术路线。

  以当年的行业视角来看,英伟达的架构设计完全偏离主流,不被市场看好,几乎是公认的淘汰选手。

  正是基于这段经历,我始终保持敬畏与谦逊:永远不要预判行业赢家,不要低估任何一家创新企业的潜力。

  新兴企业主动寻求合作、提出合理需求后,我们会通过技术支持、生态开放、适度战略投资,帮助其渡过初创瓶颈。

  市场有专业的金融机构、投资机构,英伟达的核心是做好算力底座、技术研发,与全行业合作伙伴协同分工。

  只有在头部 AI 实验室这类关乎行业全局、具备战略价值的企业面临资金缺口时,我们才会启动大额战略投资。

  所有投资动作,都是基于产业刚需,而非盲目扩张业务边界,始终坚守 “最少冗余” 的核心原则。

  主持人则问了网上传闻:全球 GPU 短缺已经持续多年,AI 模型迭代进一步加剧了供需矛盾。业内普遍认为,英伟达的稀缺算力分配,并非简单价高者得,而是会刻意倾斜资源,扶持新兴 AI 云厂商,平衡市场格局。比如向CoreWeave、Crusoe、Lambda 等企业定向分配算力。想问问你是否认可这种说法?这种分配模式,对英伟达的长期价值是什么?

  产能交付的核心前提是采购订单,所有硬件生产周期漫长,数据中心建设、整机部署同样需要周期。

  我们的核心工作,是与全行业客户协同预判需求、同步产能规划,以供需平衡为第一目标。

  如果客户的数据中心尚未完工、配套设施不完善,无法快速落地部署,我们会动态调整交付顺序,优先保障具备落地条件的客户,最大化产能利用效率。

  网络上流传的各类谣言毫无依据,比如我与马斯克、拉里会面,对方跪求 GPU 资源,完全是虚假信息。

  会面属实,但从未出现索要、跪求算力的情况,所有合作都是基于正式采购订单推进,流程规范透明。

  我们坚持定价稳定、规则透明,确定售价后统一执行,不会因为供需失衡随意涨价。

  我们的核心目标,是成为全球 AI 产业稳定、可靠的核心底座,让全行业能够稳定预判成本、规划发展,无需担心价格暴涨、资源垄断。

  放眼全球,没有任何一家ASIC芯片企业,能够给到客户如此稳定的长期技术承诺与迭代规划。

  无论是百亿级超算集群,还是单台服务器、消费级显卡,英伟达都能提供稳定供货与技术支持。

  我可以用同样的评价形容台积电:全球仅此一家,能够支撑超大制程产能、稳定交付先进芯片。

  英伟达的核心使命,就是成为全球 AI 产业的基石,这份行业地位,是数十年持续投入与稳定经营沉淀而来。

  这次,Dwarkesh Patel问了很多关于出口管制、英伟达在中国市场等话题,我拆解其中能放出来的信息点,简单用原文呈现黄仁勋对于中国市场的观点。

  我们需要认清客观现实:中国掌握全球 60% 以上的主流芯片制造产能,科研人才储备雄厚,拥有全球半数以上的 AI 研究员。

  美国的核心目标是保持技术领先,但理性的科研交流、行业对话,才是管控 AI 安全风险的关键。

  双方需要共同划定AI技术的使用边界,明确网络攻防、漏洞挖掘等高危场景的约束规则。

  漏洞挖掘本身是AI的正向应用,能够帮助企业修复安全隐患、提升系统防护能力。

  未来必然会形成完善的AI安全生态:顶尖大模型之外,会诞生海量专用安全 AI 智能体,全方位监控风险、抵御恶意攻击。

  中国在全球开源生态、开源模型研发中贡献巨大,刻意打压、封锁,会破坏全球 AI 安全体系的构建。

  而中国的核心优势是能源充足、基建完善,即便制程相对落后,也能通过大规模集群堆叠,弥补单芯片性能差距。

  我们绝对不能推动两套完全割裂的技术生态:一套美国主导、一套中国自主,这会成为美国科技长期发展的重大隐患。

  美国保持领先、算力规模领跑全球,是必然目标,我们也在全力推动这一目标落地。

  但无需极端化看待问题,中国并非零算力、零 AI 研发能力,现有算力储备,已经足以支撑高危模型的研发需求。

  美国能源稀缺,倒逼我们追求极致能效;能源充裕的地区,可以通过规模化硬件堆叠,抵消单芯片制程差距。

  制程芯片的性能完全对标英伟达Hopper架构,而当下绝大多数主流大模型,本身就是基于Hopper架构训练落地。

  中国充足的电力储备、空置数据中心、完善的硬件制造产能,都是不可忽视的核心优势。

  如果未来大量优质开源模型,全面优化适配中国本土硬件,形成独立生态,会直接冲击美国技术栈的全球主导地位,这才是更大的长期风险。

  模型一旦深度适配特定硬件架构,底层算子、计算逻辑都会深度绑定,跨平台迁移的成本极高、性能损耗巨大。

  如果全球主流开源模型,优先优化本土硬件、脱离美国技术栈,美国的科技主导权会持续弱化。

  芯片是通用计算硬件,中国本身具备大规模自主制造能力,封锁无法实现绝对管控。

  英伟达主动放弃中国市场,只会加速本土芯片产业迭代成熟,彻底脱离美国技术生态,这对美国芯片产业、科技领导力,才是更大的伤害。

  长期出口管控,已经让英伟达在中国市场的份额大幅下滑,同时倒逼本土芯片企业实现突破,华为就是典型代表,出货量与营收创下历史新高。

  主动让出全球第二大科技市场,牺牲美国芯片产业的全球竞争力,只为规避极端化的安全风险,得不偿失,更不符合国家长期利益。

  一旦彻底断供,对方只能依托本土硬件艰难发展,最终形成完全割裂的技术生态,这才是最大的隐患。

  保持有限度的市场竞争,依托开放生态绑定全球开发者,才是维持美国技术主导权的关键。

  当下全球半数 AI 开发者聚集在中国,主动放弃这批开发者、放弃庞大市场,是短视的战略决策。

  计算生态的迁移成本极高,X86、ARM 能够长期主导市场,核心就是生态粘性。

  我们的核心战略,是持续优化产品、迭代技术,在开放竞争中守住优势,而非依靠政策封锁规避竞争。

  彻底封锁会倒逼对方完善自主生态,未来全球 AI 模型、开发标准、软件体系全面分化,美国技术栈的全球影响力会持续下滑。

  相比小众的高危模型研发,AI 应用层的全球主导权、科技标准制定权,战略价值更高。

  过度放大单一安全风险、采取极端化管控,会阻碍 AI 产业良性发展,甚至引发全社会的 AI 恐慌。

  就像当年医疗行业恐慌 AI 取代放射科医生,最终反而导致人才短缺,违背发展初衷。

  从 Hopper 到 Blackwell,制程带来的硬件性能提升仅有 75%,而架构、算法、互联优化带来的能效提升达到 50 倍。

  芯片半导体工艺只是底层基础,计算架构、软件生态、算法创新、高速互联,才是决定 AI 算力上限的核心因素。

  单纯依靠先进制程封锁,无法限制 AI 发展,反而会倒逼对方探索差异化技术路线。

  事实上,我最关注、也是最难解决的瓶颈,恰恰是基建工人、电工这类基础人力缺口。

  如果全社会刻意劝退年轻人投身工程、技术类实操岗位,未来必然会面临严重的人才缺口。

  十年前就有悲观论调宣称,放射科医生会率先被 AI 淘汰,这类言论至今仍在网络流传。

  主持人继续问:英伟达已经垄断台积电 N3 先进制程的大部分产能,未来会进一步抢占 N2 工艺份额。在先进制程产能见顶的背景下,英伟达是否会反向复用老旧成熟制程,大规模复刻 Hopper 这类经典架构,通过成熟制程扩产,填补算力缺口?这套方案,能否在 2030 年前落地?

  短期内无需复用老旧制程,每一代新架构的升级,都是全链路优化,不局限于晶体管密度。

  封装技术、芯片堆叠、数值计算、系统架构的协同优化,能够持续挖掘算力潜力。

  只有在先进制程产能彻底触顶、毫无扩张空间的极端前提下,我们才会考虑复用七纳米成熟制程复刻经典架构。

  近期我们已经新增 Grok 架构适配,纳入 CUDA 生态体系,丰富产品矩阵。

  随着tokens价值提升、推理场景细分,行业诞生了全新的需求:高响应速度、低延迟的轻量化推理算力。

  过往行业只追求高吞吐量,而当下实时交互、AI 智能体协作等场景,需要差异化算力支撑。

  基于市场新需求,我们正在拓展算力产品边界,覆盖不同定价、不同性能的细分场景。

  最后,主持人问了一个灵魂问题:如果深度学习革命从未爆发,英伟达如今会是什么样子?

  公司创立的核心逻辑,就是看透通用计算的局限性:传统 CPU 通用性强,但在高强度、专业化计算场景效率极低。

  我们通过 GPU+CUDA 架构,实现计算任务拆分,将高负载、高复杂度的算子卸载到加速芯片,实现应用数十倍、上百倍的性能飞跃。

  加速计算的应用场景遍布各行各业:分子动力学、能源勘探地震模拟、粒子物理、流体力学、结构化与非结构化数据处理、计算机图形学等。

  依托专业化加速计算,英伟达即便脱离 AI 赛道,也会成长为全球顶级的科技企业。

  通用计算的性能天花板早已显现,细分场景的专用加速,是全球计算产业的必然趋势。

  AI 的诞生让行业发展加速,但英伟达的技术布局、底层研发,长期覆盖非 AI 场景。

  参观 GTC 大会就能发现,演讲内容有大量计算光刻、量子化学、科研数据处理等非 AI 内容,这些业务常年稳定运转,具备极高的产业价值。

  张量计算不是计算产业的全部,我们的使命,是用加速计算,赋能全行业科研与产业升级。

  “美国在霍尔木兹海峡扣押的船只是从中国开往伊朗的,被用于运输导弹化工原料”,外交部:这是一艘外籍集装箱船,中方反对恶意关联和炒作

  外交部发言人郭嘉昆21日在例行记者会上就此答问时表示,据我了解,这是一艘外籍集装箱船,中方反对任何的恶意关联和炒作。

  #积水 泸州的暴风雨来的太快了,开车的时候注意一点吧,走中间一点,已经有车喊拖车了#大暴雨

  文/心语小桥 口述/刘红说来大家别笑,女人过了五十岁,其实心里比谁都清楚,婚姻这碗饭已经冷了。可一个人久了,总觉得屋子太空,饭桌上也少了说话的伴。想着不为别的,就找个人一起搭伙过日子,互相有个照应。我叫刘红,50岁,算中规中矩的一个普通女人。

  美国一家权威智库用26次兵棋推演,把可能的结果摆在全世界眼前:日本一旦卷进去,代价会大到让人难以承受。

  我和我家那位,结婚二十三年了。夏天开空调,他把温度调得低低的,然后理直气壮地钻过来:“冷,抱一下取暖。” 冬天更不用说了,整个人像只大号的暖水袋,从背后贴上来,下巴抵在我肩膀上,呼吸打在我脖窝里,痒得要命。

  4时02分到17时50分,日舰擅闯我国台海,我军反应把底线日,日本“雷”号驱逐舰过航台湾海峡。很多人先盯着它从哪儿过,真正该看的,不是这艘舰走了哪条线,而是日本把涉台动作从嘴上推进到了海上;更该警惕的,也不是一时热搜,而是这种动作会不会被继续复制、继续加码。

  在情感的迷宫中,我们总在寻觅那个能相伴一生、灵魂契合的伴侣。然而,在开启一段感情之前,心中难免会有一丝担忧:对方的私生活是否真的如表面那般“干净”?其实,判断一个女人私生活乱不乱,别被那张精致的脸庞迷惑,不妨留意这四处,或许能让你拨云见日,准确率高达99%。

下一篇:伟德bv1946官网-中电港涨282%成交额864亿元今日主力净流入502007万
上一篇:伟德bv1946官网-2026年全球集成电路行业技术创新与应用场景展望

咨询我们

输入您的疑问及需求发送邮箱给我们