中国和美国的AI芯片都疯了! AMD挑战nvidia,寒武
作者: bet356官网首页 点击次数: 发布时间: 2025-10-14 09:36
![]()
。过去半个月,拥有4.5万亿美元市值的英伟达宣布,未来十年将向Openai投资高达1000亿美元,后者将购买并部署400万至500万颗英伟达GPU芯片。与此同时,10月7日,AMD宣布与Openai达成为期四年、价值数百亿美元的计算供应协议。 Openai将认购高达10%的AMD份额;甲骨文还与Openai达成万亿美元合作协议。 AMD与Openai宣布合作后,AMD股价一直在-SKYROCK上,创近十年来最大涨幅。也让“数据中心AI芯片市场第二名”首次与英伟达正面竞争,让Openai发展出万亿美元的“循环交易”。在国内,10月初,Deepseek发布了Deepseek-V3.2-exp模型。随后,国产芯片如Cambrian 和华为 Ascend 宣布了适配。华为进一步公布了Ascend 910系列芯片量产计划。 2026年,采用HBM自主研发的HBM,2028年第四季度推出Ascend 970。此外,寒武纪股价也在上涨。日本芯片制造商,并成为国内A股市场价值最高的半导体设计公司之一。纳秒“在芯片领域仅落后于美国,在芯片研发和制造方面具有强大潜力。”他呼吁美国政府允许美国科技公司在中国等市场竞争,以“增加美国影响力”。 “明显国产AI芯片的重复,这也导致了H20芯片在中国的失败。-出口到中国的AI芯片。Idia的AI芯片应该先给美国公司,然后再向中国出口先进的AI芯片。这可能会导致英伟达错失中国AI算力市场价值5美元的“大蛋糕”0亿。另一方面,市场竞争也加剧:AMD、谷歌、微软、博通等国外企业,以及华为、寒武纪、摩尔线程等国内企业纷纷研发出性价比更高的AI计算产品,国产AI计算芯片逐渐获得订单。此外,阿里巴巴、腾讯、百度、字节跳动等各大互联网公司也加大对芯片研发设计的投入,试图获得对供应链更强的自主控制力。 Epoch Al 数据显示,过去一年,Openai 经计算在实力上花费了 70 亿美元,aof 大型模型训练花费了 50 亿美元。摩根士丹利预测,未来三年,全球人工智能基础设施建设总成本可能高达3万亿美元(约合21万亿元人民币)。德勤报告显示,随着人工智能、5G等新技术的不断发展,环球半导体2025年,行业销售收入将达到创纪录的6970亿美元,并有望在2030年突破1万亿美元。晨星分析师布莱恩·科莱洛(Brian Colello)表示,“后来爆出,这笔交易(英伟达投资的投资是此前的线索之一。”在回答有关中国芯片企业近期发展的问题时,英伟达发言人表示,竞争无疑将到来。王波,青威的投资 清华AI公司CEO CEOI智能告诉笔者,可重构等新架构AI芯片可以让国产AI算力拥有英伟达GPU以外的发展路径。国内AI芯片市场需要比竞品效能高5倍的产品才能分得更多份额。 “该行业现在拥有完全领先市场份额的竞争产品,例如英伟达或英特尔。 你真的不能遵循这条路,否则你就会被压垮。”这种渴望导致了国内的“占领”ic人工智能芯片。自2022年10月以来,美国对中国半导体行业发起多项出口管制,试图阻止中国制造先进的AI芯片或使用美国芯片训练先进模型。 2024年12月,美国拜登政府最后一次扩大对华出口限制,包括限制中国先进AI芯片所需的HBM(高带宽存储器)出口,并降低算力密度红线,旨在限制中国大型AI模型的发展能力。因此,此前依赖英伟达芯片的互联网云公司也开始考虑部署国产AI芯片。同时,2025年的Deviceek热潮也加速了国产AI芯片和应用的落地。今年8月,DeepSeek推出V3.1版本时,官方的一份声明引起了市场关注——“UE8M0 FP8设计Nagdulot ito ng merkado na magpatuloy na bigyang pansin ang pinakabagong pag -unlad ng mga 国产 AI 芯片,at sa parehong oras, nahulog ang presyo ng stock ni Nvidia. Sa kasalukuyan, anggastos sa Deepseek 是一个可以为 Unidos 国家建立 AI 模型的 nangungunang mga 模型。 Noong Setyembre 18, ang takip na papel ng 权威期刊 Nature, kung saan si Liang Wenfeng ay ang 通讯作者,Deepseek-R1 模型的训练成本仅为 29.4 万美元。针对应用场景,中国AI模型 非常好,开放,m可以适应任何应用场景。适应甚至创建基于这些开放模型的公司、产品或业务。 “四年前,英伟达在中国的市场份额高达95%,现在只有50%。如果我们不在中国竞争,而是让中国开发新的平台,建立丰富的生态系统,他们就不是美国的了黄仁勋表示,到2024年底,英伟达占所有AI加速芯片销售额的90%以上。根据2025年8月最新季度财报,英伟达数据中心营收为411亿美元,同比增长56%,成为 Nvidia的业务以kita的比例最高。黄仁勋今年8月表示,Nvidia Blackwell Ultra架构芯片的制造正在向前推进,需求非常强劲,同时模型性能的快速增长是由偶然的AI模型驱动的。艾竞赛开始了,布莱克威尔正处于职业生涯的中期。他认为,每年有6000亿美元的资本支出与数据中心建设相关 基础设施仅包括四家最大的制造商。此外,大量企业将对AI进行相应的投资。未来五年,英伟达将通过基于Blackwell和Rubin架构的芯片抓住3万亿美元至4万亿美元的AI基础设施机会。随着时间的推移,人工智能将加速GDP增长。然而DeepSeek并不是唯一一家不依赖美国技术的中国AI公司。随着美国不断加强对中国的限制,阿里巴巴、腾讯、字节火山引擎等国内云厂商开始囤积英伟达GPU,同时试图用国产产品替代。财报显示,由于美国限制向中国出售H20,英伟达2026财年第一财季H20在美国的库存成本高达45亿美元,第二财季在美国的销售额减少了40亿美元。但与此同时,国内AI芯片市场却供不应求。已被举报据了解,阿里巴巴、寒武纪、清微智能、摩尔线程、必仁科技等多家国产AI芯片旨在挑战英伟达,成为中国核心计算厂商之一。央视在报道《中国联通三江源绿色动力智能计算中心项目建设成果》时透露,阿里巴巴旗下平头哥近期研发了一款用于AI数据中心的PPU芯片。其主要参数超过了NVIDIA A800并与H20相当,同时消耗的能量更少。据笔者了解,寒武纪目前的客户是字节跳动,芯片预购量超过20万颗;阿里巴巴、百度的自研芯片都是大众做的;腾讯目前正在慢慢将之前积累的筹码上架,同时也收购了速源产品。今年9月,华为推出有史以来最强的AI芯片。华为表示将于2026年第一季度推出Ascend 950PR,采用HBM自研运营华为HBM; Ascend950dt将于2026年第四季度推出; Ascend 960芯片将于2027年第四季度推出; Ascend 970于2028年第四季度推出,挑战Nvidia在AI市场的主导地位。据财新网报道,有半导体行业人士预计,2024年,华为升腾AI芯片出货量约为30万-40万颗,寒武纪传输超过1万颗。 2025年,华为AI芯片出货量可能略低于100万颗,而寒武纪传将增至近8万颗。寒武纪的出货量预计在2026年将翻一番。不过,华为副董事长兼轮值董事长徐直军表示,由于美国的制裁,华为无法去台积电生产芯片。单芯片的计算能力与英伟达相比存在差距。而华为在超级节点互联技术上投入巨资,并取得了不错的成绩。复习。可以达到万人超级节点级别,从而实现全球最强算力。华为创始人任正非今年6月表示,尽管华为的升腾芯片比美国同类产品“落后一代”,但它将通过堆叠、集群等技术实现最先进的性能。无论我们面临什么挑战,显然我们都不能减少中国人工智能芯片的产能。 Moore Thread暨CEO创始人张建中近日表示,当前GPU芯片制造困难包括三个方面——国际高端芯片禁运、高端HBM存储销售限制以及制程中的Advansced限制。如今,市场上需要超过700万张GPU计算卡来支持AI和AI代理的技术能力。未来五年,AI算力需求将持续增长100倍。基于每个晶圆生产 ap 的事实有效算力约为20-30张,中国还拥有300万张GPU卡的产能区间。中短期来看,国内计算市场面临计算智能能力不足,劳动力能力不太可能满足需求的情况。今年9月26日,摩尔线程提交招股书仅88天,会议顺利通过,成为科创板审核最快的AI芯片公司,有望成为“国产GPU第一股”。本次IPO,摩尔线程计划募资80亿元,是今年A股项目上最大的融资项目。这也是今年半导体设计领域最大规模的IPO。公司表示,本次募集资金将主要投入新一代人工智能训练识别芯片、图形芯片和AI SOC芯片的研发,以结合公司在高性能计算领域的领先地位。电子计算。财报显示,摩尔线程2025年上半年营业收入达到7.02亿元,超过近三年营收总和,近三年增长率已超过208%。公司毛利率将从2022年的-70.08%大幅提升至2024年的70.71%。截至2025年6月30日,公司与客户谈订单总额预计将超过20亿元。公司管理层预计到 2027 年更早实现合并收入。目前,主要人工智能代理在简单任务调用上消耗超过 100,000 个代币,在复杂任务调用上消耗超过 100 万个代币。截至2025年6月,代币平均-sunny消费量突破30万亿,一年半时间增长300倍。张建中强调,人工智能进入智能体时代,计算需求的力量将引发爆发。黄仁勋曾说过,AI是一种动力ic商人、高科技、现代工业。美国公司应该自由地与中国进行贸易,否则就有可能失去在中国人工智能竞赛中的优势。研究机构最新数据显示,2025年上半年,中国AI加速服务器市场规模将达到160亿美元,较2024年上半年增长一倍多;中国已经拥有超过190万块加速芯片。预计到2029年,中国加速市场将突破1400亿美元。 IDC认为,从技术加速的角度来看,2025年上半年NPU、CPU等非GPU卡的需求将持续增长,增速超过GPU,提供30%的市场份额;而从品牌角度来看,国产AI芯片更为普及,约占整个市场的35%。计算瓶颈到来,服务器芯片急需新架构、新存储以及那些新通信化。对于放置在数据中心的服务器来说,计算(芯片算力)、通信(超级节点、nvlink)、存储(HBM、DDR等)是三个主要要素。随着行业进入后摩尔时代,想要重复一款AI芯片,就需要改进PPA——提高性能、降低耗电量、缩小面积。本质上,PPA的完善需要架构设计、工艺选择、软件涂层等多个维度的共同努力。主要思想是通过改变硬件和软硬件配合来加快处理AI任务(如矩阵运算和采集特征)的速度,优化计算效率和数据流效率,在解决AI计算需求的同时实现PPA的平衡和下降。目前,从制造过程来看,“摩尔定律”正处于放缓阶段。从足够的工艺(如14nm)升级到先进工艺时随着工艺技术的进步(如7nm、4nm、3nm),AI算力性能提升幅度并没有想象中那么大,芯片成本也大幅增加。国际商业战略公司(IBS)首席执行官Handel Jones表示,设计一颗28纳米芯片的平均成本为4000万美元;而7nm芯片的成本高达2.17亿美元,5nm为4.16亿美元,3nm成本为5.9亿美元。根据众多公开数据,开发3NM芯片的整体设计和成本预计将接近10亿美元(约合人民币72亿元)。高价格主要体现在晶圆代工成本、研发投入、设备提取(尤其是EUV光刻机)和良率等多个方面。与此同时,高通近期发布了基于4nm工艺的第四代骁龙8S。与之前的高通骁龙产品相比,通用计算(CPU)性能仅提升了31%; Intel Core Ultra7 采用最新工艺和技术Chiplet 165H相比上一代10nm Core I7-1370P工艺,每瓦性能只会提升近8%;而台积电最新N2工艺的性能仅比上一代提升10%-15%。显然,开发先进的未来制造工艺不会提供Aim带来的芯片,而是会带来薄膜性能和成本效益的更大提升。在今年的 GTC 大会上,黄仁勋开始宣传大模型代币的需求激增,以展示 B200 在 AI 芯片市场的重要性,而不是芯片性能。一位半导体行业人士在私下与智者的交流中也提到不要在中国使用先进工艺。到了12nm之后,工艺性能的提升就不那么明显了。因此,国内制造工艺在很长一段时间内仍可能受到严格限制。如何在倒逼过程中继续发展芯片算力,是一个非常值得思考的问题。目前的关键问题。因此,计算瓶颈到来,AI芯片服务器急需新的架构、新的存储方案、新的通信网络方式,让AI芯片变得更强。清华大学教授、中国半导体行业协会集成电路设计分会理事长魏少军曾表示,除了外部禁止中国研发先进芯片工艺外,中国的制造技术已不再像以前那么繁荣。如今,中国芯片产业需要关注现代技术方面不依赖先进工艺的设计技术,包括架构改变、微系统集成等。“如果只用现有的芯片架构,很可能只会跟随别人,很难攻克。”魏少军认为,包括中国在内的亚洲国家应该利用建筑投降Nvidia GPU 架构用于开发 AI 芯片,以减少对 Nvidia 技术的依赖。他认为,亚洲国家在算法和大型模型的开发上也效仿美国,但这种模型限制了自主性,并且会带来依赖美国技术的风险。亚洲的做法应该与美国模式不同,特别是在算法设计和计算基础设施等关键领域。清华大学集成电路学院院长尹绍义在AICC2025人工智能计算大会上表示,每个晶体管能提供多少算力是计算架构的一个重要问题。采用新的计算架构有机会提高每个晶体管的利用率,解决阻碍国产芯片性能的存储墙,降低芯片强度消耗,带来更多芯片可能性。计算架构的突破可能会导致提升AI芯片的运算能力。同时,利用可重构计算架构进行AI计算,利用硬件软件和编程动态开发最合适的计算架构,有机会通过自动硬件编程来逼近特定集成电路的性能。 “创新的架构可以被传统的设计思维毁掉,解决我们基础的算力问题,但我们也需要有效的生态支撑。致远研究院的花草是国内架构创新的生态背景。除了新的架构之外,通信和通讯方面的改进也很重要。存储方面,AI像HBM和DDR这样的内存需求显着扩大,单个GPU节点就可以消耗一路存储。” 太字节。据美光数据显示,AI服务器的AI服务器dram容量已经是普通的八倍RY服务器,对NAND闪存容量的需求是普通服务器的三倍。单台AI服务器的存储需求高达2TB,进一步超出了传统服务器的调整标准。因此,需求的发展直接提升了芯片内存在AI基础设施中的成本比重。近日,“星际之门”Openai项目与三星、SK海力士达成合作,每月需要采购90万片内存晶圆,相当于全球内存制造总量的近40%。目前,单条内存HBM价格超过5000美元,是传统DDR5内存的20倍,而毛利率高达50%-60%,是传统磁鼓的30%以上。闪存市场总经理邰伟今年3月表示,AI浪潮下,计算平台正从CPU转向GPU/NPU为中心,存储芯片的需求也将随之增加。放松。因此,HBM高带宽存储在AI领域得到广泛应用。目前,HBM 成本约占 DRAM 存储行业的 30%。 2026年,HBM4将推进更多定制行业需求。在通信网络方面,Nvidia的网络布局涵盖了Nvlink、Infiniband和以太网三大技术。其中,nvlink将GPU连接到每台服务器,或者将许多服务器连接到一个柜式机架;而华为提出的升腾CloudMatrix 384超级节点,通过高速互连总线连接,由12个计算柜和4个总线柜组成。总算力达到300pflops,是NVIDIA NVL72的1.7倍,总网络网络达到300pflops。 269TB/s,比NVIDIA NVL72高107%,总带宽显存达到1229TB/s,比NVIDIA NVL72高113%,并进一步扩展至包括未来的一万张卡。 900个Supercluster超级节点集群可支持模型未来更大规模重新进化。此外,不少AI芯片公司还探索共封装光学(CPO)、chiplet、opticalNetwork、DPU等新型通信网络技术,通过相互通信快速提升AI计算的整体性能。北京致远人工智能研究院副院长兼总工程师林永华表示,未来,我们需要推动更好的性价比、更低的能耗、新的计算架构,持续投入变革,让更多现代化的硬件发挥更大作用,实现更多商业价值。据悉,致远研究院近期联合全球生态合作伙伴推出了“Flagg V1.5”系统。清微智能与寒武纪、摩尔线程、昆仑芯、华为升腾、中科海港一起,成为国内仅有的六家“Flagos大适配单位”。然而,目前国内AI芯片生态尚不完善,AnG产能严重不足,中国仍将大量芯片轮转海外。据海关总署今年1月公布的数据,我国集成电路产业累计出口量高达5492亿片,同比增长14.6%;全年集成电路(即芯片)进口总额3850亿美元,同比增长10.4%,占全球芯片劳动力总量的62%。相比之下,2024年中国原油进口额将为3250亿美元。 Idc中国AI基础设施分析师杜云龙认为,中国AI加速服务器市场正在经历规模扩大和本土替代阶段。在高端计算和生态成熟度方面仍需突破。未来,竞争的焦点将从单芯片性能转向系统能效比、开放生态合作和绿色计算成本控制。行业需要避免低建设双水平,通过技术和标准优化合作增强国际竞争。 (文|AI科技平凡2025年5月定|林志佳编辑|盖宏达)返回搜狐查看更多