伴随生成式AI市场的不断扩大,其对快速、强大的计算处理器,以及海量数据存储,提供了更高的要求。
受通胀压力和宏观经济下行的双重影响,自2022年开始全球云计算市场增速出现下降,但长期来看其需求依旧稳固。b39esmc
Gartner数据显示,尽管以 IaaS、PaaS、SaaS 为代表的全球云计算市场在2022年规模约接近5000亿美元,增速为19%,仍较2021年32.5%的高速增长回落明显,但对比全球整体经济仅3.4%的增长,这一增速还是较为可观。该机构还预测,在大模型等新算力需求刺激下,全球云计算需求仍将长期保持稳定增长,到 2026年其市场规模将突破万亿美元。b39esmc
作为云计算的基础,数据中心不可或缺。当云计算高速发展时,数据中心应用规模也会随之扩张。b39esmc
IDC数据显示,2022年全球服务器出货量高达1500万台,销售额超过1200亿美元,同比分别增长 12%和 22.5%。同期,全球 AI 服务器市场规模同比增长17.3%,超过180亿美元。随着训练数据规模和模型复杂度暴增,全球AI服务器出货占比正在大幅提升,随之而来的AI芯片需求也在大增。b39esmc
1月底,传出来自英伟达、AMD 等客户的“爆款急单”持续增加,台积电不仅加速推进CoWoS 等先进封装扩产计划,且还上调产能目标。据悉,此时英伟达的订单占比接近50%,其明星产品H100的交付周期仍长达10个月。b39esmc
不过,随着今年台积电CoWoS产能逐季得到释放,以及英特尔将于第二季度加入先进封装(月产能约5千片)行列,英伟达将向广达、超微(Supermicro)、华硕、技嘉、华擎等厂商提供更多 AI GPU产品,这将推动AI服务器出货量进一步增长。据统计,中国台湾服务器出货量占全球总市场的80%以上,而该地AI服务器的代工更是占据全球90%的市场份额。b39esmc
据资策会产业情报研究所(MIC)预测,全球AI服务器出货量占比将从2023年12.4%增至2027年20.9%。其中,AI服务器出货量将在2024达到194.2万台、2025年达236.4万台,到2027年进一步增至320.6万台,2022年至2027年间的复合成长率为24.7%。b39esmc
此外,伴随着AI服务器比例的快速增长,头部处理器厂商将推出支持PCIe Gen5的第二代服务器CPU,而性能更优的 PCIe Gen5 SSD产品也将随即在下半年问世和采用。b39esmc
随着越来越多的行业持续加大对生成式AI技术的投入,预计到2032年其市场规模将超过1,100亿美元,2022年到2032年间年复合增长率逾27%。 伴随生成式AI市场的不断扩大,其对快速、强大的计算处理器,以及海量数据存储,提供了更高的要求。b39esmc
b39esmc
图1:2022-2032年全球AI市场规模预测b39esmc
当前,大型语言模型(LLM)所使用的数据量和参数规模正呈“指数级”增长。以GPT为例,GPT-3 模型参数拥有1750亿个,单次训练所需总算力约3640 PF-days(即以每秒一千万亿次计算,运行时间为3640天)。作为GPT-3的升级版——GPT-4参数数量进一步扩大至1.8万亿个,是GPT-3 规模的10倍,训练算力需求达GPT-3的68倍,要在2.5 万个A100上训练约90-100天(MFU约32%到36%)。b39esmc
2020年5月,英伟达推出了新一代GPU芯片,英伟达CEO黄仁勋介绍道:“A100 AI训练和推理性能较前代V100提升了20倍。”而作为下一代继任者,H100芯片于2022年初发布,当年9月量产。H100较A100获得了大量的技术更新和升级,所有设计均达到新的性能和效率水平。b39esmc
以700亿参数的LLaMA 2大模型为例,H200的推理速度几乎较 H100提升一倍,能耗则降低一半。高带宽的内存芯片可为GPU提供更快的并行数据处理速度。产品参数显示,H200显存已由H100 80GB 飙升至141GB ,带宽从3.35TB/s增加至4.8TB/s 。其中,H200整体性能的提升的最大“功臣”就是HBM3e内存技术。b39esmc
2013年,韩国存储厂商SK海力士首次推出HBM存储技术,该技术后续又衍生出HBM2、HBM2e和HBM3,带宽和 I/O 速度进一步提升。作为HBM3的下一代产品,SK海力士于2023年8月推出了HBM3e,其宣称单颗带宽可以达到1.15TB/s。按照计划,该厂商将于今年开始量产HBM3e。b39esmc
在SK海力士布局HBM3e后,其他存储大厂陆续跟进,如三星或已在去年第4季度向北美客户供货;美光表示将在今年实现追赶,并有望在今年下半年向英伟达下一代GPU产品供货。b39esmc
据Gartner预测,2023年全球HBM存储市场规模约为20亿美元,预计到2025年将暴增至近50亿美元,增长率将近150%。从应用需求来看,目前对HBM用量最多是AI GPU产品,而受益于推理模型应用的推动,FPGA对HBM的用量或在2025年后出现显著增长。b39esmc
IDC中国研究经理杨昀煦表示:“目前自然语言生成、图像生成已经是PB级数据量,正在落地的音、视频生成达到EB级别。” 她指出,当AIGC应用深入到行业场景后,例如,制造业的搬运、喷涂等产线;医疗行业的精准手术操作、航空航天的卫星维护以及智慧城市中的交通管理等机器人控制工作场景中后,数据量将急速上升,达到ZB级,且从训练数据的收集、预处理、写入读出,到稳定训练集、兼顾企业数据安全以及最后训练结果数据形成资源池,对推理结果进行使用,这整套流程下来对存储技术的多维度能力提出挑战。b39esmc
也正因AI训练和推理需求的持续火热,不仅推动了英伟达产品的供不应求,更拉高其业绩大幅增长。b39esmc
在2024财年三季报中,英伟达营收增长206%至181亿美元;净利润暴增1259%至92亿美元。 作为英伟达业务的核心,其数据中心业务同比增长279%至145亿美元。据该公司管理层预计,其四季度收入将较三季度增长34%,达到200亿美元。在核心GPU产品销量上,据Omdia口径统计,其在2023年第三季共售出近 50万块A100和 H100 GPU,而基于 H100的服务器的交付周期已延长至36到52周。该机构认为,H100 最大买家为Meta和微软,两家公司都采购了15万块H100,采购量远超谷歌、亚马逊、甲骨文和腾讯。b39esmc
从营收规模来看,英伟达虽尚不及英特尔,但得益于在火热的AI芯片市场的强势地位,该公司市值持续上扬。2023年该公司股价上涨了约240%,而截至2024年1月30日,其最新市值超过1.5万亿美元,远超风头正旺的芯片代工龙头台积电和老牌芯片厂商博通和英特尔。b39esmc
b39esmc
图2:各半导体公司市值(截至2024年1月30日)b39esmc
凭借在图形芯片领域数十年来的积累,英伟达坐享丰厚的行业红利,这也让其他芯片大厂眼红。见此,AMD等厂商开始涉足AI芯片领地。b39esmc
2023年12月,AMD推出了用于大模型训练和推理以及高性能计算 AI芯片MI300XGPU和MI300AAPU。其中,AMD的最新AI芯片InstinctMI300X,已获得微软和Meta两家巨头的青睐。据AMD CEO苏姿丰介绍,InstinctMI300X性能可与英伟达H100HGX相媲美。而来自中国的电信设备巨头华为,则于2023年9月发布了两款采用自家达芬奇架构的人工智能处理器——昇腾310和910,前者用于推理和后者用于训练。b39esmc
而作为H100 的升级款—H200已在2023年全球超算大会(11月中旬)发布,并有望于今年第二季度推出,而英伟达最受关注的B100 或有望于3月的GTC 大会上亮相,预计9、10 月量产入市。据统计,2022年全球AI芯片市场规模约168.6亿美元,其中英伟达市场份额超过80%。同时在全球AI服务器加速芯片市场,该厂商市占比超过95%。b39esmc
此外,另据OpenAl 测算,自 2012年以来,世界头部AI模型训练算力需求每3至4个月就翻一番,而每年头部训练模型所需算力增幅高达10倍。但摩尔定律的规律却是,每隔18至24个月芯片计算性能大约只翻一番。可见,芯片的计算性能增速是滞后的,而算力需求的暴增将推动更多芯片的销量。长期来看,随着更多厂商AI芯片的入市,市场竞争亦将更为激烈。b39esmc
尽管以大模型为主的生成式AI技术的发展,为人们的生产生活提升了效率和便利性,但在其应用背后却隐藏着高昂的部署成本。b39esmc
据国盛证券报告估算,GPT-3单次训练成本约为140万美元,对于一些更大的LLM训练成本在200万到1200万美元之间。以ChatGPT在2023年1月的独立访客平均数1300万计算,其对应芯片需求为3万多片英伟达A100 GPU,初始投入成本约8亿美元,日均耗电费用约5万美元。正因如此,自2019年以来,OpenAI获得了来自微软的130亿美元的巨额投资(持股49%)。b39esmc
事实上,ChatGPT 的模型计算本质上是借助微软 IDC (互联网数据中心)资源——在云端完成计算。可见,作为承接AI计算任务的重要算力基础设施的IDC,其成本和规模并非多数企业所能承受。b39esmc
不过,随着生成式AI的快速发展和迭代,更为个性化和低成本的计算需求正在形成。据Alphabet董事长John Hennessy评估,每一次基于生成式 AI 的网络搜索查询(query)其成本是传统搜索的10倍(微调可降低成本)。所以,部署在云端(侧)和终端(侧)的混合AI才是AI的未来。混合AI将支持生成式 AI服务商(含开发者和提供商)利用边缘终端的计算能力降低成本。b39esmc
据杨昀煦介绍,随着数据生成的速度和复杂性不断增加,大数据的处理和分析需要更强大的计算能力的同时,更需要高效的数据处理方法;边缘计算则将数据处理和计算放在更靠近物或者数据源头的一侧,需要网、算、存更集成的平台来满足要求;云计算对比来讲则更集中化、规模化,但对业务和数据灵活性要求更高。结合行业来看,三种技术在不同行业的不同应用场景中被要求发挥不同的性能特征,不同的工作场景都对存储技术带来不同的要求。她指出,大数据环境的海量非结构化数据存储、边缘计算领域对数据传输和处理效率上的要求、以及云计算对数据存储安全以及可扩展性提出要求。b39esmc
b39esmc
图3:生成式AI生态链使应用数量激增b39esmc
与仅在云端进行处理不同,混合 AI 架构可根据不同计算需求,在云端和边缘终端间分配并协调AI工作负载。通过云端和边缘终端协作,可实现更强大、更高效且高度优化的Al。b39esmc
如今,随着个人计算需求的落地,被定义为个人AI助理的AI PC将成为AI普惠的首选终端。因此,OEM厂商将其视作新商机,并开始进行商业部署,比如联想AI PC将在2024年率先搭载个人大模型,“AI与PC结合将形成‘ 算力平台+个人大模型+AI应用 ’的新型混合体”。b39esmc
而随着AI应用落地和更新周期的复苏,联想预计今年全球PC出货量或实现5%的增幅,戴尔(Dell)则预计全年增速为3%-4%。此外,全球最大处理器厂商英特尔乐观宣称,到2025 年将实现出货高达1亿台PC的目标,几乎占PC TAM(总目标市场)总量的30%。b39esmc
此外,基于生成式AI的设备开始向手机行业渗透。据Counterpoint Research初步预测, 2024年AI智能手机出货量将超过1亿部。到2027年, 此类手机出货量将达5.22亿部,复合年增长率为83%。该机构将“生成式AI手机”定义为,能够生成创建,诸如艺术作品、音乐、视频等原创内容,且可在本地运行AI模型的智能手机。b39esmc
在移动设备处理器领域,高通和联发科亦都所布局。其中,高通在报告中指出,“骁龙作为提升顶级 Android 体验的领先移动平台,其中就包含已出货的20 多亿个具备AI能力的处理器”。另外,该公司还引用第三方数据指出,“公司将以超过 40%的市场份额保持 AI 智能手机处理器出货量的领导地位,远超苹果(25%)和联发科(24%)等其他公司。”b39esmc
随着强大性能的生成式AI模型不断缩小,手机端侧的处理能力将持续提升,如在今年1月8日,OPPO发布了首个端侧应用70亿参数大语言模型手机。b39esmc
此前,高通在报告中表示,“参数超过10亿的AI 模型能在手机上运行,且性能和精确度水平达到与云端相似的水平。不久的将来,拥有100亿或更高参数的模型将能够在终端上运行。”b39esmc
b39esmc
表1:中国手机厂商在大语言模型(LLM)的部署b39esmc
杨昀煦称,在各个行业的大规模的、复杂的数据处理需求的场景里,“智能化”应用都能发挥很好的作用,帮助快速、科学、有效的提供决策辅助,如在交通的调度场景、制造的工业设计、电力行业的智能电网管理、金融行业的客户分析、风险分析、水利行业的水位、流量检测等领域。b39esmc
随着工业“智能化改造数字化转型”加速落地,智能制造进程的持续推进,以及融入AI技术的各类多样化消费需求的不断涌现,正在成为推动算力投资的新引擎。b39esmc
以往中国计算产业的大量核心芯片和重要器件主要依赖进口,但是近年来,中国本土企业依托超大规模市场优势,形成覆盖全产业链的生态,厚积薄发,涌现出一批先进计算技术成果。b39esmc
比如,华为推出了推理芯片昇腾310和训练芯片910,其中昇腾910B AI芯片已被百度采购,用以替代英伟达同类产品。此外,壁仞科技还推出了首款用GPU芯片BR100;以及天数智芯(智铠100)、沐曦(N100)等发布AI 推理芯片。与此同时,专注于NAND闪存的长江存储(YMTC)和专注于 DRAM 存储的长鑫存储(CXMT)都将受益于AI热门的应用需求。b39esmc
尖端技术突破,并不只能简单被视作产业升级,最重要的是,“独立自主”更关乎国家命运与安全。b39esmc
微信扫一扫,一键转发
关注“国际电子商情” 微信公众号
2025年3月16日,中共中央办公厅、国务院办公厅印发《提振消费专项行动方案》并发出通知。其中涉及到“人工智能+”行动,促进“人工智能+消费”。
本文从观察到的两个有趣的市场与宏观趋势出发,来观览这高速发展、属于人类技术与生产力变革史的后续四五十年。
"以后只有用我们的鸿蒙PC了。”
国际电子商情讯,据《华尔街日报》最新报道,美国政府正酝酿对中国AI公司DeepSeek采取一系列限制措施,其中最为引人注目的是可能禁止在政府设备上使用DeepSeek聊天机器人。美国政府此举引发了各界的关注。
到2029年,Agentic AI将取代80%的人工客服。
安森美已准备好“应对长期波动”。
黄仁勋夸爆DeepSeek!
国际电子商情讯,北京时间今日凌晨,天风国际证券分析师郭明錤在其社交平台X发文称,2025年初首批Intel/IFS 18A先进制程生产的Panther Lake工程样品的生产良率不到20%-30%。他指出,该生产良率对英特尔下半年要量产的目标而言并非易事。
苹果称,这是其有史以来最大规模的支出承诺。
电子产品供应链正面临需求激增、短缺和中断的日益严峻的压力。未来十年,强化数据分析将重塑运营,提升预测能力、效率和应变能力。
“深圳引望”成立一周年之际,华为又一大动作。
国际电子商情20日讯,Intel的出售计划似乎正面临一道难以逾越的高墙——其与AMD之间的广泛交叉授权协议。这一协议的存在,使得Intel的任何出售或合资计划都必须获得AMD的点头同意,否则将寸步难行……
美通社消息,3月14日,“2025英飞凌消费、计算与通讯创新大会”(ICIC2025)在深圳举行。本届大会汇聚600多位业界精
近日,湖南省工信厅发布了《2025年湖南电子信息制造业重点项目名单》,涵盖先进计算、音视频、新一代半导体、人
3月15日,质鼎集团公众号消息,惠科东莞平板显示集群电子商务项目二期正式开工。
富士康、台积电、广达、华硕、联发科、友达光电等中国台湾20家电子企业2024年第四季度和全年财报汇总。
近年来,LED显示屏市场持续演进。回顾2024年,行业呈现出哪些发展态势?展望2025年及未来,市场又将面临哪些机遇与
近日,索尼正式发布新一代RGBLED背光技术系统,可实现4000尼特峰值亮度。索尼计划该系统将于2025年开始量产,并将
AI芯片是半导体最大的增长点,先进封装则是制造AI芯片的关键技术。此前英伟达H100成本约3000美元,而用先进封装
截止2024年底,17家欧美固态电池企业融资总额已突破42亿美元。
曾几何时,中国半导体几乎不断有大基金投资、大项目上马,以及美国制裁的新闻。长期处于聚光灯下,中国半导体成为
Dynabook在退出十年后宣布重返美国消费市场。
Canalys最新数据显示,受到消费需求激增8%的推动,2024年第四季度中国大陆的PC市场开始复苏,同比增长2%。
根据TrendForce集邦咨询最新调查,2024年第四季由于Apple(苹果)手机生产进入高峰,以及中国部分地方提供消费补贴
德州仪器近日推出了全球超小型 MCU,进一步扩展了品类齐全的 Arm® Cortex®-M0+ MSPM0 MCU 产品组合。
创新是企业持续发展最大的价值。
“闪迪(Sandisk)又回来了!”在3月12日的存储年度盛会CFMS MemoryS 2025上,闪迪公司全球产品副总裁Eric Spa
摩尔斯微电子推出合规的Wi-Fi HaLow片上系统(Soc),开启欧洲连接技术新纪元。超低功耗、远距离连接功能现已为
CFMS | MemoryS 2025已圆满落幕,期间包括三星电子、长江存储、铠侠、美光、闪迪、高通、Arm、慧荣科技、S
Hyperlux™ ID iToF 系列将深度测量距离提升至最远 30 米,提高工业环境中的生产效率和安全性
26TB大容量CMR HDD助力WD Red Pro与G-DRIVE/G-RAID系列专业级产品矩阵,赋能数据存储拓展与生产力跃升
全新一代MCU可以满足各种区域控制架构和电气化系统需求,助力汽车制造商向软件定义汽车(SDV)过渡。
将出色的高
聚洵半导体科技(上海)有限公司(Gainsil Semiconductor Technology)于2016年成立于上海张江科学城,是一家全球
领域新成果领域新成果4月必逛电子展!AI、人形机器人、低空飞行、汽车、新能源、半导体六大热门新赛道,来NEPCO
后量子加密技术帮助保护数字基础设施免受量子计算机在将来带来的潜在威胁。
英飞凌坚信低碳化和数字化是未来十年的关键驱动力,半导体在应对能源挑战和推动数字化转型中扮演着重要角色。
点击查看更多
北京科能广告有限公司深圳分公司 版权所有
分享到微信
分享到微博
分享到QQ空间
推荐使用浏览器内置分享
分享至朋友圈