k8凯发(中国)天生赢家·一触即发

关于凯发k8 集团简介 董事长致词 发展战略 荣誉资质 企业文化 集团产业 技术创新 产品创新 平台创新 国际创新 产品中心 智慧显示终端 电致变色玻璃 模拟芯片 5G非导新材料镀膜 超高清传媒 凯发官网入口首页 智能教育 智能金融 智能办公 智能医疗 智能交通 凯发k8一触即发 集团动态 媒体报道 商务合作 销售代理 产品直销 加入我们 联系我们 人才理念 人才培养 凯发k8·[中国]官方网站
凯发k8·[中国]官方网站

媒体报道

k8凯发国际官方网站自研AI服务器芯片竞争|肉食系小猴子|升级

来源:凯发k8·[中国]官方网站 发布时间:2024-05-10

  有越来越多的互联网和IT设备大厂开始自研AI服务器芯片ღ◈★,最近ღ◈★,这一风潮吹到了苹果公司ღ◈★,据悉ღ◈★,该智能设备龙头正在开发用于AI服务器的定制芯片ღ◈★。

  与微软和谷歌等竞争对手相比天生赢家·一触即发ღ◈★,苹果在推出生成式AI方面进展较慢ღ◈★,不过ღ◈★,苹果公司CEO库克称ღ◈★,AI已经在苹果产品的幕后发挥作用ღ◈★,此前有媒体报道ღ◈★,苹果计划使用AI来提高搜索存储在苹果设备上的数据的能力ღ◈★。

  今年2月k8凯发国际官方网站ღ◈★,库克在年度股东大会上表示ღ◈★,使用苹果AI技术的功能包括Vision Pro的手部跟踪工具和Apple Watch的心率警报ღ◈★。他还表示ღ◈★,MacBook中的芯片能够运行AIღ◈★。

  库克表示ღ◈★,今年晚些时候ღ◈★,将与大家分享如何在生成式AI领域开辟新天地ღ◈★。苹果公司通常在6月份的年度开发者大会上宣布新的软件产品和功能ღ◈★。

  知名分析师郭明錤在2023年10月发布的一份报告显示ღ◈★,预计苹果在2023和2024年分别采购2000–3000台ღ◈★、1.8万–2万台AI服务器ღ◈★,分别占同期全球AI服务器出货量的1.3%和5%ღ◈★。估算苹果在2023和2024年需要分别支出约6.2亿和47.5亿美元ღ◈★,用于AI服务器采购ღ◈★。

  基于苹果产品的功能需求ღ◈★,以及庞大的AI服务器资本支出ღ◈★,再结合该公司自研芯片的历史ღ◈★,相信其自研AI服务器芯片是早晚的事ღ◈★,特别是苹果放弃造车ღ◈★,将资金和资源重点投入到AI技术和产品研发上ღ◈★,自研AI服务器芯片就更加顺理成章了ღ◈★。

  据统计ღ◈★,2024年ღ◈★,全球服务器出货量约1365.4万台ღ◈★,其中ღ◈★,各家ODM的出货以AI服务器最为强劲ღ◈★。分析师指出ღ◈★,2024年ღ◈★,AI服务器出货年增长率和占比都将达到两位数ღ◈★,这主要得益于生成式AI市场的增长ღ◈★。

  预计生成式AI市场规模将从2022年的400亿美元增长到2032年的1.3万亿美元ღ◈★,年复合增长率高达41.7%ღ◈★。由于全球生成式AI市场商机与增长潜力巨大ღ◈★,对训练AI系统的软硬件需求量很大ღ◈★,使得市场对AI 服务器及相关芯片的需求不断增长ღ◈★。

  AI大模型迭代速度越来越快ღ◈★,厂商对智能算力的投入大幅增加ღ◈★,支持存储和训练的高端AI服务器的需求激增ღ◈★,2023和2024年ღ◈★,大模型训练所需数据量激增ღ◈★,AI大模型厂商需要的是能够支持存储和训练的高端AI服务器ღ◈★,因此ღ◈★,各服务器厂商都在升级芯片规格ღ◈★、扩大卡组数量ღ◈★。

  与传统服务器相比ღ◈★,AI服务器在多个方面有所不同ღ◈★。硬件方面ღ◈★,AI服务器采用异构形式ღ◈★,内存容量更大ღ◈★,可满足不同场景需求ღ◈★;卡的数量方面ღ◈★,由于AI服务器需要大量计算ღ◈★,至少配置4个GPU卡ღ◈★,有的需要8个ღ◈★;系统结构方面ღ◈★,AI服务器在散热ღ◈★、拓扑等方面进行了专门设计ღ◈★,以实现稳定运行ღ◈★。

  根据应用场景不同ღ◈★,AI服务器可分为深度学习训练型和智能应用推理型ღ◈★;根据计算模块结构不同ღ◈★,AI服务器可分为CPU+GPUღ◈★、CPU+ASICღ◈★、CPU+FPGA等ღ◈★,其中ღ◈★,最常见的是CPU+多块GPU组合模式ღ◈★。

  虽然AI服务器计算系统主要由CPU和GPU组成ღ◈★,但就目前而言k8凯发国际官方网站ღ◈★,GPU占据了较大市场份额ღ◈★,CPU份额相对较小ღ◈★。在这种情况下ღ◈★,GPU厂商的行业地位就很凸出了ღ◈★。然而ღ◈★,虽然市场很大ღ◈★,但能够提供高性能GPU的厂商却很少ღ◈★,目前ღ◈★,能够形成一定市场规模的厂商只有3家ღ◈★:英伟达ღ◈★,AMD和英特尔ღ◈★。

  基于这种市场供求关系ღ◈★,对AI服务器具有很大需求量的互联网和IT设备大厂纷纷开始自研相关芯片AG凯发k8真人娱乐ღ◈★。ღ◈★,如亚马逊AWSღ◈★,谷歌ღ◈★,Metaღ◈★,微软和苹果ღ◈★。

  2016年ღ◈★,谷歌推出了自研的AI张量处理单元(TPU)ღ◈★,这些专为机器学习设计的芯片为谷歌云平台上提供了AI加速能力ღ◈★,2022年前后ღ◈★,谷歌开始研发基于Arm架构的服务器CPUღ◈★,2024年4月ღ◈★,谷歌发布了*自研Arm构架CPU——Axionღ◈★,并宣布该芯片已经在内部使用ღ◈★。

  2020年ღ◈★,微软开始为其Azure云服务定制芯片肉食系小猴子ღ◈★,2023年11月ღ◈★,微软推出了两款自研芯片——Maia100和Cobalt100ღ◈★。Maia100是一款专为大语言模型训练和推理而设计的芯片ღ◈★,采用台积电5nm制程ღ◈★,Cobalt100是一款基于Arm架构的128核服务器CPUღ◈★。

  今年4月初ღ◈★,Meta发布了新一代AI训练和推理加速器MTIAღ◈★,其计算和内存带宽是上一代产品的两倍多ღ◈★,最新版本芯片有助于驱动Facebook和Instagram上的排名和推荐广告模型ღ◈★。

  互联网和IT设备大厂自研AI芯片的核心动机是降低成本ღ◈★。当然ღ◈★,自研芯片的前提是自身有很大的需求量ღ◈★,否则自研没有意义ღ◈★。这些大厂的巨量规模能够分摊芯片研发成本ღ◈★,随着产量的增加ღ◈★,单位芯片的成本会降低ღ◈★。通过自研ღ◈★,这些大厂可以直接控制芯片的设计和生产成本ღ◈★,从而减少对外部供应商的依赖ღ◈★。这种成本控制能力使它们能够更有效地管理运营支出ღ◈★,提高整体利润率ღ◈★。自研芯片还可以优化供应链管理ღ◈★,减少中间环节ღ◈★,从而降低采购成本和物流成本ღ◈★。此外ღ◈★,自研芯片可以根据云服务的具体需求进行定制ღ◈★,避免不必要的功能和性能过剩k8凯发国际官方网站ღ◈★,进一步降低生产成本ღ◈★。

  通过自研芯片ღ◈★,这些大厂能够掌握更多的议价权和定价权ღ◈★,避免成为英特尔ღ◈★、英伟达等传统芯片商的“打工仔”k8凯发国际官方网站ღ◈★。这不仅有助于提升利润空间ღ◈★,还能够在价格竞争中保持灵活性ღ◈★,根据市场情况调整定价策略ღ◈★。

  自研芯片还可以帮助这些大厂完善软硬件生态系统ღ◈★,它们能够根据自家的业务需求和特点定制芯片ღ◈★,从而实现硬件与软件之间的无缝对接和优化ღ◈★。自研芯片还可以保持技术创新ღ◈★,随着云计算ღ◈★、大数据ღ◈★、人工智能的快速发展ღ◈★,数据中心面临的工作负载越来越多样化ღ◈★,自研芯片使这些大厂能够快速响应市场变化ღ◈★,及时推出符合新需求的产品和服务ღ◈★。

  AI服务器芯片属于超大规模集成电路ღ◈★,除了需要大量资金投入ღ◈★,其设计和制造的难度都很大ღ◈★,需要能够精准把握技术路线选择ღ◈★,另外ღ◈★,在团队建设ღ◈★,以及与晶圆代工厂合作方面ღ◈★,需要具备业界*水平ღ◈★,才能把芯片做好ღ◈★。

  AI服务器需要训练和推理两类处理器和系统ღ◈★,如何规划技术发展路线是关键ღ◈★,也就是说ღ◈★,是发展训练ღ◈★,还是推理ღ◈★,或是兼而有之ღ◈★,是不同的技术路线ღ◈★,这要考虑到市场现状及未来的发展情况ღ◈★。

  训练芯片主要用于AI算法训练ღ◈★,即在云端将一系列经过标记的数据输入算法模型进行计算ღ◈★,不断调整肉食系小猴子ღ◈★、优化算法参数ღ◈★,直至算法识别准确率达到较高水平ღ◈★。推理芯片主要用于AI算法推理ღ◈★,将在云端训练好的算法模型进行裁剪ღ◈★、优化变“轻”之后凯发国际官网ღ◈★。ღ◈★,进入应用阶段ღ◈★,输入数据直接得出识别结果ღ◈★。

  不同用途(训练和推理)ღ◈★、不同应用场景(端-边-云)对AI芯片有着不同的要求ღ◈★。训练芯片追求的是高性能(高吞吐率)ღ◈★、低功耗ღ◈★,推理芯片追求的是低延时(完成推理过程所需要的时间尽可能短)ღ◈★、低功耗肉食系小猴子ღ◈★。“端-边-云”这3个环节对AI芯片的要求也不同ღ◈★,在端和边上进行的大部分是AI推理ღ◈★,大部分的训练是在云和数据中心进行的ღ◈★,训练过程对时延没有什么要求ღ◈★,需要保证AI芯片在尽可能保证较高算力的情况下ღ◈★,功耗尽量低ღ◈★。

  目前凯发天生赢家一触即发ღ◈★,ღ◈★,英伟达GPU主导的AI训练市场最为火热k8凯发国际官方网站ღ◈★,然而ღ◈★,随着AI应用的深入展开ღ◈★,巨大的推理芯片市场会逐渐展现出来ღ◈★,该市场比我们目前看到的要大得多ღ◈★,没有任何一家厂商的芯片能够满足这个市场需求ღ◈★。这就是前文提到的亚马逊ღ◈★、谷歌ღ◈★、微软ღ◈★,甚至英伟达自研CPU的原因所在ღ◈★。

  有统计显示ღ◈★,AI芯片市场包括约15%的训练ღ◈★,45%的数据中心推理和40%的边缘推理ღ◈★。在这样的行业背景下ღ◈★,大厂自研芯片ღ◈★,必须找准方向ღ◈★,权衡好中短期和中长期应用需求ღ◈★,分配好训练芯片和推理芯片的研发投入ღ◈★。

  技术团队搭建ღ◈★,是一个长期积累的过程ღ◈★,需要时间ღ◈★,难度不小ღ◈★,因此ღ◈★,多家互联网大厂对芯片设计外包服务的依赖度较高ღ◈★,这恐怕只能解决短期ღ◈★、少量需求问题ღ◈★,长期来看ღ◈★,还需要技术积累和芯片团队建设ღ◈★。

  AI服务器芯片采用的都是*进制程工艺ღ◈★,这方面ღ◈★,考虑到三星电子的先进制程(4nm和3nm)良率迟迟提升不上去ღ◈★,台积电几乎是*的晶圆代工厂选择ღ◈★。

  根据专门研究半导体公司的金融分析师Dan Nystedt的估计ღ◈★,2023年ღ◈★,苹果公司占台积电收入的25%(175.2亿美元)ღ◈★。

  2023年ღ◈★,台积电的前10名客户占其收入的91%ღ◈★,高于2022年的82%ღ◈★,这些公司包括联发科ღ◈★、AMDღ◈★、高通ღ◈★、博通ღ◈★、索尼和Marvellღ◈★。可以看出ღ◈★,没有一家互联网大厂肉食系小猴子ღ◈★,除了苹果ღ◈★,都是IC设计大厂ღ◈★。

  多年来ღ◈★,苹果一直是台积电的头号客户ღ◈★,而且ღ◈★,在未来多年内将一直是台积电的*大客户ღ◈★。据悉ღ◈★,苹果自研的AI服务器芯片将采用台积电的3nm制程工艺ღ◈★,将在2025下半年生产肉食系小猴子ღ◈★,那时ღ◈★,台积电的3nm制程将升级到“N3E”版本ღ◈★。

  对于互联网和IT设备大厂来说ღ◈★,自研的AI服务器芯片k8凯发国际官方网站ღ◈★,必须找到足够好的晶圆代工厂生产ღ◈★,要想保持长期ღ◈★、稳定发展k8凯发国际官方网站ღ◈★,就必须对晶圆代工厂的制程工艺有足够的了解ღ◈★。这方面ღ◈★,与谷歌ღ◈★、亚马逊和微软相比ღ◈★,苹果具有先天优势ღ◈★,因为该智能设备巨头是台积电多年的*大客户ღ◈★,双方有深入了解ღ◈★,能够更好地把握好芯片生产规模ღ◈★、良率ღ◈★、成本ღ◈★,可以实现无缝过渡ღ◈★。

  如前文所述ღ◈★,互联网大厂自研AI服务器芯片ღ◈★,由于研发难度很大ღ◈★,这些大厂短时间内又难以形成有足够技术和经验积累的团队ღ◈★,因此ღ◈★,选择外包ღ◈★,找芯片设计服务合作伙伴就成为了不二选择ღ◈★。

  例如ღ◈★,谷歌开发的两种Arm服务器CPUღ◈★,其中一款代号为“Maple”肉食系小猴子ღ◈★,是基于Marvell的技术ღ◈★。

  另外ღ◈★,谷歌自研的TPU用于取代英伟达的GPUღ◈★,谷歌设计的芯片蓝图ღ◈★,都由博通进行物理实现ღ◈★。物理实现是将逻辑电路转换为有物理连接的电路图的过程ღ◈★,博通绘制好物理版图后ღ◈★,再送到台积电流片ღ◈★,流片成功后的芯片正式进入制造环节凯发k8·[中国]官方网站ღ◈★,整个过程都需要博通深度参与ღ◈★。

  数据中心中成百上千个高性能处理器共同运作ღ◈★,它们之间的通信就成为了大问题ღ◈★,这也是当下数据中心性能损耗的主要来源ღ◈★。

  博通是通信巨头ღ◈★,最善于解决通信带宽问题ღ◈★,在全球50GB/s的SerDes市场中ღ◈★,博通占据了76%的份额ღ◈★,其SerDes接口通过将低速并行数据转换为高速串行数据ღ◈★,然后在接收端转换回并行数据ღ◈★。通过这样的操作ღ◈★,数据可以从一个TPU高速转移到另一个TPUღ◈★,大大提升了传输效率ღ◈★。

  有了博通的帮助ღ◈★,谷歌自研芯片的项目进展速度明显加快了ღ◈★,TPU从设计开始ღ◈★,仅用15个月就部署进了数据中心ღ◈★。

  随着大模型市场竞争快速展开ღ◈★,谷歌大幅增加了TPU设计服务订单ღ◈★,使博通一跃成为仅次于英伟达的AI芯片厂商ღ◈★,Semianalysis预估ღ◈★,AI芯片会在2024年给博通带来80亿~90亿美金的营收ღ◈★。

  不止谷歌ღ◈★,Metaღ◈★、亚马逊ღ◈★、微软等大厂都在加大自研AI服务器芯片的投入力度肉食系小猴子ღ◈★,找芯片设计服务外包合作伙伴的需求只增不减ღ◈★,此时ღ◈★,以博通ღ◈★、Marvell为代表的芯片设计服务公司的商机会越来越多ღ◈★。