来源:正大期货 2023-05-12 11:07
2023年伊始,资源市场的关注点显著变了,AIGC逐渐成为这一轮大行情的全新焦点。今年以来,从外洋的AUTOGPT到海内的文心一言,再到华为的盘古大模子、讯飞星火大模子等纷纷推出,出现出一派你方唱罢我方休的姿态。
只管介入者甚众,但现在为止这些应用,离真正的落地还相距甚远。现实上,岂论是哪家公司训练大模子,都离不开天文数字的海量算力支持,因此当前能够真正从AI大模子中获益的,更可能是为大模子训练提供算力支持的高性能算力厂商和服务器厂商。
01 ChatGPT拉动算力延续飙升
在AI大模子飞速生长之下,单个大语言训练驱动AI训练服务器需求约2亿美元,AI推理服务器方面,如ChatGPT在初期便可动员推理服务器需求约45亿美元。而种种ChatGPT的发作,更让它背后的AI服务器随之水涨船高。
详细而言,算力作为大模子的焦点引擎,它的盘算方式既简朴又粗暴,即现实拥有若干的GPU芯片,将直接决议其算力的巨细。而且ChatGPT所需要的算力不是牢固的,反而是逐次递增的,这就意味着ChatGPT越伶俐,其背后所需要的算力就越多,而供需双方存在的现实差距,则让算力资源的“主要问题”变得愈加严重起来。
从需求侧来看,大模子参数目的延续增大,需要更多算力资源予以支持。从大模子自身的生长状态来看,参数目的转变是一个异常值得关注的指标。从最早的ResNet、inception等模子,到现在的GPT模子,大模子的参数目不停壮大。
数据显示,2018年前后OpenAI先后推出Transformer和GPT-1模子,参数目在1亿级别;随后谷歌提出3亿参数的BERT模子,参数目再次增进。2019、2020年OpenAI加速追赶,陆续迭代出GPT-2、GPT-3模子,参数目划分为15亿、1750亿,实现模子体量质的飞跃,而阿里达摩院旗下的多模态大模子M6的参数目,更是到达了万亿甚至10万亿的量级,数据量加速指数级攀升之下,其所需算力自然也需要指数级提升。
从供应侧来看,大模子参数目不停增大之下,参数运算需要大规模并行盘算的支持,而它取决于底层GPU内存容量。OpenAI预计人工智能科学研究要想取得突破,所需要消耗的盘算资源每3—4个月就要翻一倍,资金也需要通过指数级增进获得匹配。在算力方面,GPT-3.5在微软Azure AI超算基础设施(由GPU组成的高带宽集群)上举行训练,总算力消耗约3640PF-days。
在大数据方面,GPT-2用于训练的数据取自于Reddit上高赞的文章,数据集共有约800万篇文章,累计体积约40G;GPT-3模子的神经网络是在跨越45TB的文本上举行训练的,数据相当于整个维基百科英文版的160倍。就ChatGPT而言,需要TB级的运算训练库,甚至是P-Flops级的算力,需要7-8个投资规模30亿、算力500P的数据中央才气支持运行。总之,在大模子延续生长之下,ChatGPT的竞争焦点逐渐转到了AI超级算力上,或者是包罗GPU在内的算力资源支持上。
02 矿卡风口再次来临
在行业算力需求延续飙升之下,以英伟达等为主的焦点高性能芯片厂商,已经享受到了作为ChatGPT“卖铲人”的收益,再次迎来了曾经互联网大发作时期的那种矿卡风口。以英伟达的旗舰芯片H100为例,其在短短一周之内,涨价近7万元人民币,售价普遍高达30万左右,次旗舰A100芯片在短短三个月多时间里,从6万元一起涨至9万元,涨幅跨越50%。只管其产物不停涨价,但订单依然是求过于供。
一方面,是英伟达作为硬件霸主,不仅在消费级市场占有大部门市场,照样AI服务器芯片领域的头号选择,因此其成为许多“盼望”大算力企业的优先选择。据此前果然的数据显示,停止2022年第三季度,英伟达在自力显卡市场的份额或已经到达了88%,显卡部门带来的营收占到了其总营收的60%以上,这注释其依然是消费级显卡市场无可争辩的*。
基于其在图像处置器领域的强势职位和焦点手艺,其AI大算力芯片在大模子发作之后,始终处于“求过于供”的状态,稀奇是ChatGPT从外洋伸张到海内的历程中,越来越多的海内互联网企业选择追随,其中以BAT为首泛起了跨越10家企业宣布推出大模子的设计。根据ChatGPT的水准,至少需要3000枚A100芯片,以9万/枚的价钱来算就是2.7亿人民币才气完成一个大模子部署;10个大模子就需要3万枚A100芯片,27亿人民币,加上后续训练成本,这将会是一个天文数字。
露营退潮,「卖铲人」陷入焦虑?
另一方面,由于受到政策层面的影响,高端AI芯片“断供”的风险剧增,也可能会导致一部门大模子企业提前囤积芯片,导致相关的芯片用量激增。着实,早在去年8月,美国政府就公布出口管制政策,制止英伟达将A100、H100两款芯片售往中国。为了应对制裁而且不丢掉市场份额,英伟达先后推出了“阉割版”的A800、H800两款芯片。但这两款芯片依旧被暴增的市场需求一抢而空,市场价钱随之水涨船高。
在科技制裁之下,预计海内相关的想要结构AI大模子训练的公司,或许会加速囤积相关的芯片,从而带来新一轮的AI算力芯片争取战。
03 国产替换跑步前进,但仍有高墙难越
从现在来看,只管海内使用英伟达GPU服务器的占对照高,且在当前AI大模子生长势头之下,英伟达具有压倒性优势。但国产企业顶着压力,依然跑出了几匹黑马。凭证IDC最新公布的《中国加速盘算市场(2021年下半年)跟踪讲述》,2021年整年中国AI服务器市场规模达350.3亿元,同比增进68.6%。在企业级GPU芯片领域,中国厂商壁仞科技在2022年推出“BR100”芯片、天数智芯推出了“智铠100”芯片、寒武纪推出了“思元270”芯片。
其中壁仞科技称,BR100拥有全球最高算力,峰值算力到达了市场在售旗舰产物的三倍以上,16位浮点算力到达1000T以上、8位定点算力到达2000T以上,单芯片峰值算力到达PFLOPS级别。这些新闻,对于身处美国从装备、材推测手艺周全封锁之中的中国企业而言,应该算是一个可喜的新闻,但想要翻越英伟达这座高山显然也并不容易。
首先,在AI芯片设计上,国产厂商与外洋巨头的差距虽然缩小了,但在AI大生态上的差距却依然存在。好比,壁仞科技的芯片算力数据虽好,但缺少至关主要的处置FP64的能力,依然无法完全取代英伟达的H100、A100。而且,英伟达使用的CUDA平台早已成为应用最为普遍的AI开发生态系统,只支持英伟达的Tesla架构GPU,在现阶段基本无法用国产芯片取代,由于它涉及到AI芯片的软件生态建设、基础架构等,都还掌握在巨头手中,现在我们还没设施在硬件编程模子上找到替换方案。
其次,在地缘政策靠山下,海内现在还无法在AI芯片的全产业链实现自力自主,卡脖子领域仍然许多。已往几年,美国围绕中国芯片产业的“科技围堵”有增无减,从最先的限制质料、装备,到厥后的全产业链发动封杀,《芯片法案》的颁布正是其科技打压的集中出现。而在此靠山下,海内芯片产业替换所需要的EDA工具、代工制造和先进封装等方面的问题,将面临更为严重的现实磨练,想要在短期之内举行全产业链替换并不容易。
现在来看,无论是解决生态问题,照样解决产业链自主问题都需要时间,后者的实现尤其需要一番功夫。
04 AI芯片国产化替换破局点在哪儿?
不外从解决问题的角度来说,国产替换也绝非没有时机,至少从海内当前的信创产业基础和数据应用来看,海内市场更有可能行使前端市场的创新来逆向底层定制,从而走出一条自己的路。即即是在当下,也有一些暂时性的替换方案和思绪。
一是定向的国产扶持路径。对于国产厂商来说,若是它不通过定向相助的方式,很难通过“单打独斗”来做事情,由于外国企业都市有自己的软件架构,然后整个产业都适配这个架构,从而形成一个完整的生态,这种情形下“从零做起”完全是“艰苦不讨好”的事情。因此,要想推动国产厂商的崛起,就需要先通过与头部国产AI芯片制造商耐久绑定相助,推动自主企业软件架构的形成,然后以该架构为主线,逐渐确立起笼罩上下游的应用生态。
固然,这种路径也有时间周期。据中信证券研报显示,GPU IP自研需要36-48个月以及200个工程师,而接纳外购IP的方式,则需要12-18个月开发周期,总体上时间都不算短。
二是通过兼容CUDA生态做延伸。相比自研系统,兼容CUDA系统则可以迅速切入国际主流的商业盘算软件和人工智能软件,通过接入厚实的软硬件生态,可普遍应用于大数据,人工智能、商业盘算等应用领域。
对比两种方式来看,现在较为可行的方案照样第二种,但从久远来看照样做两手准备。这样才气够未雨绸缪,为未来的周全替换做铺垫。
————正大国际期货金融有限公司