AI和大模型的快速发展,让算力需求暴增。
据行业数据统计,到2030年,全球通用计算(FP32)总量将达到3.3ZFLOPS,这一数据对比2020年,总量增长近10倍。而AI计算(FP16)总量更是来到105ZFLOPS,是2020年的近500倍。
算力作为AI产业增长的底层基础,需求激增使其整体资源面临短缺。针对这一问题,大型互联网企业往往有更好的高性能GPU采购渠道和算力储备,而中小企业就无法独善其身。
要知道8卡英伟达A100-NVLink(80GB显存)的GPU服务器的月租金约为13.34万元,对应全年租金约为160万元。设备投入成本的高昂,让他们不得不将目光纷纷投向别处。
算力租赁,也许是诸多方案中更好的选择。
对于中小企业而言,算力租赁可以有效减少AI大模型的训练成本,降低AI更高领域的研究门槛。要知道目前的AI机器人并不是简单的执行代码,而是通过每一次算法模型迭代去完成深度学习。选择算力租赁支撑算力支持,至少能够让中小企业以较低成本探索AI领域。
并且业内认为,时间是大模型厂商极为稀缺的资源,率先完成AI领域相关技术开发,可以比竞争对手获得更多先发优势,实现资源配置的最优效率。加上服务器的等待、调试以及运维等,都要算在AI研发的成本当中,选择租赁似乎是一条不得不走的路。
既然算力租赁市场存在大量需求,当下选择进军算力租赁,是好生意吗?
首先要了解一点,算力租赁的本质并不是算力,而是租赁,核心资源在于资金、客户以及运维能力。资金方面,要想满足如此庞大的市场需求,组建庞大算力中心并且购买大量固定资产,这对于投资者的资金筹集能力有极高要求。
即使跨过资金问题,客户在选择服务商时,也会考虑主营业务的匹配度。很多跨界从事AI算力租赁的企业,看中的是这一业务的低门槛。然而站在客户角度,他们更愿意选择研发实力雄厚,且主营通信和网络的企业。
运维能力更不用说,目前中国大部分进军算力租赁的企业,并不能拿到稳定的GPU货源,更不谈组成服务器甚至集群了。这些企业一旦面临设备老化和更新换代,所谓的维护就只剩下空架子。甚至以玩笑话说,和英伟达的合作关系的好坏,才是AI领域掌握话语权的关键。
故而在多数情况下,算力租赁仍存有大量悬而未决的问题。算力短缺的根本原因是算力基础设施的匮乏,租赁本身并不能作为长久之计使用。很多国内企业很早就认识到了这一点,并投入大量人力物力研发芯片和服务器,目的就是想要从根本上排除算力短缺隐患。
从大型互联网企业潜心研发的态度,反观目前算力租赁的热度空前的现状,就知道这其中很可能含有概念炒作的成分。从供需角度看,算力供不应求,算力租赁厂商在此时拥有较强的议价能力。而一旦出现供过于求的情况,算力租赁概念将会整个沦为炒作的牺牲品,最终导致这些厂商失去议价权,成为头部资本的待宰羔羊。
综上,算力租赁数百亿美元潜力的市场,加上作为新蓝海的吸引力,在当下而言确实是AI高速发展时代下的当红产业。但极有可能,仅是当下。