近日,联想集团副总裁、ISG中国服务器事业部总经理陈振宽在参加2023世界人工智能大会期间表示,人工智能的竞赛才刚刚开始,目前企业基于搭建大模型的算力基础设施投入已经按照百亿元来计算。对于算力厂商来说,AI服务器的研发投入将是相比通用服务器的5倍。
自去年年底以来,ChatGPT成为全球现象级应用,国内外各大企业纷纷入局大模型,呈现百家争鸣的态势。“百模大战”背后是全球科技巨头对算力的争夺。
发展大模型需要巨大的算力成本投入,以构建GPT-3为例,一次模型训练总算力消耗约3640PF-days(即每秒一千万亿次计算,运行3640天),成本超过1200万美元,而这还不包括模型推理成本和后续升级所需的训练成本。公开资料显示,目前在追赶GPT3.5的中国团队约有10个,能够拥有或持续获取算力将是决定未来竞争格局的关键。
陈振宽表示,人工智能的比赛才刚刚开始。今天很多参赛企业实际上是在早期阶段做一些基础准备,他们在搭建大模型的算力基础设施的投入方面,已经是按照百亿人民币进行计算的水平。同时,要把大模型训练成功,还要持续投入。