9月7日,在2023腾讯全球数字生态大会上,腾讯自研的通用大语言模型——“混元”正式面向产业亮相,并通过腾讯云对外开放。介绍显示,腾讯混元大模型拥有超千亿参数规模,预训练语料超2万亿tokens,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力。
在此之前的8月31日,文心一言正式向全社会全面开放,开放首日共计回复网友超3342万个问题。同一天,百度智能云向企业客户全面开放文心一言服务,企业客户可以通过百度智能云千帆大模型平台调用文心一言能力。据称,百度文心大模型已经迭代到到3.5版本,相较于3.0版本训练速度提升2倍,推理速度提升17倍,模型效果累计提升超过50%。
与其他大模型产品不同的是,上述两款大语言模型从训练到推理都依托于自身的云,服务也更多元化。
可以看出,面对增长低迷、竞争激烈的云计算市场,云厂商开始从AI大模型上寻找新机会,开发新生意。
云市场增速放缓 AI大模型成新增长机会
Canalys发布的研究报告显示,2023年第二季度,全球云基础设施服务支出增长16%,达到724亿美元。由于市场感受到成本压力的影响,增速与上一季度的19%相比有所下降。而上一季度全球云基础设施服务支出增长率首次降到20%以下。
此前云厂商们的高速增长,主要归功于大规模的企业数字化转型和上云。当前市场的增速放缓,除了上云普及带来的市场增量见顶,也与全球宏观经济的不确定性紧密相关,降本增效成为主流,企业倾向于保守的IT策略,支出明显下降。
在市场竞争激烈、价格战的当下,云厂商需要新的市场增长方向,ChatGPT带来的大模型爆发,可以说正得其时。面对这场“千模大战”,坐拥算力、算法、数据的云厂商不可能作壁上观,入场是必然。
大模型驱动 云厂商服务与需求迎改变
据专业媒体不完全统计,截止2023年8月,中国已发布的大模型超过130个,教育、医疗等各行业垂类大模型也在持续增长。
百模大战,云厂商要做什么?
从云厂商的行业客户来看,他们应用大模型主要有三种方式:其一,构建基础大模型产品,该方式需要极强的自身研发水平和人才数倍,并投入高额的训练成本,仅少数企业选择自建大模型;其二,以强大的基础大模型为前提,建立所在行业的大模型,结合行业数据不断迭代;其三,在基础大模型和行业大模型上开发AI应用,这是大多数企业的选择。
这些都蕴藏了云厂商的业务机会,因此阿里云推出“通义千问”,百度智能云发布“文心一言”与toB的大模型服务平台“千帆”,混元大模型由腾讯研发但由腾讯云运营。百度CTO王海峰认为,未来MaaS服务(Model as a Service模型即服务)将成为云计算的主流商业模式。
一方面,云厂商面向客户提供的服务面临变化;另一方面,云厂商内在资源和能力也面临新需求。
百度智能云事业群总裁沈抖表示,随着大模型时代到来,“AI加速芯片”GPU慢慢成为算力中心,算力增长速度远远超过CPU,云正在从CPU云时代向GPU时代切换。
大规模与性价比 云厂商的智算中心这样建
这种情况下,此前云厂商建设的云数据中心显然难以满足AI算力需求,大规模智算中心亟需建设。
业内人士表示“AI大模型的训练过程中,往往使用成千上万个GPU训练,整个服务器集群规模经常是10万以上”。对于云厂商来说,规模化、集约化建设的大型智算中心从长远来看更具性价比,能充分发挥在资源、能源、管理等方面的规模效益,降低部署和运维成本。
支撑文心一言的百度阳泉智算中心正是如此,其为目前亚洲最大的单体智算中心,算力规模达4EFLOPS(每秒400亿亿次浮点计算),整个建筑面积约12万平方米。智算中心一共包括13个模组,可承载约28万台服务器,采用CPU+GPU+XPU三种计算架构。
考虑到成本和大模型训练对时延较低的要求,云厂商在智算中心建设时,会偏向此前大规模云数据中心的建设选址,在具备气候优势、能源充沛、地价低、电价低的地区部署,中卫等“东数西算”西部节点集群是优秀选项。
以中卫为例:
在气候环境方面,中卫年平均气温8.8℃、平均风速3.3米/秒,适宜采用自然风冷技术用于智算中心散热,节能效果好;
在电力资源和电价方面,宁夏是西电东输的重要传输通道和电力能源供应点,风光水火互补,区域供电可靠程度高,用电成本较低;
在土地资源方面,中卫数据中心集群所在的土地大部分是是低丘缓坡未利用地,用地指标有保障,中卫市水和天然气价格也相对低廉。
田鑫,专业的企业组网服务商,致力于为企业提供企业组网(SD-WAN、MPLS、云互联),业务云化、数据中心、网络安全、行业IT解决方案等相关服务。
更多相关内容推荐: