AI推理加速演进:云计算的变迁抉择
21世纪经济报道记者骆轶琪 广州报道
开源大模型的高效迭代,让AI发展趋势正加速从AI训练转向AI推理,同时有更多小模型应用落地需求出现,这些趋势正对云计算市场产生深远影响。
近日,Akamai副总裁暨大中华区总经理李昇在接受21世纪经济报道等媒体采访时表示,咨询机构IDC指出,未来AI推理的市场规模预计将达训练需求的十倍以上。目前有越来越多企业意识到,针对垂直应用场景的小模型部署,是未来潜力更大的需求所在,这就需要云计算企业有分布式、低延时、灵活部署的基础架构。
“Akamai看到一些共性,就是未来在‘云’的生态中,通过对去中心化、基于边缘的能力加强来解决用户在业务方面的各种痛点是大趋势。”他进一步分析道,“因此边缘端原生应用未来会有更高成长率和更大潜力。目前可移植的混合云、多云策略已经被绝大多数企业客户所接受,他们正在探讨如何执行多云战略,从而更符合公司的业务发展特性。”
推理需求激增
今年初DeepSeek的出现,显然正在推动AI推理市场快速发展,但此前不少企业着力于发展AI训练,如何更好应对当下趋势正备受关注。
Akamai亚太区云计算专家团队负责人李文涛告诉21世纪经济报道记者,在与客户探讨AI趋势过程中,不少公司CTO反馈,“前几年花了很多时间在练好内功,把模型训练好、调整好,但在推理方面着实有些准备不足。”
“因为与训练数据中心不同,推理过程需要考虑更多细节点。”他进一步分析道,例如在推理效率方面,如何把服务变成可赢利的商业服务,此外还有推理可扩展性、合规性等。“真正把AI变成运营级服务,需要有更多考虑。除了算力本身,还包括数据管理,简化、容器化的边缘运维、边缘计算等能力。”
李昇也指出,行业投资重心会越来越多转向推理,而不仅是训练。“推理效率主要是根据推理模型的吞吐量、时延和成本去做综合评估。举例来说,Akamai的AI推理服务帮助企业提供了3倍推理吞吐能力,降低了60%的推理时延。”
“大语言模型的特点是规模庞大,但对硬件要求很高。但我们发现不一定所有问题都需要大模型解决,我们有几乎八九成的用户都在用小模型解决具体问题;反而对大模型,整个业务还处在探索阶段。”他进一步举例道,有亚太区客户主要做智能客服语音应答和聊天机器人,其多语言交谈功能背后的翻译工作,就是采用专属小模型来完成。
因此他指出,在实际生产环境中,小模型的采用度或商业化程度更高。对于时延、用户体验非常敏感的领域,小模型反而更适合部署在边缘来提供服务。“Akamai观察到,边缘原生应用已成为云计算的重要增长点。我们的分布式架构覆盖全球130多个国家、超4200多个边缘节点,可提供低至10毫秒的端到端时延。”
加速应用落地
今年被业界视为AI推理加速落地之年,随着大模型应用进入深水区,企业对推理效率、成本及安全性的要求持续攀升。
李文涛指出,边缘推理可以在更靠近终端用户的地方运行AI应用程序和数据密集型的工作负载,原因在于,推理越靠近用户、越靠近数据源,用户体验越好、效率越高;此外,部分客户有“数据主权”问题,希望数据不要离开本地,对隐私保护也有更好效果;以及在公有云和互联网上数据传输成本很高。
整体来看,李文涛分析,对于越来越受欢迎的“慢思考”模型,这类AI推理对云计算成本提出的压力更大、资源使用更多,也会迫使企业考虑,如何更多地优化服务、提高成本效率。
“我们希望客户选择合适的Workload(工作负载)部署在最合适的‘云’上。‘慢思考’和‘快思考’可能适合部署在不同的云的环境里。我认为未来推理也是边缘和核心推理、慢思考和快思考推理、大模型推理和小模型推理结合的形式演进。”他续称。
在应用方面,Akamai团队看到越来越多中国企业在出海过程中嵌入AI推理能力。例如商旅行业,借助AI技术为客户制作非定制化行程建议。