通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  四级军士长

注册:2007-10-294
跳转到指定楼层
1#
发表于 2024-9-27 16:08:11 |只看该作者 |倒序浏览
在近日举办的2024年云栖大会上,阿里再次成为了焦点。

今年5月,阿里云宣布旗下通义千问的多款商业化及开源模型进行大幅降价,最高降价幅度高达97%;云栖大会上,通义千问三款主力模型再次大幅降价,最高降幅达85%。

自阿里在5月率先“开卷”之后,字节跳动旗下云服务火山引擎、百度智能云、腾讯云、科大讯飞等均官宣旗下大模型大幅下调价格,行业降价幅度达到了90%左右。

不仅国内大模型厂商跟进价格战,行业风向标 OpenAI 也在今年7月推出了GPT-4o mini ,商用价格较GPT-3.5 Turbo 便宜了60% 以上。

可以预见,在阿里再掀“价格战”之后,大模型价格还将继续下调,甚至可能走向“负毛利”。在互联网行业的发展史中,“亏本换规模”并不是某个企业的孤例,要改变整个行业的商业模式,必然需要投入更高的成本。

但在这个过程中,如何平衡价格、质量与服务也成为了大模型企业必须思考的问题,企业想要“活下来”,就不能只吃“低垂的果实”。

01 规模比利润更重要
国内大模型已从“以分计价”的定价模式走向“以厘计价”的新时代。今年5月,阿里通义千问大模型的API调用输出价格,从0.02元/千Tokens降至0.0005元/千Tokens。

在9月再次降价之后,阿里云Qwen-Turbo(128k)、Qwen-Plus(128k)、Qwen-Max 三款模型每千 tokens的最低调用价格再次刷新下限,分别降至0.0003元、0.0008元、0.02元。

所以,目前大模型行业的共识,就是规模比利润更重要,这一观点在互联网时代也是老生常谈,比如“千团大战”“网约车大战”“电商大战”等。大模型企业不能回避“价格战”,就只能将活过价格战作为初步目标,希望能成为淘汰赛结束后的最终受益者。

02 阿里着力“AI大基建”
阿里也深知这一道理,其在近日宣布大模型再次降价后,也提出了“AI大基建”的概念。阿里云副总裁张启表示,现在的AI相当于1996年前后的互联网,当时的上网资费很贵,这也限制了移动互联网的发展,只有把资费降下来,才有可能谈未来的应用爆发。

所以,阿里除了在2024年云栖大会上提出大模型再次降价之外,还发布了新一代的开源大模型,一口气上架了100 多个模型,涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,创造了大模型开源的“数量之最”。

阿里云CTO周靖人表示,阿里云坚定不移地推进开源战略,希望把选择留给开发者,让开发者会基于自己的业务场景去做模型能力增强和推理效率增强的权衡与选择,同时也能更有效服务企业。

根据阿里的统计,截至 2024 年 9 月中旬,通义千问开源模型下载量突破 4000 万,Qwen 系列衍生模型总数超过 5 万个,成为仅次于 Llama 的世界级模型群,而Llama正是大模型开源界的“头把交椅”,全球下载量接近3.5亿。

在“百模大战”结束之后,多位行业大佬均认为“卷模型不如卷应用”,大厂也开始聚焦“卷生态”。百度董事长李彦宏曾表示,“没有构建于基础模型之上的、丰富的AI原生应用生态,大模型就一文不值。”

目前,通过国家网信办备案的大模型已达190多个,注册用户超6亿,但仍难以解决大模型“最后一公里”问题,难点不仅是大模型应用太少,还有大模型不够“接地气”,比如在医疗、金融等专业领域中,单纯依靠“喂数据”训练,大模型还是很难直接落地应用。

大厂不可能躬身入局每一个细分行业来完成“最后一公里”,但可以通过打造完整的应用生态,由下游企业或其他开发者自行“炼成”符合需求的模型产品,不仅能进一步优化资源配置,也能在这个过程中积累更多高质量数据,最终反哺给基础大模型开发。

阿里选择降价、开源,本质就是希望降低大模型的使用门槛,通过更低的价格来验证大模型的应用价值,让更多企业和创作者参与进来。只有大模型能够真正满足企业的复杂业务场景需求,生态才能发展起来,行业才能进入新的阶段。

不过,“百模大战”最终可能只会留下3-5家大模型企业,目前来看,行业第一梯队已经呼之欲出,它们也可能会是大模型行业未来最基本的底座。

因此,头部的大模型企业更不可能主动放弃价格战,让出自己的市场份额。除此以外,不少独角兽也希望凭借价格战杀出一条“生路”,部分企业也认为小模型或更具性价比。

事实上,今年5月的大模型价格战并非始于阿里,而是一条名为“DeepSeek V2”的鲶鱼,在行业普遍推理价格还是百元/Tokens的背景下,其将支持32k上下文的模型API定价为1元/百万Tokens(计算)、2元/百万Tokens(推理)。

目前来看,大模型淘汰赛或还会持续2-3年,虽然最终留下的大模型企业并不会多,为了活下去,企业们也不得不使出浑身解数,但问题是,当“低垂的果实”都被摘完之后,当下大模型行业的解题思路早已不是“便宜就完事”。

03 模型能力仍是关键
不过,对于大模型“价格战”一事,行业也有不同的看法。零一万物创始人李开复曾表示,没有必要打疯狂的价格战,因为大模型不光要看价格,还要看技术,如果是技术不行,然后靠赔钱来做生意,(公司)不会对标这样的定价。

火山引擎总裁谭待在谈及价格战时也表示,当前主要关注的是应用覆盖,而不是收入,要有更强的模型能力才能解锁新场景,这才更有价值。

目前来看,“价格战”的本质还是因为产品能力不足,各家模型能力趋于同质化,暂时无法形成断档的差距,所以才希望通过价格战来增加大模型的普及,也能帮助厂商增加市场份额。

但等到市场摘完“低垂的果实”,新问题也会接踵而来,企业能否扛下下一阶段的价格战;大模型能否和对手拉开差距;自己会否成为最终能够留下来的企业,这些问题依然需要解决。

所以,大模型企业在打价格战的同时,也深知产品、技术、现金流的重要性,既要抗住降价压力,又要和对手拉开技术差距,持续提升模型性能和产品落地,才能形成良性的商业闭环。

一方面,大模型企业并非单纯依赖“价格战”。通常来说,大模型的推理包含时间、价格、生成 Token 数量三个变量,不能抛开单位时间内的并发数量,只看 tokens 价格。

因为在实际跑业务的过程中,推理事件越复杂,越有可能要增加并发量。但目前降价大模型普遍使用的是预置模型(不支持增加并发量),真正大规模、高性能、支持高并发的模型推理均未有大幅降价。

另一方面,通过技术来进一步优化大模型的推理成本。以百度为例,旗下的百舸异构计算平台对智算集群的设计、调度、容错等环节进行了专项优化,能够实现万卡集群上的模型有效训练时长占比超过98.8%,线性加速比、带宽有效性分别高达95%,帮助客户解决算力短缺和算力成本偏高等问题。

微软CEO萨蒂亚·纳德拉曾举例表示,过去一年 GPT-4 性能提升了6倍,但成本降低到了之前的1/12,性能/成本提升了70倍。不难看出,大模型技术的发展才是行业持续降价的底气。

最后,则是打造出更有差异化的产品。低价策略能够帮助大模型企业筑造生态,但随着AI领域的不断发展,创新速度的加快也使得技术更新换代周期缩短,是否能够持续提供有竞争力的产品,能否在实际应用中解决用户痛点,才是大模型企业的核心竞争力。

目前,大模型行业的商业逻辑,已经从卷模式、卷成本,迈入到卷生态、卷技术的新阶段。当然,低价还是快速建立生态壁垒的重要手段,但通过技术降低成本,才是推动大模型快进到“价值创造阶段”的关键要素。

接下来,大模型企业的新战场将会是“性价比”,要在当前的价格基础上,进一步提高大模型的质量和性能,让模型能力更强、更多元,这么做或许不一定能孵化出“超级应用”,但吸引更多中小企业、创业公司的加入,才有机会为大模型企业带来爆发式增长的机会。

举报本楼

本帖有 2 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-12-29 10:56 , Processed in 0.240012 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部