云战场从来都不缺少故事,时代周刊与时代财经将联合推出系列文章,详尽讲述云厂商降价、出海、挣扎、发展的商业故事,力图描绘出AI时代最绚丽的云。
2024年已经过去一半,云计算之战仍在继续。
随着近期厂商纷纷撤离中国大陆,各大厂商纷纷推出优惠“迁址”计划,试图“吸纳”这些“弃坑”的开发者。行业洗牌之下,谁能提供更优质的服务,谁就更有可能在新一轮的竞争中脱颖而出。
在服务终止之前,国内云厂商已开始积极布局。6月27日,市场研究机构发布数据显示,今年第一季度,中国大陆云基础设施服务支出同比增长20%,至92亿美元。其中,阿里云略胜一筹,以37%的市场份额占据国内市场第一。
图片来源:官方微信
对于阿里云来说,2024年是修正与重启的一年。去年11月,阿里巴巴(09988.HK)集团CEO、阿里云智能集团董事长兼首席执行官吴永明为阿里云定下了基调,提出“AI驱动,公有云先行”。
随后,阿里云启动了开源、降价、应用落地三大战略。
2024年6月,Qwen2宣布开源,根据最新开源机型榜单,Qwen-2机型性能位居全球各大开源机型之首。降价方面,云计算行业几乎每一次集体降价,阿里云都身影出现在了其中。应用落地方面,半年时间,阿里云已陆续官宣与小米、长安汽车、vivo、联发科等厂商深度合作。
开源、降价,看似阿里云为市场送了“免费午餐”,但阿里云其实赚得盆满钵满。据阿里巴巴5月发布的新一季财报显示,阿里云营收255.95亿元,核心公有云产品收入实现两位数增长,AI相关收入实现三位数增长,调整后EBITA利润增长45%。
那么阿里云是怎么赚钱的?开源、降价、应用落地三根轴线之间,是否存在商业闭环?
开源
也赚钱吗?
宣称“打造AI时代最开放的云”或许是阿里云与其他各大云厂商云战略最大的不同。
“阿里云是全球唯一一家既持续开发(大)模型,又开源大量(大)模型的公司。”阿里云CTO周靖人在今年5月的阿里云AI智慧领袖峰会北京站上如此表示。
阿里云开源战略由来已久。2023年6月,阿里云在操作系统、云原生、数据库、大数据四大开源领域公布1+4开源战略;同年8月,阿里云成为中国第一家宣布自研模型开源的科技公司,推出统一千文第一代开源模型Qwen;2024年2月,1.5代开源模型Qwen1.5发布;四个月后,Qwen2开源。
在全球权威开源模型榜单中,阿里统一千文Qwen2-72B模型位居第一,超越了meta的Llama-3,且前十个模型中有3个来自Qwen。
来源:受访者提供
短短一年时间,统一开源了数十个不同规模的模型,包括大型语言模型、多模态模型、混合专家模型、大型代码模型等。截至目前,Qwen系列模型下载量已超过1600万,衍生模型及应用超过1500个。阿里云官网表示:“我们还在训练更大的模型,持续探索模型与数据的规律。此外,我们会将Qwen2拓展为融合视觉理解和语音理解的多模态模型。在不久的将来,我们还将持续开源新的模型。”
阿里云对开源的押注远不止开源大模型。阿里云还牵头建设了中国首个AI开源社区MoDa。据官方数据显示,MoDa社区成立仅一年时间,上线模型数量已超过2300个,注册开发者超过280万人,模型下载量超过1亿次。
阿里云为什么要花这么大力气做开源?
事实上,在当下的“百模大战”中,开源并非主流路线,在国内,大部分大型模型厂商采取的是闭源策略,比如百度的文心易言、字节跳动的豆宝、腾讯的混元等。
今年4月,百度董事长兼CEO李彦宏在内部讲话中表示,闭源模型会持续能力领先,不会只是暂时领先。大模型开源意义不大,只有闭源模型才是可行的商业模式。闭源模型才能赚钱,赚钱才能聚集算力和人才。
不过从周靖人此前的公开表态来看,阿里云似乎对生态建设更感兴趣,而非商业化。周靖人认为,开源与闭源都是将模型快速应用到各种场景的手段。开源模型可以让开发者无忧选择、定制模型;闭源模型则基于公有云API提供服务,公有云的规模效应可以让用户以低成本获得大模型的能力。
联合创始人兼CTO王炜对时代周报记者表示,选择开源还是完全闭源,与各个公司技术路径、商业模式的演进有关。
而对于阿里云,王炜观察到,统一千文大模型早期版本的技术路线与后来业界认可度更高的版本存在一定的调整,通过吸收、融合开源社区的技术路线,阿里云的千文模型能力得到了大幅提升,这也帮助其在全球大模型技术竞争中占据了相对优势地位。
“相当于阿里云的模式迭代,受益于开源之后,他们也跟随开源社区的做法,做出了优秀的开源QWen系列。”在王炜看来,目前月之暗面、百度等国内厂商的策略与微软的模式类似,而阿里云则更接近meta的模式。
“正如meta通过Llama系列构建生态影响力一样,从阿里云大模型的良好口碑和实际实施案例来看,Qwen系列能够保持较高的增速,说明其开源策略是符合技术发展规律的。”王炜说。
增加收入
新的
逻辑
阿里云开源业务只是炒作而已没钱吗?
不必要。
据《时代周刊》记者了解,用户使用阿里云开源模型主要有两种方式,一是用户直接免费下载开源模型,并自行购买硬件来提供运行模型的算力;也可以将下载的模型“放置”到任意云厂商平台上,通过虚拟服务器来运行。
上述人士介绍,在第二种形态下,阿里云建设了白链平台和灵机()平台,为用户提供模型训练和推理所需的计算服务。这些平台不仅支持阿里云的统驭系列,还集成了Llama等系列开源大模型,用户可以通过API接口直接在阿里云公有云上调用这些模型。在这个过程中会消耗代币,用户需要为此付费。
随着近期各大云厂商的降价,现在通过公有云调用大型模型所需的算力,已经远低于购买硬件、在本地部署算力的成本。“处理几百万个Token的成本可能只要一两块钱。”上述人士说。
这个模式其实和王炜开创的模式类似,他提到,云资源供应商可以发挥自己在推理层面的技术优势,实现更高性能的推理优化,为用户提供更具性价比的选择,从而赚取中间的价值差额。
在这个商业逻辑里,阿里巴巴的本质就是卖云,用户使用开源的模式和资源越多,对阿里云计算力的需求就越大。
同时上述人士提到,从公司内部可以看到的一个趋势是,很多客户最初都是通过开源模式了解阿里云的闭源模式的。
据上述阿里云业务经理介绍,当这些潜在用户通过免费下载了解到阿里云的开源模式,并发现以自己的算力难以维持成本时,他们可能会选择直接切换到阿里云更强大的商业版本模式,或者以API调用的方式使用开源模式。这使得阿里云开源模式的商业逻辑成为可能。
图片来源:
但该商业路径的实现也对开源模式本身、算力平台等提出了很高的要求。
AI 公司付之流()创始人兼 CEO 白爽担心的是,这样的开源模型是否有足够多的用户使用。因为从商业角度来看,对开源大模型有迫切需求的,一般都是数据敏感型企业,这样的企业肯定会通过私有部署开源模型的方式,将 AI 用于人工智能。
“但算力成本非常昂贵,我们算过私有化Llama的算力成本是每小时20到30美元,相当于一个月十几万元,一年一百多万元。这只是推论,还不包括微调等操作。这就意味着企业必须有足够的预算才能承担得起开源模式的私有化部署。而且开源模式的效果和闭源模式还是有些差别的。”白爽说。
因此她认为,用户若选择开源模型,更倾向于综合考虑效果与算力消耗的性价比是否足够高;若选择闭源大模型,则优先指标是其效果是否能满足商业场景,价格则是其次考虑。
“阿里云同时做开源和闭源,或许是赌上了一个未来——算力足够便宜、用户基数足够大。但有一个大前提,就是客户使用的开源模式必须与阿里云强相关,也就是使用开源模式的用户必然会使用阿里云的算力。”白爽补充道,开源商业化链条要运转起来,必须满足“好的开源模式”、“不怎么消耗算力”、“背后有好的云厂商”三个条件。另外,开源模式不太可能绑定到某个云厂商,各个云厂商都在自己的托管平台上积极引入开源模式。
阿里云近年来的降价也与其商业策略相呼应。阿里云最近一次降价是在5月21日。在同易千文商用型号中,Qwen-Long输入端价格下降0.0005元/千,最高降价幅度达97%,输出端价格下降0.002元/千,降幅达90%。Qwen-Turbo、Qwen-Plus、Qwen-Max等主力型号输入端价格均下降67%-75%,输出端价格最高降幅达40%。
开源型号方面,Qwen1.5-72B、Qwen1.5-14B等投入价格均下降超过75%,部分型号还可享受7天限时免费使用。
图片来源:阿里云公众号
在日前宣布终止对中国区的API服务后,阿里云百联随即宣布将为API用户提供替代解决方案,并为中国开发者提供2200万次免费专属迁移服务。
不难看出,开源与降价是阿里云抢占用户群的组合拳,但阿里云成功了吗?
下一步
移动
?
“AI驱动、公有云先行”是吴永明为阿里云的发展定下的基调。
数据显示,阿里云一季度以37%的市场份额位居国内市场第一。分析显示,阿里云本季度加大对公有云的关注,减少私有云集成项目,此举旨在限制定制化项目,将重点放在更具可扩展性的机会上。
与此同时,阿里云也在努力扩大下游应用的朋友圈。据不完全统计,上半年阿里云已正式宣布与20多家较为领先的应用厂商或机构合作,涉及领域包括软件应用、汽车、芯片、交通、光伏、矿业等。
他告诉时代周刊记者,今年以来,随着阿里云模型能力的增强,以及公有云降价等策略的实施,在一线可以观察到很多客户将应用迁移到阿里云大模型生态中。
其中,大模型在智能终端上的应用,是阿里云着力抢占的“下一张AI船票”。
6月6日的阿里云深圳AI峰会上,阿里云展示了vivo在阿里云上训练的自研蓝心大模型、小鹏汽车在智能座舱场景新增接入阿里云统一钱包、北科睿声在智能手表、鼠标等终端解决方案接入统一钱包等。据阿里云介绍,目前多家主流手机、PC、汽车厂商都在与阿里云在大模型领域展开深度合作。
来源:受访者提供
据上述人士透露,目前阿里云大模型与终端厂商的合作形式既包括终端侧本地部署,也包括云端调用。“经过与厂商沟通,我们认为云端协作是他们现在比较认可的方式,这涉及到响应速度、数据安全等因素。不过我个人认为,未来在公有云上调用模型的优势可能会更加明显。”
该人士表示,过去模型参数较少时,在云端调用模型可能会比客户端有延迟,但当模型参数较大时,客户端快、云端慢的说法可能已经过时,云端调度可能更快。至于数据安全问题,云计算已经发展到移动互联网时代,其云安全性已经得到验证。
不过今年不少厂商也考虑到安全等方面,积极在端侧布局大模型。对此,阿里云也开始做好两手准备,除了和下游厂商“交朋友”,阿里云也在积极和上游厂商合作。
今年3月,联发科()与阿里云达成深度合作,双方在天玑9300移动平台上完成了通灵千文大模型小屏版的终端部署,本次部署可适配天玑8300移动平台,并可在离线状态下实现即时精准的多轮人机对话问答。
联发科相关负责人向时代周刊记者表示,未来双方还将为应用开发者、终端设备厂商打造生成式AI软硬件生态,并基于联发科天玑移动平台适配更多参数版本的统摄大模型。
“我们也给一些厂商提供了终端部署的方法,比如把大型机型‘瘦身’,让其能在终端设备上流畅运行。”上述人士说。
所以不管是开源还是降价,发源于互联网的阿里云深谙“引流”之术,最终下手的依然是生态系统。
虽然周敬人认为,在大规模模型技术发展的早期阶段,应该以生态建设为重心,而不是一开始就过度注重商业化。但生态成功了,商业也就成功了。毕竟在2024财年业绩报告中,阿里巴巴已经写好了脚注:我们预计公有云和AI相关产品的收入将强劲增长,以抵消项目型合同收入下滑的影响。


