聪明的东西
编译风衣
编辑
智动智讯 1月2日消息,近日,《福布斯》对2025年人工智能发展作出十大预测。
人工智能模型开发:
首先,定律将广泛应用于机器人和生物学领域(2);
其次,AI语音模型已通过图灵测试,可以模仿人类进行对话(6);
第三,AI实现自主迭代,自主开发新的AI,完成从想法、实验、论文、评论的全流程(7);
人工智能应用开发:
其次,AI网络代理应用将主宰世界,代表消费者完成在线交易(4);
第三,重要的人工智能研发机构将从开发基础模型转向开发应用,分享人工智能商业化的份额(8);
其他预测:
首先,特朗普和马斯克分道扬镳,这将对xAI和AI安全政策的发展产生影响(3);
其次,一批公司将尝试在太空建立人工智能数据中心,试图解决人工智能发展的能源约束(5);
第三,无人驾驶出租车将在美国至少五个主要城市占据两位数的网约车市场份额(9);
第四,人工智能的行为与人类意图不一致,人工智能安全事件引发对人机关系的重新思考(10)。

1. meta将开始对Llama车型收费
meta 是开源人工智能领域的全球领导者。从企业战略上看,meta提供的Llama模型是免费、开放的,而像、等尖端模型是闭源、付费的。相比之下,meta 的策略是一个非常有趣的案例研究。如果 meta 明年开始向使用 Llama 的公司收费,很多人都会感到惊讶。
需要明确的是,这并不是说 meta 会让 Llama 完全闭源,也不意味着每个使用 Llama 模型的人都要付费。相反,meta预计将进一步收紧Llama的开源许可条款,使得大规模使用Llama用于商业目的的公司将需要付费才能访问Llama模型。
从实际来看,meta现在已经在做类似的事情了,而且目前它还不允许一些非常大的公司自由使用Llama模型,比如云计算巨头等月活跃用户超过7亿的公司。
2023 年,meta 首席执行官马克·扎克伯格表示:“如果你是一家像微软、亚马逊或谷歌这样的公司,并且你基本上是在转售 Llama,那么我们认为 meta 应该从中获得一部分收入。在我看来,这在短期内不会带来大量收入,但从长远来看,这种方法有潜力成为 meta 的收入来源之一。”
明年,meta 将大幅扩大支付 Llama 费用的公司范围,包括更多大中型企业。
meta为何做出这样的战略转变?因为在激烈的竞争中,让大型语言模型保持在开发前沿的成本非常高。如果 meta 希望 Llama 能够与 等公司的最新尖端模型保持一致,每年需要投资数十亿美元。
尽管meta是全球规模最大、财力最雄厚的公司之一,但它也是一家上市公司,最终要对股东负责。随着开发AI模型的成本飙升,如果meta不从中获得收入,将很难继续承担如此巨额的费用来训练下一代Llama模型。
明年,爱好者、学者、个人开发者和初创公司仍然可以免费使用 Llama 模型。然而,2025 年将是 meta 真正开始通过 Llama 赚钱的一年。
2. 定律将进一步应用于大语言模型以外的领域,特别是机器人和生物学领域。
最近几周人工智能领域讨论最多的话题之一是法律以及该法律是否被打破。
定律最早是在2020年的一篇论文中提出的,基本概念非常简单:训练一个AI模型时,随着模型参数数量、训练数据量、计算量的增加,模型的性能(严格来说)说起来,测试损失(测试损失的减少)会以可靠且可预测的方式得到改善,是GPT-2到GPT-3再到GPT-4性能飞跃的根本原因。
与摩尔定律类似,定律并不是实际的自然定律,而仅仅是经验观察。过去一个月,一系列报告显示,各大AI研发机构在不断拓展大型语言模型的过程中,面临着收益递减的局面。这或许也可以解释为什么GPT-5的发布持续被推迟。
对法律回报扁平化最常见的反对意见是,将测试时间(指大型语言模型在生成响应时使用的计算资源)引入模型测试开辟了一个全新的维度。 。换句话说,与前一代模型完全依靠在预训练中扩大模型参数数量来提高性能相比,像o3这样的新型推理模型可以在推理过程中进行计算。推理计算的扩展可以让AI模型通过“Think long”来解锁新的能力。
这个解释非常重要。 “测试时计算”确实代表了一种扩展模型计算能力、提高AI性能的新方式,这是相当令人兴奋的。但关于法律的另一点更重要,并且在今天的讨论中被低估:几乎所有关于法律的讨论 - 从最初的 2020 年论文到今天的讨论都集中在测试时计算 - 都集中在语言模型方面,然而,语言并不是唯一的重要的数据模式。
想想机器人、生物学、世界模型或人工智能网络代理。对于这些数据模式,规律还没有饱和;相反,法律才刚刚开始发挥作用。然而,关于上述领域法律存在的严格证据尚未公布。
为这些新数据模式构建人工智能模型的初创公司,例如生物学、机器人学和世界模型领域的世界实验室,正在尝试识别和利用新领域的规律。使用定律的大型语言模型的开发处于前沿。预计2025年法律将在新领域大显身手。

不要相信外界所说的,法律永远不会消失。到 2025 年,它们仍然至关重要,但法律的使用将从大型语言模型的预训练转向其他模式。
3、特朗普和马斯克可能分道扬镳,AI领域将受到严重影响。
美国新政府团队将带来一系列人工智能政策和战略的变化。为了预测特朗普任期内AI领域的走向,大家都在关注唐纳德·特朗普和埃隆·马斯克之间的密切关系。毕竟,马斯克 Sk 在当今的人工智能世界中发挥着至关重要的作用。
可以想象,马斯克可能会通过多种方式影响特朗普政府的人工智能相关决策。考虑到马斯克与AI之间不相容的关系,新政府可能会在行业接触、制定AI监管政策、获得政府合同等方面采取不太友好的态度。我们目前确实非常担心这些问题。另一方面,特朗普政府可能会偏向支持马斯克的企业:例如,通过简化各种流程,帮助xAI建设数据中心,并在模型竞赛中取得领先地位;迅速批准特斯拉部署自动驾驶出租车等。
更根本的是,与其他与特朗普关系密切的科技大亨不同,马斯克非常重视人工智能对人类带来的安全威胁。这就是他主张对人工智能进行严格监管的原因:他支持加州颇具争议的 SB 1047 法案,该法案旨在对人工智能开发者施加严格限制。因此,马斯克的影响力可能会导致美国人工智能发展的监管环境更加严格。
然而这些猜测忽略了一个问题,那就是特朗普与马斯克之间的亲密关系势必破裂。
正如我们在特朗普政府第一任期内一次又一次看到的那样,即使是特朗普看似坚定的盟友,从杰夫·赛辛斯到里克,平均任期也异常短暂。对于雷克斯·蒂勒森、詹姆斯·马蒂斯、约翰·博尔顿、史蒂夫·班农来说,情况也是如此(当然)谁能忘记安东尼·斯卡拉穆在白宫短暂的10天任期呢?如今,特朗普第一任副手中几乎没有人对他保持忠诚。
特朗普和马斯克的性格都很复杂、多变且难以预测,这使得与他们共事变得困难和疲惫。他们新建立的联盟已被证明是互惠互利的,但这种关系仍处于蜜月阶段。据《福布斯》预测,这种关系在2025年之前就会陷入困境。
这对人工智能领域意味着什么?这对特斯拉股东来说是个好消息,对特斯拉股东来说则是坏消息。对于那些关心人工智能安全的人来说,这将是一个令人失望的消息,因为如果没有马斯克,特朗普政府几乎肯定会对人工智能监管采取不干涉的态度。
4、AI网页座席大放异彩,成为消费者又一主流应用
想象一个世界,您不需要直接上网来管理订阅、支付账单、预约医生、在亚马逊上购物、预订餐厅或完成任何繁琐的在线任务。相反,你只需要指示AI助手为你做这件事。你完成了。
“AI网络代理”的概念已经存在很多年了。如果类似的产品问世并发挥作用,毫无疑问它将取得巨大的成功。然而,目前市场上还没有一款功能齐全、通用的AI网页代理软件。
像Adept这样拥有数百万美元资金和经验丰富的创始团队的初创公司未能成功推出产品。 Adept的案例已经成为这个领域的一个教训。
明年将是AI网络代理真正成熟并进入主流市场的一年。大语言模型和视觉基础模型的不断进步,加上新的推理模型和推理时间计算带来的“系统2思维(2)”能力(来自卡尼曼双系统思维模型,系统2通过逻辑回答问题)推理、相对于系统1(利用直觉做出决策)的突破表明AI网络代理即将迎来发展的黄金时期。
AI网络代理会发现多种有价值的企业应用场景,但短期内最大的市场机会将在消费领域。尽管最近人工智能热潮不断,但只有相对较少的人工智能原生应用能够取得突破并成为消费者的主流应用。 AI网络代理将改变这一现状,成为消费者的下一个AI应用。
5、认真尝试在太空建设人工智能数据中心
2023年,AI发展的资源瓶颈将是GPU芯片; 2024年,资源瓶颈将成为电力和数据中心。

2024年,人工智能对能源的巨大需求成为全球关注的焦点,尤其是在人工智能数据中心的热潮中。全球数据中心电力需求在过去几十年中保持平稳,但由于人工智能的兴起,预计在 2023 年至 2026 年间将翻一番。到 2030 年,美国数据中心消耗的电力将接近总电力的 10%,高于 2022 年的 3%。

▲AI数据中心导致能源需求猛增(来源:)
当前的能源体系显然无法应对人工智能发展带来的需求激增。能源网格和计算基础设施是两个价值数万亿美元的系统,即将发生历史性的冲突。
作为本世纪问题的可能解决方案,核能今年受到越来越多的关注。从很多方面来说,核能都是人工智能的理想能源:零碳、容易获得且几乎取之不尽用之不竭。但从现实角度看,可能要到20世纪30年代才能通过新核能解决能源问题。由于核能发展需要长期的研究、开发和监管周期,这个周期适用于传统核裂变电站、下一代“模块化小型反应堆”(SMR),当然也适用于核聚变电站。
明年,一个大胆的想法将出现,以应对能源挑战并利用有效资源:在太空建立人工智能数据中心。乍一看,这个想法就像一个笑话。但事实上,它有其可行性:在地球上批量铺设数据中心的最大瓶颈是获得电力;在太空中,太阳永远高高挂起,轨道上的计算集群可以享受全天候、免费、无限、零小时的电力。碳动力。
当然,还有很多实际问题需要解决。一个明显的问题是,能否找到一种低成本、高效的方式在轨道和地球之间传输大量数据?这仍然是一个悬而未决的问题,但通过对激光器和其他高带宽光通信技术的研究,我们可能会找到答案。
为了实现这一愿景,Y 孵化的初创公司 Lumen Orbit 最近筹集了 1100 万美元,用于在太空建设超高功率数据中心网络,用于训练 AI 模型。
Lumen首席执行官 表示:“与其支付1.4亿美元的电费,不如支付1000万美元用于传输数据和使用太阳能。”
Lumen 不会是 2025 年唯一一家认真考虑这一想法的公司,其他初创公司也会出现。看到云计算巨头推出类似的探索性项目,不要感到惊讶。通过这一点,亚马逊积累了丰富的将货物送入轨道的经验;谷歌也有资助类似“登月项目”的悠久历史。就连微软也对太空经济并不陌生。埃隆·马斯克也可能参与其中。
6.语音AI模型将通过图灵测试
图灵测试是衡量人工智能性能最古老、最著名的标准之一。为了“通过”图灵测试,人工智能系统必须能够通过书面文本进行交流,这样普通人就无法分辨它是在与人工智能交互还是与人类交互。
得益于近年来的快速发展,大型语言模型已经能够通过图灵测试,但书面文本并不是人类交流的唯一方式。随着人工智能变得多模态,我们可以想象一个新的、更具挑战性的图灵测试版本——“语音图灵测试”——其中人工智能系统必须能够通过语音与人类进行交流。交互,展现出人类无法区分人类和机器的技能和流畅度。
目前,通过语音图灵测试仍然是AI无法达到的目标,而且还有很大差距。例如,人类语音和AI响应之间必须几乎零延迟,这样才能媲美与人类交谈的体验;例如,当一个交流句子中途中断时,语音AI系统必须能够实时处理模糊输入或对话,并优雅地处理误解;人工智能模型必须能够进行长时间、多回合、开放式的对话,同时能够记住讨论的早期部分。更重要的是,语音AI必须学会更好地理解语音中的非语言信号:例如,当人类语音听起来愤怒、兴奋或讽刺时,这些信号意味着什么,并且AI可以在自己的语音中生成这些非语言信号。
2024年即将结束,语音AI正处于一个激动人心的转折点,模型等方面取得根本性突破,推动语音模型的进步。如今,语音AI在技术和商业领域都在快速发展。到2025年,语音AI技术预计将取得巨大进步。
7、AI自我完善体系取得重大进展
能够不断实现自我完善的AI模型是AI圈子里一个由来已久的话题,并且已经持续了几十年。

例如,早在 1965 年,阿兰·图灵的亲密合作者 IJ Good 就写道:“超级智能机器必须被定义为远远超过所有人类智能的机器,无论它有多智能。因为机器设计也是一种智力活动,所以超级智能机器智能机器可以设计出更好的智能机器,那么,毫无疑问会出现‘智能爆炸’,人类智能将被远远抛在后面。”
AI发展出更好的AI本身,这是智能发展中非常有吸引力的概念。但即使在今天,它仍然带有一丝科幻色彩。
然而,虽然尚未得到广泛认可,但这个概念已经越来越接近了。人工智能科学前沿的研究人员已经开始在构建自我进化的人工智能系统方面取得实质性进展。明年,这一研究领域有望进入主流。
迄今为止最著名的公开研究例子是今年8月发布的AI,它令人信服地证明了AI系统确实能够完全自主地进行AI研究。
这项研究让人工智能执行人工智能研究的整个周期:阅读现有文献、产生新的研究想法、设计实验来验证想法、进行实验、撰写报告研究结果的研究论文,然后进行同行评审。 AI完全自主完成所有任务,无需任何人工输入。
虽然目前还没有公开消息,但有传言称,AI、AI等研发机构正在投入资源研究“自动化AI研究人员”的概念。 2025 年,随着越来越多的人意识到自动化人工智能研究实际上是可能的,这一领域将会有更多的讨论、进展和初创企业。
如果一篇完全由AI撰写的研究论文被顶级AI会议接受,这将是自动化AI研究最重要的里程碑(由于论文是盲目审稿的,会议审稿人直到论文发表后才知道它是由AI撰写的)已写入)。如果您看到 AI 自主生成的结果被 、CVPR 或 ICML 等会议接受,请不要感到太惊讶。对于人工智能领域来说,这将是一个引人注目的、有争议的历史性时刻。
8.等人工智能研发机构将调整战略重点,转向开发人工智能应用。
开发人工智能模型是一项非常困难的事情。 AI研发机构烧钱如流水,需要前所未有的资金集中度。它最近筹集了创纪录的 66 亿美元资金,并且可能很快需要更多资金。 、xAI等公司也处于类似的境地。
由于切换AI模型的成本并不高,客户对AI模型的忠诚度也较低,AI应用开发者可以根据成本和性能的变化,轻松地在不同的AI模型之间进行切换。因此,人们普遍认为,开发AI模型和开发AI应用这两项业务之间并没有太大的联系。
然而,随着meta的Llama和阿里云统一等开源模型的出现,AI模型商业化的威胁变得越来越紧迫。人工智能领导者喜欢、不会、也不会停止对人工智能模型的投资。到2025年,为了发展更高利润、更具差异化、更具粘性的业务,这些人工智能研发机构预计将大力推出更多自己的应用和产品。
当然,这已经是一个成功的范例,实现了开发AI前沿模型和开发自己的应用的紧密结合。
新的一年我们可能会看到哪些其他类型的第一方应用程序?更加复杂、功能丰富的搜索应用必然是其中的重要组成部分,该计划是未来发展趋势的信号。 AI编程也会是一个重要的品类,这个方向已经开始了初步的产品化,比如10月份推出的。
2025年会推出企业级AI搜索应用吗?还是客服AI应用、法律AI应用、销售AI应用?在C端,应该推出“私人助理”AI网络代理应用、旅行规划应用或音乐生成应用。
当人工智能研发机构转向自己的应用开发时,最担心的是他们将直接与许多重要客户竞争:搜索领域、编程领域、客户服务领域、法律领域、销售领域等。
9、至少在美国五个主要城市,无人驾驶出租车将占据网约车市场两位数的市场份额
自动驾驶汽车经历了多年的炒作,但兑现的步伐却很缓慢。近十年来,这项技术似乎触手可及,但尚未进入主流市场。
这种情况在 2024 年发生了巨大的变化。Waymo 的自动驾驶汽车现在在旧金山的街道上随处可见,每天都有成千上万的居民乘坐 Waymo 出行,就像以前乘坐出租车或 Uber 一样。

自 2023 年 8 月推出服务以来,Waymo 已占据旧金山打车市场 22% 的份额,与 Lyft 的市场份额相同(Uber 的市场份额为 55%)。
22% 的市场份额,这可能会让最近没有去过旧金山的人感到惊讶。眨眼间,自动驾驶出租车已经从一个研究项目变成了一个大规模的商业模式。
自动驾驶出租车业务很快将超越旧金山湾区,成为美国多个城市交通系统不可或缺的一部分,速度比大多数人预期的要快。到明年年底,像 Waymo 这样的自动驾驶出租车服务将在至少五个主要市场赢得两位数的市场份额。
哪些地方最有可能成为继旧金山之后的下一个城市?
Waymo 的自动驾驶出租车已经在洛杉矶和凤凰城运营,预计明年市场份额将大幅增长。奥斯汀、亚特兰大和迈阿密很快将成为 Waymo 的下一个目标市场。与此同时,Waymo 的竞争对手 Zoox 也准备在拉斯维加斯推出自动驾驶出租车服务。
经过多年的炒作,自动驾驶汽车最终将于 2025 年进入主流市场。
10. 首例真正的人工智能安全事件将于2025年发生
近年来,随着人工智能变得越来越强大,人们对人工智能独立于人类意志行事的担忧越来越多。人们感受到失去人工智能控制的威胁:例如,人工智能学会欺骗或操纵人类以实现自己的目标。 ,而这些目标可能会对人类造成伤害。
这类问题通常被归类为“人工智能安全”问题。 (人工智能还带来了许多其他社会问题,促进隐私监视并加剧各种偏见,但这些问题与人工智能安全问题不同,后者更关注人工智能系统可能开始以与人类意图不符的方式行事,甚至最终可能对人类构成生存威胁)。
近年来,人工智能安全已经从一个边缘的、有点科幻小说的话题转变为一个主流话题。如今,从谷歌到微软,各大人工智能开发商都在人工智能安全工作上投入了真正的资源。杰弗里和埃隆·马斯克等AI领域巨头已经开始直言不讳地谈论AI安全风险。
然而,到目前为止,人工智能安全问题仍然完全是理论上的。现实世界中从未发生过真正的人工智能安全事件(至少没有公开报道过)。
2025 年可能是这种变化的一年。
我们该如何判断这次人工智能安全事件的内容?需要明确的是,这不会涉及“终结者”式的杀手机器人,事故也很可能不会对任何人类造成任何伤害。
也许一个AI模型会试图秘密地将自己复制到另一台服务器上以保护自己,这被称为自我渗透(self-);也许人工智能模型会得出这样的结论:为了更好地推进自己的目标,它需要隐藏自己的能力并故意降低性能估计,以避免更严格的审查。
这些例子并非危言耸听。最近发布的重要实验证明,在某些提示下,当前的人工智能模型确实可以表现出欺骗性的行为。同样,最近的研究表明,大型语言模型具有令人担忧的“伪造”对齐能力。
当然,第一起人工智能安全事件大概率会在对人类造成真正伤害之前被发现并消除,但对于人工智能圈和整个社会来说,这将是一个震耳欲聋的时刻。
人工智能事故的发生将清楚地表明,即使人类远未面临全能人工智能的生存威胁,也需要尽快达成共识:我们将与像人类一样的非人类智能共享世界,意志任性,善于欺骗,同样不可预测。


