中国科技公司发布自研AI模型,与OpenAI竞争激烈

   日期:2024-12-04     来源:网络整理    作者:二手钢材网    浏览:228    评论:0    
核心提示:R1、阿里巴巴的Marco-1以及香港中文大学与商汤科技的联合实验室MMLab的OpenMMLab混合模型。Witteveen:中国的DeepSeek(深度求索)公司基本上放弃了他们名为R1的AI模型。

过去一段时间,中国科技公司陆续发布了三个自主研发的AI模型,分别是深度搜索(Deep )的R1、阿里巴巴的Marco-1,以及香港中文大学与中大联合实验室MMLab的混合模型。商汤科技。这些新的AI模型在性能和可访问性上与推理模型o1-的预览版相当,也比预期更早地反映出开源创新对其他大型AI模型巨头的影响。

今年9月中旬,o1-发布时,也为AI模型执行复杂推理任务树立了新标杆。该公司预计最快将于下周发布其O1系列车型的满血版本,但现在看来,证明O1系列车型仍然遥遥领先的压力越来越大。目前,该公司估值1570亿美元,并誓言要实现AGI(通用人工智能),这对其领导层造成了不小的压力。

AI模型性能乃至整个AI产业都走上了高速创新的快车道。去年,GPT-4 比 GPT-2 早五个月推出。然而,今年o1-仅比同行早了两个半月发布,时间优势明显缩小。

这一开源举措也证实了该领域的其他参与者,例如 Open Lab AI2 的 OLMo 2 模型和 Nous Forge 模型,也可以通过与闭源不同的路径扩展先进 AI 技术的可及性。

11月28日,美国知名科技媒体创始人兼CEO马特·马歇尔重点介绍了上述三个中国自主研发的AI模型的开源程度、AI2的OLMo 2模型的特点以及该模型的应对措施。可能会在接下来的几周内进行。 Matt)与谷歌机器学习开发专家山姆·维特维奇(Sam )进行了交谈,两人分享了他们的分析和判断。

对着3个中国AI大模型,两个美国科技界大佬深聊了半小时__对着3个中国AI大模型,两个美国科技界大佬深聊了半小时

以下为部分采访内容整理(为了提高可读性,智喜喜在不违背原意的情况下进行了一定的增删改查):

1.中国快速发展的开源模式对o1-提出挑战

Matt:中国开源模式的崛起正在挑战o1-的地位。你怎么认为?

Sam:这家中国公司基本上放弃了他们名为 R1 的人工智能模型。这是该公司正在尝试推出的AI推理模型。我尝试过这个型号,印象深刻,它接近已经推出的 O1- 和 O1-mini。 o1的完整模型尚未发布。

从那时起,我们看到中国其他人工智能模型开发商推出了类似的模型。所以我认为真正重要的不仅仅是模型本身,它们非常好,但真正有趣的是他们将开源模型权重,或者公开发布模型权重。希望在接下来的一两周内,我们能够看到模型权重并开始使用它。

同时,我认为这里还有一个有趣的现象,那就是开源模式正在追赶专有技术模式。在我看来,这也是今年9月发布o1-的原因。目前只有o1-mini和o1-,我们都在等待完整版的o1型号。有消息称,O1全健康版车型将于今年感恩节后(11月28日)发布。

对着3个中国AI大模型,两个美国科技界大佬深聊了半小时_对着3个中国AI大模型,两个美国科技界大佬深聊了半小时_

那么,满血版的o1是否会显着推动行业的发展,还是中国的一些科技公司已经复制了现阶段这些专有技术公司实际使用的模式?我认为这是AI领域非常重要的发展,让我们拭目以待。

Matt:这是一家来自中国的量化对冲基金公司,已经存在了一段时间,但由于该公司在人工智能方面拥有专业知识,我认为只有几家拥有 10,000 个 GPU 的公司才能完成这部分工作。

然而,一直有人说他们已经领先了,其首席执行官萨姆·奥尔特曼(Sam )只是在11月27日的播客中表示,AGI将在2025年实现。他们用这样的说辞吸引了很多人,

但在我看来,这种说法开始变得有点过时了。过去有强有力的领导,但现在这种领先已经消失了。换句话说,如果他们仍然领先的话,他们应该能够再次证明这一点。

2、基于思维链,推理模型可以自检、纠错“”

Matt:说到开发,您认为这些模型的变化对于开发应用程序意味着什么?

对着3个中国AI大模型,两个美国科技界大佬深聊了半小时__对着3个中国AI大模型,两个美国科技界大佬深聊了半小时

我们讨论过AI模型曾经有过太多的辉煌,上周我们也讨论过AI的发展揭示出AI模型的价值越来越小。这对您这边的开发人员意味着什么?为什么你仍然对这些大模型感到兴奋?

萨姆:我认为你完全正确。随着人工智能模型作为一个整体变得越来越强大,市场上几乎所有的人工智能模型现在都可以完成你需要人工智能模型完成的任务或技能。

AI2本周推出的OLMo 2也是一个非常有趣的AI模型。它实际上是一个完全开源的AI模型。那么,有什么区别呢?完全开源的版本意味着他们不仅提供模型权重,还提供训练代码、数据集和他们使用的所有设置,所以你可以复制这个AI模型。

您可以想象,许多组织都会欣赏这种格式,因为他们可以查看数据集的内容并发现是否存在任何受版权保护的材料或是否与其公司的立场相冲突。

这个名为OLMo 2的AI模型采用了更合适的开源方式。我们过去讲到的开源AI模型版本大部分都属于开放模型权重类型。也就是说,我们虽然获得了AI模型,但是还没有获得它的训练数据、训练脚本等信息。

对着3个中国AI大模型,两个美国科技界大佬深聊了半小时__对着3个中国AI大模型,两个美国科技界大佬深聊了半小时

不过,这些来自中国的开源人工智能模型大多已经获得了许可。就像R1发布后,我们可以看到它的许可证是什么样的,企业可以直接使用它吗?使用后是否可以得到好的结果,是否可以针对特定用例对模型进行微调?我们仍然不知道他们到底是如何训练的,以及他们如何计算所谓的测试时间。

这些模型与你之前谈到的GPT-4和GPT-3模型的区别在于,前者在实际进行推理时需要更多的计算,因为模型总是在推理。历史模型仅在训练时花费更多的计算,一旦训练完成,它们使用的计算就会越来越少且更加一致。

不同之处在于这些推理模型消耗更多的计算并且它们可以自我迭代。这就是为什么人们称它们为推理模型。他们考虑用户的需求,然后不断地回过头来重新思考和完善他们的答案以提高输出。可见,这些推理模型都有很长的思维环节。我们现在把这个过程称为“思维链”。

Matt:我看到一些开发人员正在测试 R1 的“思维链”功能。例如,让它计算英文单词()中R字母的数量,你就可以看到它的推理。一般来说,当你想统计单词中R字母的个数,但可能会把答案变成两个或三个时,就比较隐蔽了。而且R1可以做到,而o1则不行。

说他们不想揭露所有的思想链可能是出于竞争的原因,但同时我认为他们不想揭露有偏见的情况。如果显示推理过程,就可以看到模型哪里出错了,也可以重新输入提示。开发人员和用户也可以解决问题并加以改进。所以事实上,考虑到集群规模较小,中国在这方面确实做得更好。

然而,有人说你可以使用很多技巧,比如你使用的数字和计算,这会对推理的效率产生更大的影响。我之前曾与 Cap 的生成人工智能执行副总裁 Steve Jones 讨论过这个问题。他们与许多使用生成式人工智能的企业合作。

_对着3个中国AI大模型,两个美国科技界大佬深聊了半小时_对着3个中国AI大模型,两个美国科技界大佬深聊了半小时

Jones 说他基本上使用 ETIC 框架,该框架将适当的 Lang 图与一些规划和执行框架混合在一起。根据他的经验,这样做将轻松击败 o1- 以及上述任何模型。

Sam:确实,当 o1 出现时,我做了一个“穷人版”的 o1 测试。我自己创建了几个模型,包括一个版本和一个小模型版本。我训练或微调它们以与 o1 保持一致。我发现版本更安全,因为你可以在其中设置检查、验证、检查和平衡等。添加像 R1 这样的型号,您就可以两全其美。

在数英语单词草莓中的R字母的实验中,我向R1扔的第一个测试是当我拼错了四个字母R时,R1是如何回答“数一下你知道的英语单词草莓中的R字母”。数量(')中有多少个r”。当然,结果是它仍然可以正确识别并回答有4个R字母。

3、整合多种模型能力,一套系统定制专业领域模型

Matt:旧金山的 AI 于 11 月 18 日发布了专门从事复杂推理的复合 AI 模型。虽然没有对标 o1-,但对标 GPT-4o。此外,中国的阿里巴巴和

还发布了以o1-为基准的模型版本。您认为哪些方面值得关注?

Sam:还有一家位于美国旧金山的初创公司,在大型模型的微调方面也做了很多工作,建立了良好的声誉。名为 Nous 的开源模型服务公司推出了模型 Nous Forge。据我了解,他们的做法更适合做代理之类的事情,比如你可以替换任何模型,这意味着他们的系统不一定是围绕单个模型构建的,而是可以集成你当时需要的或者你发现了一个新模型。

在我看来,所有这些人工智能模型未来都会朝着类似的方向发展,即使我们还没有看到 o1 的完整版本。如果 o1 最终的表现比这些模型中的任何一个都更好,那将很有趣。但同时,可能还需要更多的时间去推理。因此,我认为他们不会局限于开发商业用途的标准模型,而是会开发更多用于科学发现、癌症治疗等领域的模型。

人们正在研究如何实施至少其中一些想法。现在,也许我们没有这样的完整秘密来源,也许他们会带来更有趣的东西。你可以想象一个未来,我们不介意等待一周让模型“思考”,看看它是否会产生某种更深入或创新的结果。现在的关键是o1能做到什么程度。

 
打赏
 
更多>同类资讯

0相关评论
推荐热播视讯

推荐视频

    Copyright © 2017-2020  二手钢材网  版权所有  
    Powered By DESTOON 皖ICP备20008326号-2