谷歌发文回应质疑,详解自动 AI 芯片设计研究的来龙去脉

   日期:2024-11-19     来源:网络整理    作者:二手钢材网    浏览:213    评论:0    
核心提示:芯片设计研究的质疑,谷歌坐不住了,发文回应!因此,面对以上质疑,谷歌通过本文进行了回应,确保没有人因为错误的原因而放弃在这个有影响力的领域继续创新。等人的论文很大程度上并没有遵循谷歌的方法,尤其是没有进行预训练,在算力、训练收敛方面也都存在缺陷。等人在论文中指出,谷歌开源的内容不支持复现预训练。

机器心脏报告

终于,面对近年来自身的自动AI芯片设计研究的质疑,谷歌坐不住了,发布了回应!该论文的作者包括谷歌首席科学家杰夫·迪恩(Jeff Dean)。

谷歌自研芯片性能_谷歌芯片是哪个国家的_

我们先来回顾一下整个故事:

2020年,谷歌发表了预印本论文《Chip with Deep》,介绍了其设计芯片布局的新强化学习方法。 2021 年,这项研究发表于并开源。

此后,它激发了AI芯片设计方面的大量工作,并已部署在谷歌母公司的三代TPU、数据中心CPU和其他芯片中,并由外部芯片制造商进行扩展。

_谷歌芯片是哪个国家的_谷歌自研芯片性能

然而,ISPD 2023 上的一篇论文对 的表现提出了质疑(Cheng 等人),指出虽然 承诺提供数据和代码,但实际上这些资源并未完全可用。

谷歌自研芯片性能_谷歌芯片是哪个国家的_

论文地址:

程等人。还认为(CT)框架与《》论文存在几个不一致的地方:如输入网表的预先放置信息、代理成本函数的权重设置、宏和标准单元簇的放置规则, ETC。

_谷歌自研芯片性能_谷歌芯片是哪个国家的

根据他们的评估,与模拟退火算法(SA)相比,在大多数情况下,HPWL 的代理成本更高,HPWL 不如 SA 方法。

谷歌芯片是哪个国家的_谷歌自研芯片性能_

但谷歌表示:“他们没有按照我们论文中描述的方法进行操作。”

例如,Cheng 等人的论文。没有预先训练的 RL 方法(消除了从先验中学习的能力),使用的计算资源少得多(RL 经验收集器数量减少了 20 倍,GPU 数量减少了一半),并且不训练收敛。 (机器学习中的标准实践),并且用于评估的测试用例也已经过时了。

在最新一期的 CACM 上,杰出架构师 Igor 还发表了对《》发表的原始论文、Cheng 等人提交给 ISPD 的论文以及未发表的论文等三篇论文的荟萃分析,总结了人们对对各种疑惑的理解。

_谷歌芯片是哪个国家的_谷歌自研芯片性能

文章地址:

谷歌还拉出了一个时间表:

谷歌自研芯片性能_谷歌芯片是哪个国家的_

因此,面对上述质疑,谷歌以这篇文章进行回应,以确保没有人因为错误的原因而放弃在这一有影响力的领域继续创新。

Jeff Dean 在推特上表示 Cheng 等人的论文。很大程度上没有遵循的方法,尤其是缺乏预训练,在计算能力和训练收敛性方面也存在缺陷。

_谷歌自研芯片性能_谷歌芯片是哪个国家的

谷歌芯片是哪个国家的_谷歌自研芯片性能_

杰夫·迪恩还认为,伊戈尔的文章所进行的隐晦指控毫无根据。他很惊讶自己竟然想与此事有任何关系,而且他认为公布这些指控是合适的。除了两篇有缺陷的、未经同行评审的文章外,没有任何证据或技术数据。

_谷歌芯片是哪个国家的_谷歌自研芯片性能

Cheng 等人在复制 方法时犯的错误

程等人。并没有重现在《》中描述的论文中的方法,所以他们的结果并不奇怪,所以也就不足为奇了。

以下是谷歌指出的主要错误:

强化学习方法没有经过预先训练

核心优势在于能够从先验中学习,即在正式测试之前在“练习”模块中进行预训练。要消除这一点,就需要评估一种完全不同且效率较低的方法。

下图2显示,训练数据集越大,新模块的布局效果越好。

谷歌自研芯片性能_谷歌芯片是哪个国家的_

原论文还通过下表展示了预训练20个模块的效果,模型可以掌握更有效的布局策略。

谷歌芯片是哪个国家的_谷歌自研芯片性能_

另外,原论文中多次强调了预训练的重要性。例如,如下图所示,在开源RISC-V CPU上,不经过预训练的强化学习策略需要48小时才能逼近6小时预训练模型的效果。

谷歌芯片是哪个国家的_谷歌自研芯片性能_

主数据表中的实验结果是基于48小时的预训练,但Cheng等人。没有进行任何预训练。这意味着强化学习模型永远不会接触芯片,并且需要在每个测试用例上从头开始学习布局。

这就像从没看过围棋的人就断定他下围棋不好一样。

为此,程等人。他们在论文中指出,谷歌的开源内容不支持可重复的预训练。然而,预训练只需要运行多个案例的训练过程,并且开源数据一直支持预训练。

_谷歌自研芯片性能_谷歌芯片是哪个国家的

Cheng等人的论文称,截至目前,《》论文的数据和代码以及CT框架尚未完全公开,因此评估遇到了障碍。

使用少一个数量级的计算资源

强化学习经验收集器的数量比论文中少了20倍(26 VS 512),GPU的数量也少了一半(8 VS 16)。更少的计算资源通常需要更长的训练时间才能达到相同的效果。

_谷歌芯片是哪个国家的_谷歌自研芯片性能

根据另一篇重复出现的论文“and of for Chip”,使用更多 GPU 进行训练可以加快收敛速度​​。

如果程等人。如果可以按照原始论文中的描述配置他们的实验,他们的结果可能会得到改善。

没有经过收敛训练

众所周知,训练失败会严重影响模型性能。

从Cheng等人的项目网站上可以找到四个模块(-GF12、-NG45、-GF12和-GF12)的收敛曲线,但是这些模块在训练过程中并未达到收敛(他们还没有提供) -NG45 或 -GF12)。 -NG45 曲线)。

谷歌芯片是哪个国家的__谷歌自研芯片性能

谷歌芯片是哪个国家的_谷歌自研芯片性能_

对于所有四个区块,训练都以相对较少的步数中断。

根据不具有代表性且无法复制的基准进行评估

Cheng 等人使用的基准。 (45 纳米和 12 纳米节点)较旧,并且与所使用的节点(亚 7 纳米节点)具有显着不同的物理设计。

对于10nm技术节点来说,多种图形技术很容易造成布线拥堵问题。

因此,对于不太先进的技术节点,奖励函数中的相关组成部分可能需要调整。

研究团队表示:“我们主要针对7nm、5nm以及更先进的工艺节点进行设计。我们尚未对前几代节点进行深入研究。但我们欢迎社区在这一领域做出贡献!”

此外,程等人。无法或不愿意提供一个全面的网表来复制其主要数据表中的结果。

对此,研究团队表示:“虽然Cheng等人已经大规模重现了我们的方法,但难道是错误的吗?我们建议直接使用我们的开源代码。”

除了重现 方法的错误之外,Cheng 等人。还有一些其他问题,包括:

程等人。声称谷歌的代理成本与最终指标没有很好的相关性,但他们自己的相关性研究实际上表明总体代理成本与除标准单位面积之外的所有最终指标之间存在微弱但正相关的关系。相关关系。详细信息如下图6所示。

_谷歌自研芯片性能_谷歌芯片是哪个国家的

最后,谷歌表示它是完全开源的。他们开源了一个软件存储库,以完全重现“”论文中描述的方法。强化学习方法的每一行都可以自由检查、执行或修改,并且提供源代码或二进制文件来执行所有预处理和后处理步骤。

谷歌芯片是哪个国家的__谷歌自研芯片性能

地址:

 
标签: 芯片设计 研究
打赏
 
更多>同类资讯

0相关评论
推荐热播视讯

推荐视频

    Copyright © 2017-2020  二手钢材网  版权所有  
    Powered By DESTOON 皖ICP备20008326号-2