关闭广告

Transformer开山论文惊天"翻车"?图与代码不一致,神秘bug看傻了

新智元15275人阅读


新智元报道

编辑:编辑部

【新智元导读】图与代码不一致的论文,很「常见」,不过提出了Transformer的开山鼻祖论文,竟然也出现了同样的错误?

今天,AI圈被一个惊天「翻车」刷屏了。

谷歌大脑的NLP奠基之作、提出Transformer架构的开山鼻祖级论文 《Attention Is All Your Need》 中的图,被网友扒出与代码并不一致。


论文地址:https://arxiv.org/abs/1706.03762

自2017年问世以来,Transformer已经成为AI领域的基石王者。就连大红大紫的ChatGPT真正的幕后大佬也是它。

2019年,谷歌还专门为它申请了专利。


归宗溯源,现在各类层出不穷的GPT(Generative Pre-trained Transformer),都起源于这篇17年的论文。

据Google Scholar,截止目前,这篇奠基之作已有7万多次的引用。


所以,ChatGPT的奠基石都不稳了?

作为「开山鼻祖」的论文,结构图竟是错的?

Lightning AI创始人、机器学习研究者Sebastian Raschka发现,这篇论文中Transformer的图是错误的。


图中被圈出的地方,LayerNorms是在注意力和全连接层之后。在残差块之间放置层归一化,会导致输出层附近参数的预期梯度很大。

而且,这也与代码 不一致。



代码地址:https://github.com/tensorflow/tensor2tensor/commit/f5c9b17e617ea9179b7d84d36b1e8162cb369f25#diff-76e2b94ef16871bdbf46bf04dfe7f1477bafb884748f08197c9cf1b10a4dd78e

不过有网友指出,Noam shazeer在几周后对代码进行了纠正。



随后,Sebastian称,在论文Layer Normalization in the Transformer Architecture中,Pre-LN表现得更好,可以解决梯度问题。


这是很多或者大多数架构在实践中所采用的,但它可能导致表征崩溃。

如果层归一化在注意力和全连接层之前被放置在残差连接之中,就会实现更好的梯度。


Sebastian提出,虽然关于使用Post-LN或Pre-LN的讨论仍在进行中,但也有一篇新论文提议把二者结合起来。



论文地址:https://arxiv.org/abs/2304.14802

在这种双残差Tranformer中,表征崩溃和梯度消失的问题都得到了解决。


网友热议

针对论文中的疑点,有网友指出:中间不是已经有了PreLN和PostLN了吗?

Sebastian回答说,自己也觉得有点奇怪。或许2nd LN指的是最后一个输出层,而不是每个transformer块,但他对此也不确定。


有网友表示:「我们经常遇到与代码或结果不匹配的论文。大多数就是出于错误,但有时也会让人很奇怪。而这篇论文已经流传甚久了,为什么这种问题此前从没被人提出过,这真的很奇怪。」


Sebastian表示,公平地讲,最原始的代码是和图片一致的,但他们在2017年修改了代码版本,却没有更新图片。所以,这很令人困惑。


有网友表示,已经有论文在NormFormer中展示了一个不太复杂的架构,而他的团队最近也证实了他们的结果。而ResiDual论文没有在任何地方提到NormFormer,这让人很惊讶。


同时,评论区不断出现网友证实:Transformers中使用的LN,与CNN中使用的方式并不同。



所以,论文真的存在漏洞,还是乌龙事件?

让我们静观后续。

参考资料:

https://twitter.com/rasbt/status/1655575611979489282

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

德国出台首份国家安全战略 称中国仍然是一个合作伙伴

环球网资讯 浏览 74369

突遭暂缓!实控人曾巨额行贿200万!又是海通证券保荐

财通社 浏览 12048

胡塞武装:只要是美国的船只 都会成为我们的目标

极目新闻 浏览 60576

阿门-汤普森:从小一直看球 每年都买联盟通 它有点偏贵

直播吧 浏览 12136

经纬天地:净利润两年负增长 市占率不足1% 分包商身兼客户贡献超亿元收入

金证研 浏览 9549

日韩回避谁更高兴❓森保一:我不考虑对手,确定对手前没看比赛

直播吧 浏览 9119

蔚来手机即将上市,网友反馈蔚来现已向车主征集购买意向

IT之家 浏览 11107

西方媒体渲染"美5艘航母威慑中国" 转眼就被打脸

环球网资讯 浏览 8955

美国防部长下令再延长两艘军舰在地中海驻扎时间

央视新闻客户端 浏览 9646

TA分析切尔西转会:寻求至少再引进一名进攻球员,已询问了伊萨克

直播吧 浏览 7472

赴港开户热潮再起:有人排队7小时 黄牛2880元代预约

中新经纬 浏览 76905

卡梅伦-托马斯:如果我有球权,我能轻松场均25分

OnFire 浏览 11228

深度:再次成为军事强国?德国军改引关注

环球网资讯 浏览 9706

男子"机闹"后航班取消 同机旅客准备集体起诉东航

红星新闻 浏览 59451

28岁女子和56岁老汉缠绵后想嫁他 老汉不愿离婚杀死她

汉史趣闻 浏览 69541

方媛全家助阵郭富城演唱会,2个女儿不停向爸爸挥手,俏皮又可爱

素素娱乐 浏览 8463

海口紧急提醒:所有出岛小车暂勿到港 待渡车场已饱和

上观新闻 浏览 64379

网易2023 Q2财报:净收入240亿元,AI技术助自研游戏爆款频出

网易科技报道 浏览 10934

又一老夫少妻宣布婚讯,娱乐圈怎么了?

她刊 浏览 9755

亚马逊据悉将淘汰数十个自有品牌,旨在抵御反垄断审查并提振利润

界面新闻 浏览 10910

Transformer开山论文惊天"翻车"?图与代码不一致,神秘bug看傻了

新智元 浏览 15276
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除
沪ICP备20017958号-1