Posted in

ICML 最佳论文曾被 ICLR 拒稿,Pika 联创参与,一作已入职 OpenAI_AI阅读总结 — 包阅AI

包阅导读总结

1. 关键词:ICML 2024、最佳论文、拒稿、离散扩散语言建模、OpenAI

2. 总结:ICML 2024最佳论文之一曾被ICLR拒稿,该论文由斯坦福团队创作,Pika联创参与,一作已入职OpenAI。论文提出新的离散扩散语言建模方法,虽有亮点但因实验不完善被拒。

3.

– ICML 2024最佳论文出炉,其中一篇曾被ICLR 2024拒稿。

– 论文来自斯坦福,Pika创始人之一孟晨琳参与。

– 提出新的离散扩散语言建模方法,引入分数熵损失函数。

– 实验结果在多数任务中完胜GPT-2,但被AC以实验不完善拒稿。

– 缺少和其他扩散模型基线对比,提交时实验部分不完整。

– 一作已入职OpenAI,将在ICML 2024上进一步讲解。

– 论文地址:https://arxiv.org/abs/2310.16834

思维导图:

文章地址:https://www.qbitai.com/2024/07/171216.html

文章来源:qbitai.com

作者:明敏

发布时间:2024/7/25 5:10

语言:中文

总字数:1266字

预计阅读时间:6分钟

评分:88分

标签:离散扩散模型,语言建模,分数熵损失函数,零样本学习,ICML 2024


以下为原文内容

本内容来源于用户推荐转载,旨在分享知识与观点,如有侵权请联系删除 联系邮箱 media@ilingban.com

ICML最佳论文曾被ICLR拒稿,Pika联创参与,一作已入职OpenAI

明敏2024-07-2513:10:53 来源:量子位

明敏 发自 凹非寺

量子位 | 公众号 QbitAI

ICML 2024最佳论文出炉,结果发现其中一篇曾被ICLR 2024拒稿?

这篇论文来自斯坦福,Pika创始人之一孟晨琳(Chenlin Meng)也参与了。

它提出了一种新的离散扩散语言建模方法,通过引入分数熵损失函数,提高了离散扩散模型在语言建模任务中的性能。

实验结果和GPT-2比较,在多数任务中都完胜。

生成效果be like:

5位审稿人给出的分数分别是:88665。

但还是被AC一锤定音,最终reject……

这不禁让人想起Mamba。作为Transformer架构挑战者,它开创了大模型的一个新流派。结果却被ICLR拒稿。

当时这引发不小争议,包括ICLR创始人之一LeCun都下场表示不满:

很遗憾,历届程序委员会主席慢慢把它变成了一个与传统评审流程差不多的会议。

只有一些小胜利:OpenReview平台现在被大多数ML/AI会议使用,以及论文提交后立刻就能被所有人阅读(尽管匿名)。

还有人说:

如果搜索ICML 2024接收的论文,就会发现很多都被ICLR 2024拒了。

这回又是咋回事?

又栽在实验不完善上?

这篇论文关注了扩散模型在文本等离散数据领域表现一直不佳的问题。

团队认为,标准扩散模型依赖于分数匹配(score matching)理论,但是这一机制推广到离散数据领域后效果不佳。

为了填补这一空白,他们提出了一种新的损失函数分数熵(score entropy),并构建了分数熵扩散模型(SEDD)。

在主要语言建模任务上,SEDD在目前所有语言扩散模型中表现最佳,和同规模自回归语言模型不相上下,在零样本困惑度任务上击败GPT-2。

同时SEDD可生成高质量无条件样本,可以方便在计算量和生成质量之间做权衡。通过直接参数化概率比,SEDD高度可控,可以使用提示词微调而无需专门训练。

5位审稿人中,有2位都给出8分高分。

大家普遍肯定了提出的论点。一位评审觉得论文推导过程写得也很不错,实验结果非常令人信服。

不过也有很多小问题被提出,比如拼写错误、忽略了对一些实验细节的解释。

从记录中可以看到,作者针对评审提出的问题进行了详尽的说明和修改(有的分2条才发完)。

有评审看到调整后的内容,也相应调整了分数。

不过最终AC还是拒收了这篇论文。

反驳的点就主要在于实验部分不完整

所有审稿人都认为,该论文只将GPT-2作为主要基线,缺少和其他扩散模型基线。一些审稿人认为,论文提交时实验部分不完整。

尽管作者后续增加了一些实验,但是AC仍然认为不够完善,而且论文中提到此前扩散模型表现不及自回归模型的说法可能不够准确。

ICML最佳论文曾被ICLR拒稿,Pika联创参与,一作已入职OpenAI

△作者后续补充内容

比如SSD-LM、TESS等模型的表现都比GPT-2表现更好,但是论文中却没有和这些结果做对比。

总之,AC认为论文提出了很好的idea,但是在实验和对比上不够完善。

有人表示,之前Mamba被拒也是类似的原因,后面完善了论文再拿best paper也很合理。

One More Thing

值得一提的是,这篇研究的作者中不光有Pika创始人之一孟晨琳。

一作最近也加入OpenAI,更近距离感受AGI了。他将在最近的ICML 2024上进一步讲解这项工作。

论文地址:
https://arxiv.org/abs/2310.16834

版权所有,未经授权不得以任何形式转载及使用,违者必究。