国科网

2024-07-16 20:03:58  星期二
立足国科融媒,服务先进科技
ICLR 2024接收率31%,清华LCM论文作者:讲个笑话,被拒了

点赞

0
发布时间:2024年01月17日 浏览量:121次 所属栏目:人工智能 发布者:田佳恬

ICLR 2024 国际学习表征会议已经来到了第十二届,将于今年 5 月 7 日 - 11 日在奥地利维也纳会展中心举行。

在机器学习社区中,ICLR 是较为「年轻」的学术顶会,它由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办,2013 年才举办了第一届。不过 ICLR 很快获得学术研究者们的广泛认可,被认为是深度学习顶会。在 Google Scholar 的学术会议 / 杂志排名中,ICLR 目前排名第十位,要高于 NeurIPS。

今日,ICLR 2024 将录用结果陆续通知了论文提交者。本届会议共收到了 7262 篇提交论文,整体接收率约为 31%,与去年持平(31.8%)。此外 Spotlights 论文比例为 5%,Oral 论文比例为 1.2%。

研究分析网站 Paper Copilot 对 ICLR 2024 的接收论文做了非常详细的统计,并提供了与往年直观的比较。

网站地址:https://papercopilot.com/statistics/iclr-statistics/iclr-2024-statistics/

结果出来后,依然是几家欢喜几家愁,论文被接收的学者纷纷「晒出」自己的喜悦。

机器之心报道过的苹果文生图大模型收到了被接收的喜讯。在这篇论文中,研究者提出了俄罗斯套娃式扩散模型(Matryoshka Diffusion Models,MDM),用于端到端高分辨率图像生成。

图片

推特 @thoma_gu

知名 AI 学者、Meta AI 研究科学家田渊栋团队有 4 篇论文被接收,其中包括了一篇 Spotlight 论文。

图片

推特 @tydsh

新加坡国立大学校长青年教授尤洋团队的论文《InfoBatch: Lossless Training Speed Up by Unbiased Dynamic Data Pruning》被接收为了 Oral。

图片

推特 @YangYou1991


不过,有些论文似乎成了 ICLR 2024 的遗珠,比如清华大学交叉信息研究院的研究者推出的 LCM(Latent Consistency Models),它将主流文生图模型的效率提高了 5 到 10 倍,甚至做到了实时连续生图。该模型发布仅仅一个月后便浏览超百万,在 Hugging Face 平台的模型下载量超 20 万。


图片

论文共同一作 Simian Luo 感叹这是「这辈子最好笑的笑话」。

我们找到了一位审稿人的意见,他指出论文的缺点有这些:没说清楚哪些贡献对效率和质量影响最大、没给出求解增强 PF-ODE 的计算复杂度、没说明与其他方法相比推理时间到底快了多少、 没给到 LCM 除用于 Stable Diffusion 以外其他 LDMs 的性能如何?

图片

图源:https://openreview.net/forum?id=duBCwjb68o

分享说明:转发分享请注明出处。

    热点图讯
    最新图讯
    相关图讯
    网站简介  |   联系我们  |   广告服务  |   监督电话
    本网站由国科网运营维护 国科网讯(北京)技术有限公司版权所有  咨询电话:010-88516927
    地址:北京市海淀区阜石路甲69号院1号楼1层一单元114
    ICP备案号:京ICP备15066964号-8   违法和不良信息举报电话:010-67196565
    12300电信用户申诉受理中心   网络违法犯罪举报网站   中国互联网举报中心   12321网络不良与垃圾信息举报中心   12318全国文化市场举报网站
    代理域名注册服务机构:阿里巴巴云计算(北京)有限公司