排名靠后的论文作者通常是挂名的?不一定,比如这两篇
  BhYoICNPeXOn 2023年11月14日 23 0


通常来说,第二作者以后的作者在一篇论文中往往被忽略不计,被视为挂名或填充名单的存在。然而,有一类特别牛逼的论文例外。这些论文不仅在学术界引起了轰动,更让论文的所有作者脱颖而出,成为闪耀光芒的焦点。

这里列举两篇牛逼的论文:

一、《 Attention Is All You Need 》

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_机器学习

从 ChatGPT 到 AI 画图技术,人工智能领域最近的这波突破或许都要感谢一下 Transformer。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_02

论文链接:https://arxiv.org/abs/1706.03762

六年前,一篇名字有点浮夸的论文被上传到了预印版论文平台 arXiv 上,「xx is All You Need」这句话被 AI 领域的开发者们不断复述,甚至已经成了论文标题的潮流,而 Transformer 也不再是变形金刚的意思,它现在代表着 AI 领域最先进的技术。

这篇论文共有8位作者,现在各个都很牛逼。

Transformer「八位作者」

1.Jakob Uszkoreit被公认是Transformer架构的主要贡献者。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_03

他在2021年中离开了Google,并共同创立了Inceptive Labs,致力于使用神经网络设计mRNA。

到目前为止,他们已经筹集了2000万美元,并且团队规模也超过了20人。

2.Ashish Vaswani在2021年底离开谷歌,创立了AdeptAILabs。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_04

可以说,AdeptAILabs正处在高速发展的阶段。

目前,公司不仅已经筹集了4.15亿美元,而且也估值超过了10亿美元。

此外,团队规模也刚刚超过了40人。

3.在Transformers论文中,Niki Parmar是唯一的女性作者。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_05

她在2021年底离开Google,并和刚刚提到的Ashish Vaswani一起,创立了AdeptAILabs。

不过,Niki在几个月前也离开了Adept。

4.Noam Shazeer在Google工作了20年后,于2021年底离开了Google。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_人工智能_06

随后,他便立刻与自己的朋友Dan Abitbol一起,创立了Character AI。

虽然公司只有大约20名员工,但效率却相当之高。

目前,他们已经筹集了近2亿美元,并即将跻身独角兽的行列。

5.Aidan Gomez在2019年9月离开了Google Brain,创立了CohereAI。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_07

经过3年的稳定发展后,公司依然正在扩大规模——Cohere的员工数量最近超过了180名。

与此同时,公司筹集到的资金也即将突破4亿美元大关。

6.Lukasz Kaiser是TensorFlow的共同作者人之一,他在2021年中离开了Google,加入了OpenAI。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_08

7.Illia Polosukhin在2017年2月离开了Google,于2017年6月创立了NEAR Protocol。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_09

目前,NEAR估值约为20亿美元。

与此同时,公司已经筹集了约3.75亿美元,并进行了大量的二次融资。

8.Llion Jones在2023年8月离开了Google,并于同月加入初创公司Stealth Startup,任AI研究科学家。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_机器学习_10

论文的更新,也是Llion Jones在最近提交的第7版。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_11

二、《Deep Residual Learning for Image Recognition》

2016年的CVPR最佳论文“Deep Residual Learning for Image Recognition”,由四位作者在微软亚洲研究院期间完成,目前谷歌学术显示,引用已达17万+。是计算机视觉历史上被引用最多的论文。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_12

这篇论文对人工智能有着重要意义!在2015年之前,深度学习最多只能训练20层,而CNN(卷积神经网络)模型ResNet在网络的每一层引入了一个直连通道,从而解决了深度网络的梯度传递问题。

换句话说,在ResNet之后就可以有效地训练超过百层的深度神经网络,把网络打得非常深。大模型时代,以Transformer为核心的大模型,包括GPT系列,也普遍采用了ResNet结构,以支撑上百层的Transformer的堆叠。

这篇论文共有4位作者,现在各个都很牛逼。

ResNet「四位作者」

1.何恺明将在2024年加入麻省理工学院的电子工程与计算机科学系,成为教职人员;

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_13

2.张祥雨已经在旷视成为独挡一面的关键研究员;

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_14

3.任少卿目前是蔚来自动驾驶研发首席专家、助理副总裁;

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_Google_15

4.孙剑博士在2022年6月14日凌晨,因突发疾病骤然离世(缅怀)。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_人工智能_16

2023年未来科学大奖名单公布,计算机视觉领域残差网络的四位作者:何恺明、张祥雨、任少卿、孙剑,共同获得数学与计算机科学奖。

这是未来科学大奖成立以来首次将数学与计算机科学奖颁给四位获奖人,其中90后旷视研究院主任研究员张祥雨也是该奖历史上最年轻的科学家。

排名靠后的论文作者通常是挂名的?不一定,比如这两篇_人工智能_17

他们的获奖理由是他们提出深度残差学习,为人工智能做出了基础性贡献。

总结

这两篇论文告诉我们,二作以后的作者并非只是挂名的存在,只要论文特别牛逼,所有作者可以成为引领潮流的领军人物。


【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月14日 0

暂无评论

推荐阅读
BhYoICNPeXOn