人妻夜夜爽天天爽三区麻豆AV网站,亚洲AV成人一区二区三区天堂,欧美人与动牲交欧美精品,亚洲AV无码一区东京热久久

Transformer全新里程碑!誕生6年,開山之作被引近8萬,沒奪下NeurIPS最佳論文,卻徹底改變AI界

2017年6月12日,Attention is All You Need,一聲炸雷,大名鼎鼎的Transformer橫空出世。

它的出現(xiàn),不僅讓NLP變了天,成為自然語言領(lǐng)域的主流模型,還成功跨界CV,給AI界帶來了意外的驚喜。


(資料圖片僅供參考)

到今天為止,Transformer誕生6周年。而這篇論文被引數(shù)高達(dá)77926。

英偉達(dá)科學(xué)家Jim Fan對這篇蓋世之作做了深度總結(jié):

1. Transformer并沒有發(fā)明注意力,而是將其推向極致。

第一篇注意力論文是在3年前(2014年)發(fā)表的。

這篇論文來自Yoshua Bengio的實(shí)驗(yàn)室,而標(biāo)題并不起眼「Neural Machine Translation by Jointly Learning to Align and Translate」。

它是「RNN+上下文向量」(即注意力)的組合。

或許很多人都沒有聽說過這篇論文,但它是NLP中最偉大的里程碑之一,已經(jīng)被引用了29K次(相比之下,Transformer為77K)。

2. Transformer和最初的注意力論文,都沒有談到通用序列計(jì)算機(jī)。

相反,兩者都為了解決一個(gè)狹隘而具體的問題:機(jī)器翻譯。值得注意的是,AGI(不久的某一天)可以追溯到不起眼的谷歌翻譯。

3. Transformer發(fā)表在2017年的NeurIPS上,這是全球頂級的人工智能會議之一。然而,它甚至沒有獲得Oral演講,更不用說獲獎(jiǎng)了。

那一年的NeurIPS上有3篇最佳論文。截止到今天,它們加起來有529次引用。

Transformer這一經(jīng)典之作卻在NeurIPS 2017沒有引起很多人的關(guān)注。

對此,Jim Fan認(rèn)為,在一項(xiàng)出色的工作變得有影響力之前,很難讓人們認(rèn)可它。

我不會責(zé)怪NeurIPS委員會——獲獎(jiǎng)?wù)撐娜匀皇且涣鞯模绊懥]有那么大。一個(gè)反例是ResNet。

何凱明等人在CVPR 2016年獲得了最佳論文。這篇論文當(dāng)之無愧,得到了正確的認(rèn)可。

2017年,該領(lǐng)域聰明的人中,很少有人能夠預(yù)測到今天LLM革命性的規(guī)模。就像20世紀(jì)80年代一樣,很少有人能預(yù)見自2012年以來深度學(xué)習(xí)的海嘯。

OpenAI科學(xué)家Andrej Karpathy對Jim Fan第2點(diǎn)總結(jié)頗感興趣,并表示,

介紹注意力的論文(由@DBahdanau , @kchonyc , Bengio)比 「Attention is All You Need」的論文受到的關(guān)注要少1000倍。而且從歷史上看,這兩篇論文都非常普通,但有趣的是恰好都是為機(jī)器翻譯而開發(fā)的。

你只需要注意力!

Transformer誕生之前,AI圈的人在自然語言處理中大都采用基于RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))的編碼器-解碼器(Encoder-Decoder)結(jié)構(gòu)來完成序列翻譯。

然而,RNN及其衍生的網(wǎng)絡(luò)最致命的缺點(diǎn)就是慢。關(guān)鍵問題就在于前后隱藏狀態(tài)的依賴性,無法實(shí)現(xiàn)并行。

Transformer的現(xiàn)世可謂是如日中天,讓許多研究人員開啟了追星之旅。

2017年,8位谷歌研究人員發(fā)表了Attention is All You Need。可以說,這篇論文是NLP領(lǐng)域的顛覆者。

論文地址:https://arxiv.org/pdf/1706.03762.pdf

它完全摒棄了遞歸結(jié)構(gòu),依賴注意力機(jī)制,挖掘輸入和輸出之間的關(guān)系,進(jìn)而實(shí)現(xiàn)了并行計(jì)算。

甚至,有人發(fā)問「有了Transformer框架后是不是RNN完全可以廢棄了?」

JimFan所稱Transformer當(dāng)初的設(shè)計(jì)是為了解決翻譯問題,毋庸置疑。

谷歌當(dāng)年發(fā)的博客,便闡述了Transformer是一種語言理解的新型神經(jīng)網(wǎng)絡(luò)架構(gòu)。

文章地址:https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html

具體來講,Transformer由四部分組成:輸入、編碼器、解碼器,以及輸出。

輸入字符首先通過Embedding轉(zhuǎn)為向量,并加入位置編碼(Positional Encoding)來添加位置信息。

然后,通過使用多頭自注意力和前饋神經(jīng)網(wǎng)絡(luò)的「編碼器」和「解碼器」來提取特征,最后輸出結(jié)果。

如下圖所示,谷歌給出了Transformer如何用在機(jī)器翻譯中的例子。

機(jī)器翻譯的神經(jīng)網(wǎng)絡(luò)通常包含一個(gè)編碼器,在讀取完句子后生成一個(gè)表征。空心圓代表著Transformer為每個(gè)單詞生成的初始表征。

然后,利用自注意力,從所有其他的詞中聚合信息,在整個(gè)上下文中為每個(gè)詞產(chǎn)生一個(gè)新表征,由實(shí)心圓表示。

接著,將這個(gè)步驟對所有單詞并行重復(fù)多次,依次生成新的表征。

同樣,解碼器的過程與之類似,但每次從左到右生成一個(gè)詞。它不僅關(guān)注其他先前生成的單詞,還關(guān)注編碼器生成的最終表征。

2019年,谷歌還專門為其申請了專利。

自此,在自然語言處理中,Transformer逆襲之路頗有王者之風(fēng)。

歸宗溯源,現(xiàn)在各類層出不窮的GPT(Generative Pre-trained Transformer),都起源于這篇17年的論文。

然而,Transformer燃爆的不僅是NLP學(xué)術(shù)圈。

萬能Transformer:從NLP跨到CV

2017年的谷歌博客中,研究人員曾對Transformer未來應(yīng)用潛力進(jìn)行了暢享:

不僅涉及自然語言,還涉及非常不同的輸入和輸出,如圖像和視頻。

沒錯(cuò),在NLP領(lǐng)域掀起巨浪后,Transformer又來「踢館」計(jì)算機(jī)視覺領(lǐng)域。甚至,當(dāng)時(shí)許多人狂呼Transformer又攻下一城。

自2012年以來,CNN已經(jīng)成為視覺任務(wù)的首選架構(gòu)。

隨著越來越高效的結(jié)構(gòu)出現(xiàn),使用Transformer來完成CV任務(wù)成為了一個(gè)新的研究方向,能夠降低結(jié)構(gòu)的復(fù)雜性,探索可擴(kuò)展性和訓(xùn)練效率。

2020年10月,谷歌提出的Vision Transformer (ViT),不用卷積神經(jīng)網(wǎng)絡(luò)(CNN),可以直接用Transformer對圖像進(jìn)行分類。

值得一提的是,ViT性能表現(xiàn)出色,在計(jì)算資源減少4倍的情況下,超過最先進(jìn)的CNN。

緊接著,2021年,OpenAI連仍兩顆炸彈,發(fā)布了基于Transformer打造的DALL-E,還有CLIP。

這兩個(gè)模型借助Transformer實(shí)現(xiàn)了很好的效果。DALL-E能夠根據(jù)文字輸出穩(wěn)定的圖像。而CLIP能夠?qū)崿F(xiàn)圖像與文本的分類。

再到后來的DALL-E進(jìn)化版DALL-E 2,還有Stable Diffusion,同樣基于Transformer架構(gòu),再次顛覆了AI繪畫。

以下,便是基于Transformer誕生的模型的整條時(shí)間線。

由此可見,Transformer是有多么地能打。

2021年,當(dāng)時(shí)就連谷歌的研究人員David Ha表示,Transformers是新的LSTMs。

而他曾在Transformer誕生之前,還稱LSTM就像神經(jīng)網(wǎng)絡(luò)中的AK 47。無論我們?nèi)绾闻τ眯碌臇|西來取代它,它仍然會在50年后被使用。

Transformer僅用4年的時(shí)間,打破了這一預(yù)言。

新硅谷「七叛徒」

如今,6年過去了,曾經(jīng)聯(lián)手打造出谷歌最強(qiáng)Transformer的「變形金剛們」怎么樣了?

Jakob Uszkoreit被公認(rèn)是Transformer架構(gòu)的主要貢獻(xiàn)者。

他在2021年中離開了Google,并共同創(chuàng)立了Inceptive Labs,致力于使用神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)mRNA。

到目前為止,他們已經(jīng)籌集了2000萬美元,并且團(tuán)隊(duì)規(guī)模也超過了20人。

Ashish Vaswani在2021年底離開Google,創(chuàng)立了AdeptAILabs。

可以說,AdeptAILabs正處在高速發(fā)展的階段。

目前,公司不僅已經(jīng)籌集了4.15億美元,而且也估值超過了10億美元。

此外,團(tuán)隊(duì)規(guī)模也剛剛超過了40人。

然而,Ashish卻在幾個(gè)月前離開了Adept。

在Transformers論文中,Niki Parmar是唯一的女性作者。

她在2021年底離開Google,并和剛剛提到的Ashish Vaswani一起,創(chuàng)立了AdeptAILabs。

不過,Niki在幾個(gè)月前也離開了Adept。

Noam Shazeer在Google工作了20年后,于2021年底離開了Google。

隨后,他便立刻與自己的朋友Dan Abitbol一起,創(chuàng)立了Character AI。

雖然公司只有大約20名員工,但效率卻相當(dāng)之高。

目前,他們已經(jīng)籌集了近2億美元,并即將躋身獨(dú)角獸的行列。

Aidan Gomez在2019年9月離開了Google Brain,創(chuàng)立了CohereAI。

經(jīng)過3年的穩(wěn)定發(fā)展后,公司依然正在擴(kuò)大規(guī)模——Cohere的員工數(shù)量最近超過了180名。

與此同時(shí),公司籌集到的資金也即將突破4億美元大關(guān)。

Lukasz Kaiser是TensorFlow的共同作者人之一,他在2021年中離開了Google,加入了OpenAI。

Illia Polosukhin在2017年2月離開了Google,于2017年6月創(chuàng)立了NEAR Protocol。

目前,NEAR估值約為20億美元。

與此同時(shí),公司已經(jīng)籌集了約3.75億美元,并進(jìn)行了大量的二次融資。

現(xiàn)在,只有Llion Jones還在谷歌工作。

在論文的貢獻(xiàn)方面,他風(fēng)趣地調(diào)侃道:「自己最大的意義在于——起標(biāo)題?!?/p>

網(wǎng)友熱評

走到現(xiàn)在,回看Transformer,還是會引發(fā)不少網(wǎng)友的思考。

AI中的開創(chuàng)性論文。

馬庫斯表示,這有點(diǎn)像波特蘭開拓者隊(duì)對邁克爾·喬丹的放棄。

這件事說明了,即使在這樣的一級研究水平上,也很難預(yù)測哪篇論文會在該領(lǐng)域產(chǎn)生何種程度的影響。

這個(gè)故事告訴我們,一篇研究文章的真正價(jià)值是以一種長期的方式體現(xiàn)出來的。

哇,時(shí)間過得真快!令人驚訝的是,這個(gè)模型突破了注意力的極限,徹底改變了NLP。

在我攻讀博士期間,我的導(dǎo)師 @WenmeiHwu 總是教育我們,最有影響力的論文永遠(yuǎn)不會獲得最佳論文獎(jiǎng)或任何認(rèn)可,但隨著時(shí)間的推移,它們最終會改變世界。我們不應(yīng)該為獎(jiǎng)項(xiàng)而奮斗,而應(yīng)該專注于有影響力的研究!

本文作者:桃子、好困,來源:新智元,原文標(biāo)題:《Transformer全新里程碑!誕生6年,開山之作被引近8萬,沒奪下NeurIPS最佳論文,卻徹底改變AI界》

風(fēng)險(xiǎn)提示及免責(zé)條款 市場有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。

關(guān)鍵詞: