關注 >   >  正文

擊敗LLaMA?史上超強「獵鷹」排行存疑,符堯7行代碼親測,LeCun轉贊

評論

前幾天公布的LLM排行榜引發業內人士廣泛討論,新模型Falcon在性能上真的能打過LLaMA嗎?符堯實測來了!

前段時間,初出茅廬的獵鷹(Falcon)在LLM排行榜碾壓LLaMA,在整個社區激起千層浪。


(資料圖)

但是,獵鷹真的比LLaMA好嗎?

簡短回答:可能不是。

符堯團隊對模型做了更深入的測評:

「我們在MMLU上復現了LLaMA 65B的評估,得到了61.4的分數,接近官方分數(63.4),遠高于其在Open LLM Leaderboard上的分數(48.8),而且明顯高于獵鷹(52.7)。」

沒有花哨的提示工程,沒有花哨的解碼,一切都是默認設置。

目前,Github上已經公開了代碼和測試方法。

對于獵鷹超越LLaMA存疑,LeCun表態,測試腳本的問題…

LLaMA真·實力

目前在OpenLLM排行榜上,Falcon位列第一,超過了LLaMA,得到了包括Thomas Wolf在內的研究人員的力薦。

然而,有些人對此表示疑慮。

先是一位網友質疑,LLaMA這些數字從哪來,看起來與論文數字不一致…

隨后,OpenAI科學家Andrej Karpathy也對LLaMA 65B為什么在Open LLM排行榜上的分數明顯低于官方(48.8 v.s. 63.4)表示關注。

并發文,到目前為止,我一直避免在推特上發表關于獵鷹的文章,因為這一點,不確定。

為了弄清楚這個問題,符堯和團隊成員決定對LLaMA 65B進行一次公開的測試,結果得到61.4分。

在測試中,研究者沒有使用任何特殊機制,LLaMA 65B就能拿到這個分數。

這一結果恰恰證明了,如果想要模型實現接近GPT-3.5的水平,最好是在LLaMA 65B上使用RLHF。

根據就是,近來符堯團隊發表的一篇Chain-of-Thought Hub論文的發現。

當然,符堯表示,他們這一測評并非想要引起LLaMA和Falcon之間的爭端,畢竟這些都是偉大的開源模型,都為這個領域做出了重大的貢獻!

另外,Falcon還有更加方便的使用許可,這也讓它有很大的發展潛力。

對于這一最新測評,網友BlancheMinerva指出,公平的比較應該在默認設置下運行獵鷹(Falcon)在MMLU上。

對此,符堯稱這是正確的,并正進行這項工作,預計在一天后可以得到結果。

不管最終的結果怎樣,要知道GPT-4這座山峰才是開源社區真正想要追求的目標。

OpenLLM排行榜問題

來自Meta的研究人員稱贊,符堯很好地再現了LLaMa的結果,并指出了OpenLLM排行榜的問題。

與此同時,他還分享了關于OpenLLM排行榜的一些問題。

首先,MMLU的結果:LLaMa 65B MMLU結果在排行榜上是15分,但對7B模型來說是一樣的。13B、30B模型也存在較小的性能差距。

OpenLLM真的需要在公布哪個模型是最好的之前看看這個。

基準:這些基準是如何選擇的?

ARC 25 shot和Hellaswag 10 shot似乎與LLM并不特別相關。如果能在其中加入一些生成式基準就更好了。雖然生成式基準有其局限性,但它們仍然是有用的。

單一平均分:將結果減少到單一分數總是很吸引人的,平均分是最容易的。

但在這種情況下,4個基準的平均值真的有用嗎?在MMLU上獲得1分和在HellaSwag上獲得1分是一樣的嗎?

在LLM快速迭代的世界里,開發這樣一個排行榜肯定有一定的價值。

還有來自谷歌研究人員Lucas Beyer也發表了自己的觀點,

瘋狂的是,NLP研究人員對同一個基準有不同的理解,因此導致了完全不同的結果。同時,每當我的同事實現一個指標時,我都會立即問他們是否真的檢查將官方代碼的完美重現,如果沒有,就放棄他們的結果。

另外,他還表示,據我所知,無論模型如何,它實際上都不會重現原始基準測試的結果。

網友附和道,這就是LLM基準的現實…

Falcon——開源、可商用、性能強

說到Falcon,其實值得我們再好好回顧一下。

按LeCun的說法,大模型時代,開源最重要。

而在Meta的LLaMA代碼遭泄之后,各路開發者都開始躍躍欲試。

Falcon正是由阿聯酋阿布扎比的技術創新研究所(TII)開發的一支奇兵。

剛發布時從性能上看,Falcon比LLaMA的表現更好。

目前,「Falcon」有三個版本——1B、7B和40B。

TII表示,Falcon迄今為止最強大的開源語言模型。其最大的版本,Falcon 40B,擁有400億參數,相對于擁有650億參數的LLaMA來說,規模上還是小了一點。

不過,此前TII曾表示,別看咱Falcon規模雖小,性能卻很能打。

先進技術研究委員會(ATRC)秘書長Faisal Al Bannai認為,「Falcon」的發布將打破LLM的獲取方式,并讓研究人員和創業者能夠以此提出最具創新性的使用案例。

FalconLM的兩個版本,Falcon 40B Instruct和Falcon 40B在Hugging Face OpenLLM排行榜上位列前兩名,而Meta的LLaMA則位于第三。

而前文所講的有關排行榜的問題也正是這個。

盡管「Falcon」的論文目前還沒公開發布,但Falcon 40B已經在經過精心篩選的1萬億token網絡數據集的上進行了大量訓練。

研究人員曾透露,「Falcon」在訓練過程非常重視在大規模數據上實現高性能的重要性。

我們都知道的是,LLM對訓練數據的質量非常敏感,這就是為什么研究人員會花大量的精力構建一個能夠在數萬個CPU核心上進行高效處理的數據管道。

目的就是,在過濾和去重的基礎上從網絡中提取高質量的內容。

目前,TII已經發布了精煉的網絡數據集,這是一個經過精心過濾和去重的數據集。實踐證明,非常有效。

僅用這個數據集訓練的模型可以和其它LLM打個平手,甚至在性能上超過他們。這展示出了「Falcon」卓越的質量和影響力。

此外,Falcon模型也具有多語言的能力。

它理解英語、德語、西班牙語和法語,并且在荷蘭語、意大利語、羅馬尼亞語、葡萄牙語、捷克語、波蘭語和瑞典語等一些歐洲小語種上也懂得不少。

Falcon 40B還是繼H2O.ai模型發布后,第二個真正開源的模型。

另外,還有一點非常重要——Falcon是目前唯一的可以免費商用的開源模型。

在早期,TII要求,商業用途使用Falcon,如果產生了超過100萬美元以上的可歸因收入,將會收取10%的「使用稅」。

可是財大氣粗的中東土豪們沒過多長時間就取消了這個限制。

至少到目前為止,所有對Falcon的商業化使用和微調都不會收取任何費用。

土豪們表示,現在暫時不需要通過這個模型掙錢。

而且,TII還在全球征集商用化方案。

對于有潛力的科研和商業化方案,他們還會提供更多的「訓練算力支持」,或者提供進一步的商業化機會。

這簡直就是在說:只要項目好,模型免費用!算力管夠!錢不夠我們還能給你湊!

對于初創企業來說,這簡直就是來自中東土豪的「AI大模型創業一站式解決方案」。

根據開發團隊稱,FalconLM 競爭優勢的一個重要方面是訓練數據的選擇。

研究團隊開發了一個從公共爬網數據集中提取高質量數據并刪除重復數據的流程。

在徹底清理多余重復內容后,保留了 5 萬億的token——足以訓練強大的語言模型。

40B的Falcon LM使用1萬億個token進行訓練, 7B版本的模型訓練token達到 1.5 萬億。

(研究團隊的目標是使用RefinedWeb數據集從Common Crawl中僅過濾出質量最高的原始數據)

此外,Falcon的訓練成本相對來說更加可控。

TII稱,與GPT-3相比,Falcon在只使用75%的訓練計算預算的情況下,就實現了顯著的性能提升。

而且在推斷(Inference)時只需要只需要20%的計算時間,成功實現了計算資源的高效利用。

標簽:

今日熱點

熱點排行

最近更新

所刊載信息部分轉載自互聯網,并不代表本網贊同其觀點和對其真實性負責。郵箱:5855973@qq.com

聯系我們| 中國品牌網 | 滬ICP備2022005074號-18 營業執照  Copyright © 2018@. All Rights Reserved.