英偉達暴跌了。
4月19日一開(kāi)盤(pán),英偉達遭遇2024年以來(lái)最大規模的股票恐慌性?huà)伿?#xff0c;最終出現股價(jià)下跌10%,市值消失1.5萬(wàn)億人民幣的悲劇。
更關(guān)鍵的是,海外部分AI玩家燒不起錢(qián)了,尤其是那些基于llama 2和3開(kāi)源模型的公司,用的transformer架構,成本太貴。再加上一些悄悄研發(fā)自己大模型的廠(chǎng)商(比如蘋(píng)果)也開(kāi)始撤出。這些信息的疊加,引發(fā)機構投資者對完全依靠資源堆積的大模型發(fā)展模式感到擔憂(yōu),最終導致英偉達股價(jià)下跌。
富國銀行分析師萊恩.克里對外表示,英偉達出現恐慌式拋售不奇怪,“資本市場(chǎng)在進(jìn)入2024年后,其實(shí)一直對AI硬件股票小心謹慎。原因在于大家覺(jué)得一方面他們估值過(guò)高,另一方面其實(shí)是目前主流的幾家大模型,都沒(méi)有找到可持續的變現途徑,支撐不起龐大且長(cháng)期不變的硬件投入?!?/p>
實(shí)際上,這已經(jīng)成為資本市場(chǎng)的共同認知。所以,對于這幾家AI硬件龍頭股票,機構投資者在進(jìn)入2024年后,都視作是一場(chǎng)“擊鼓傳花”游戲。
當然,資本也開(kāi)始對新的技術(shù)模式展開(kāi)探討,比如MoE專(zhuān)家網(wǎng)絡(luò )以及去二次方大模型架構等等。尤其是MoE,因為技術(shù)的可持續性,被認為是下階段大模型發(fā)展破局的突破口,資金開(kāi)始瘋狂進(jìn)入。
于是,行業(yè)產(chǎn)生一系列問(wèn)題需要回答:這到底是怎么發(fā)生的?大模型還有未來(lái)嗎?未來(lái)又在哪里?MoE是什么?誰(shuí)能代表MoE扛起AI大旗?
1.巨頭的無(wú)奈
為什么大家開(kāi)始認為以英偉達算力芯片為核心的AI硬件,變成擊鼓傳花的游戲?原因就在于英偉達每升級一個(gè)版本,其相關(guān)芯片的價(jià)格就會(huì )暴漲幾倍。
英偉達A100算力芯片在中國市場(chǎng)備受矚目,2021年上市后大規模出口中國,成為AI和大模型應用的基礎算力。初期定價(jià)為3000-5000美元,隨后價(jià)格上漲至8000美元。
2022年底,美國禁令限制向中國出口A(yíng)100,導致定制版A800價(jià)格飆升至10000美元以上。英偉達隨后發(fā)布的H100芯片起售價(jià)接近2萬(wàn)美元,而GB200芯片組起售價(jià)在3-4萬(wàn)美元。
在國外社交媒體上,有人戲稱(chēng)英偉達“技術(shù)進(jìn)步以漲價(jià)為本”。
其實(shí)英偉達有自己的無(wú)奈,中國市場(chǎng)頂峰時(shí)曾占英偉達1/4的份額,目前因為政治因素已經(jīng)下降到不到4%,這中間巨大的市場(chǎng)缺失不得不通過(guò)新產(chǎn)品漲價(jià)來(lái)彌補。
但不斷上漲的算力芯片價(jià)格,也讓那些開(kāi)發(fā)大模型的互聯(lián)網(wǎng)巨頭開(kāi)始吃不消。
當下最主要的這些互聯(lián)網(wǎng)巨頭推出的模型,大部分使用的都是transformer模型架構。而這個(gè)架構是2017年由Google團隊在論文《Attention Is All You Need》中提出以來(lái),已成為自然語(yǔ)言處理(NLP)領(lǐng)域的核心技術(shù)之一。
這個(gè)架構有很多好處,但最大的缺點(diǎn)就是必須不斷投入大量的運算資源,以支撐模型的訓練和對外提供服務(wù)。紐約時(shí)報曾爆料,OpenAI支撐ChatGPT對外提供服務(wù),需要使用3萬(wàn)塊英偉達A100的算卡,而且每天的耗電超過(guò)50萬(wàn)度。
想想都覺(jué)得可怕。
英偉達一直在尋求解決方案以降低互聯(lián)網(wǎng)巨頭使用Transformer模型訓練和推理的成本。黃仁勛表示,英偉達的芯片進(jìn)化正是為此目的。隨著(zhù)算力芯片性能的提升,成本有望進(jìn)一步下降。
問(wèn)題是由于巨頭間的激烈競爭,模型訓練和推理能力需持續增強,這推動(dòng)了英偉達最新算卡出貨量的大幅增長(cháng)。
另一方面,無(wú)論是引領(lǐng)潮流的OpenAI與ChatGPT,還是Meta、谷歌、馬斯克推出的開(kāi)源大模型,都未找到穩定的商業(yè)化道路。
OpenAI在推出GPT4之前,據說(shuō)每月收入不足成本的1/3。面臨商業(yè)模式不清晰、收入無(wú)法覆蓋成本的困境,以及英偉達年年漲價(jià)的事實(shí),互聯(lián)網(wǎng)巨頭管理層開(kāi)始反思這種以資源投入和算卡堆砌推動(dòng)模型發(fā)展的模式。
2.MoE成為解題關(guān)鍵
對于這些推出大模型服務(wù)的互聯(lián)網(wǎng)科技巨頭來(lái)說(shuō),想解決英偉達算卡漲價(jià)帶來(lái)的成本支出不可持續問(wèn)題,有兩個(gè)解決方向。
一個(gè)是自研算力芯片。近年來(lái),多家科技巨頭如微軟、OpenAI、Meta、馬斯克,以及谷歌和亞馬遜等,均宣布了自研芯片計劃或已制作出樣片。然而,自研算力芯片需要進(jìn)行后期對接效果調整,并擺脫英偉達的CUDA重新制作中間層,這導致時(shí)間成本難以估量。
因此,另一個(gè)解題方向就被他們異常重視,希望通過(guò)改變模型底層架構,換一種不耗費那么多資源就可以達到很好訓練和推理效果的模型架構,來(lái)開(kāi)發(fā)自己的大模型。
而在硅谷,確實(shí)有這么一種模型架構在這兩年被人不斷提起,甚至在很多中小模型開(kāi)發(fā)方的實(shí)踐中,得到了印證。
這就是MoE。
其實(shí)在更早一些的時(shí)間,MoE一直被應用于統計學(xué)的研究中。這是一種機器學(xué)習模型架構,它將多個(gè)專(zhuān)家(Experts)模型組合起來(lái),共同解決一個(gè)問(wèn)題。每個(gè)專(zhuān)家都是一個(gè)小型的神經(jīng)網(wǎng)絡(luò ),它們各自擅長(cháng)處理任務(wù)的某一方面。當MoE模型接到一個(gè)任務(wù)時(shí),它會(huì )將任務(wù)分配給最合適的專(zhuān)家,最后通過(guò)一個(gè)門(mén)控網(wǎng)絡(luò )匯總專(zhuān)家的輸出,給出最終答案。
這就像一家公司有多個(gè)部門(mén),在做決策的時(shí)候,公司的CEO可以聽(tīng)從市場(chǎng)部、生產(chǎn)部、策劃部甚至財務(wù)部相關(guān)專(zhuān)業(yè)領(lǐng)導的建議,最終產(chǎn)生最優(yōu)的決策。
由于這種架構運營(yíng)的核心,實(shí)際上是將大任務(wù)分成小任務(wù),日常的訓練也是針對于各個(gè)小神經(jīng)網(wǎng)絡(luò )的專(zhuān)家進(jìn)行,所以他所需要的推理和訓練資源遠遠低于整體運算的transformer架構。
關(guān)鍵在于這種架構對技術(shù)的理解和使用,切分任務(wù)和找到關(guān)鍵神經(jīng)細分網(wǎng)絡(luò )并訓練專(zhuān)家模型是該架構成功的核心,這需要強大的技術(shù)實(shí)力。相較于不斷增長(cháng)的硬件投入,這種軟性投入對大模型開(kāi)發(fā)者來(lái)說(shuō)更可接受。此外,MoE架構的特點(diǎn)有利于新興大模型企業(yè)的發(fā)展壯大,因為它們可以通過(guò)技術(shù)理解和發(fā)展來(lái)突破現有巨頭的硬件護城河。
正因為這樣的一個(gè)特點(diǎn),MoE開(kāi)始成為大模型破局的關(guān)鍵。
3.國內其實(shí)一點(diǎn)也不慢
MoE作為統計學(xué)架構早在1997年就被提出,真正落實(shí)到自然語(yǔ)音學(xué)習是2018年以后的事情。
但由于這個(gè)架構有幾個(gè)比較困難的訓練難點(diǎn),比如結果可能擬合,這意味著(zhù)模型最終結果可能只是因為特定因素影響造成而無(wú)法廣泛使用;再比如最后門(mén)框網(wǎng)絡(luò )的采用過(guò)程中,有可能偏愛(ài)幾個(gè)細分專(zhuān)家模型,而不能從整體的專(zhuān)家模型結果中獲得結論等等。
所以,哪怕谷歌在研究中有了相應進(jìn)展,MoE相對于Transformer架構,在模型發(fā)展的廣泛性上遠遠不如。
真正讓MoE模型架構照進(jìn)現實(shí)的,是一篇2023年6月名為《MoE Meets Instruction Tuning》的論文。這篇論文提出了幾種假設和相應的解決方案,從技術(shù)可行性上解決了MoE非常難以控制的特點(diǎn)。
MoE模型架構逐漸受到關(guān)注,成為許多新興模型研發(fā)方的選擇。2023年12月8日,Mistra AI在X平臺發(fā)布了首個(gè)開(kāi)源MoE模型,引起行業(yè)震動(dòng)。與此同時(shí),國內模型研發(fā)團隊也迅速跟進(jìn),MiniMax宣布將于2024年年初發(fā)布基于MoE架構的大模型,新旦智能、元象科技等也相繼加入,推動(dòng)了MoE在國內的快速發(fā)展。
而業(yè)內普遍認同的MoE在中國發(fā)展標志事件,是今年2月6日,昆侖萬(wàn)維正式發(fā)布新版MoE大語(yǔ)言模型“天工2.0”與新版“天工AI智能助手”APP。這是國內首個(gè)搭載MoE架構并面向全體C端用戶(hù)免費開(kāi)放的千億級參數大語(yǔ)言模型AI應用。
其實(shí),昆侖萬(wàn)維是國內最早投入精力研究MoE模型架構的平臺公司。
這種一手抓技術(shù),一手抓應用的模式,對于MoE模型架構在中國的普及才是最有意義的。畢竟任何一種新的技術(shù),無(wú)論有多炸裂,只有大量的應用才能對于產(chǎn)業(yè),以及人們的生活帶來(lái)新的價(jià)值。
而很多時(shí)候有新價(jià)值產(chǎn)生,是衡量一個(gè)技術(shù)能否持續發(fā)展的關(guān)鍵。
2024年4月17日,昆侖萬(wàn)維重磅宣布,“天工3.0”正式開(kāi)啟公測。
“天工3.0”是采用4千億級參數MoE混合專(zhuān)家模型的全球領(lǐng)先模型之一,并將開(kāi)源。行業(yè)內現在一致認為,在國內MoE模型的排名里,昆侖萬(wàn)維的天工是第一位,字節豆包第二, Minimax第三。
相關(guān)稿件