財聯(lián)社2月22日訊(編輯 劉蕊)今年1月,中國人工智能初創(chuàng)公司DeepSeek發(fā)布的開源推理模型R1在海外引起巨大反響,并引發(fā)美股“AI寵兒”英偉達單日市值一度蒸發(fā)近6000億美元。
而近日,英偉達首席執(zhí)行官黃仁勛首度對此事做出了公開回應(yīng)。他稱,DeepSeep-R1推理模型“令人印象深刻”,但未來的人工智能模型仍將依賴英偉達的計算能力,此前市場對英偉達股票的拋售是基于誤解。
DeepSeek不意味著算力需求減弱
今年1月末,DeepSeek的橫空出世一度令美股科技股遭受重創(chuàng)。在這其中,英偉達首當其沖。由于DeepSeek在模型構(gòu)建和訓(xùn)練中使用的芯片性能和成本都較低,這讓投資者一度擔心未來大型科技公司可能會縮減對英偉達更高端芯片產(chǎn)品的需求。
美東時間1月27日,英偉達股價一度暴跌17%,市值一夜蒸發(fā)超6000億美元。不過自那之后,英偉達股價在接下來近一個月里震蕩回升,目前已經(jīng)收復(fù)了大部分失地。
近日,在一場線上活動中,英偉達CEO黃仁勛通過預(yù)錄制的采訪視頻表示:投資者們誤將DeepSeek的進步視為AI公司不再需要高強度算力的信號,而實際并非如此
“我認為市場當時對R1的反應(yīng)是‘哦,我的天哪,人工智能結(jié)束了!它從天而降,我們不再需要進行任何計算了!’”黃仁勛表示,“而事實恰恰相反。”
“從投資者的角度來看,他們有一種思維模式,他們認為世界就是先進行預(yù)訓(xùn)練,然后進行推理,而推理就是向AI提問并立即得到答案。”黃仁勛說,“我不知道這種誤解是誰造成的,但顯然,這種觀念是錯誤的?!?/p>
黃仁勛表示,盡管預(yù)訓(xùn)練仍然重要,但‘后訓(xùn)練’(post-training)才是“智能最重要的部分”,也是“學(xué)習(xí)解決問題的關(guān)鍵環(huán)節(jié)”。教會人工智能模型更好地“推理”是科技行業(yè)的下一個擴展前沿,仍然依賴于巨大的計算能力。
今年1月,英偉達公司在聲明中也表達了類似的觀點:“推理需要大量的英偉達GPU和高性能的網(wǎng)絡(luò)。我們現(xiàn)在掌握三種縮放定律(Scaling Law):預(yù)訓(xùn)練和后訓(xùn)練,它們會繼續(xù),還有新的測試時間縮放?!?/p>
DeepSeek為AI帶來新活力
在采訪中,黃仁勛還特別稱贊DeepSeek的創(chuàng)新為人工智能領(lǐng)域注入了新的活力,“這太令人興奮了。隨著R1的開源,世界各地的熱情高漲,這太不可思議了?!?/p>
英偉達目前仍控制著AI市場的主導(dǎo)份額,一直是全球AI熱潮的最大受益者之一。近日,摩根大通美國股票研究部分析師在報告中表示,DeepSeek可能會對英偉達產(chǎn)生積極影響。
小摩分析師表示,DeepSeek展示的成本效益和AI創(chuàng)新將帶來對更高性能GPU的“強勁需求” 。因此,英偉達在先進 AI 芯片方面的領(lǐng)導(dǎo)地位“應(yīng)該能夠讓他們解鎖新的用例”。