日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      首頁 > 今日更新 >

      OpenAI科學家:現(xiàn)有模型&#x2B;后訓練足以產(chǎn)生黎曼猜想的新證明

      發(fā)布時間:2024-12-28 12:00:15來源:

      相信很多大家對OpenAI科學家:現(xiàn)有模型+后訓練足以產(chǎn)生黎曼猜想的新證明還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      一個全新的模型能力衡量指標誕生了?!

      OpenAI科學家塞巴斯蒂安?布貝克(Sebastien Bubeck)(下圖左)表示:

      看到AGI時間這個新概念,網(wǎng)友們也是立即就展開了熱烈的討論。

      有人認為,如果模型可以達到人類需要數(shù)周或數(shù)月才能完成的任務(wù),也就代表它可以將長期推理和計劃結(jié)合起來,也就和真正的AGI差不多了:

      不過也有人表示這個說法有點模糊,人腦也很難機械地把任務(wù)完成時間限定為幾個月、幾年:

      而反方辯手湯姆·麥考伊(Tom Mccoy)則對LLM能否解決復雜的開放性問題持懷疑態(tài)度。

      他表示,語言模型雖令人驚嘆,但能力源于訓練數(shù)據(jù),目前沒有證據(jù)顯示它們可以產(chǎn)生能解決開放問題的新范式。

      讓兩位大佬爭論不休的問題,就是最近由世界知名理論計算機科學機構(gòu)Simons Institute提出的辯題:

      持正方觀點的塞巴斯蒂安?布貝克是應(yīng)用數(shù)學博士,曾在普林斯頓大學擔任助理教授,后在微軟研究院任職十年,主導開發(fā)了 Phi 系列小語言模型,也是Sparks of AGI(AGI的火花)論文的重要作者之一。

      此次辯論中,塞巴斯蒂表示他堅信LLM潛力無限,認為以當前模型的能力加上更多的數(shù)據(jù)和后期訓練就足以解決數(shù)學難題。

      反方辯手湯姆是認知科學博士,現(xiàn)任耶魯大學語言學助理教授,

      他也是“Embers of Autoregression(自回歸余燼)”論文的主要作者,文中他深刻剖析了當前LLM的局限性。

      同時參與這次討論的還有Anthropic的研究員Pavel Izmailov,和MIT諾伯特·維納(Norbert Wiener)數(shù)學教授Ankur Moitra。

      在不改變原意的基礎(chǔ)上,量子位對本次辯論的主要觀點進行了梳理總結(jié),希望能帶給你更多的啟發(fā)和思考。

      正方:o1已展現(xiàn)出自發(fā)的涌現(xiàn)模式

      塞巴斯蒂安首先用數(shù)據(jù)回顧了LLM最近幾年的發(fā)展歷程,他表示GPT系列已在多領(lǐng)域的基準測試上都表現(xiàn)亮眼。

      比如在MMLU測試中,GPT-4成績飆升至86%,o1模型更是逼近95%,遠超 GPT-3的50%,在高中科學知識問答方面已接近人類90% 的水平。

      在醫(yī)學診斷領(lǐng)域,GPT-4準確率高達90%,遠超人類醫(yī)生的75%,有力證明了模型強大的學習與應(yīng)用能力,且這種提升趨勢為解決數(shù)學難題奠定基礎(chǔ)。

      △圖片來自論文Superhuman performance of a large language model on the reasoning tasks of a physician

      他進一步指出:

      依此趨勢,未來實現(xiàn)AGI日級、周級思考時長指日可待,可能明年、后年就能達到。

      屆時,模型將擁有充足時間和能力深入思考復雜數(shù)學問題,從而找到解決重大猜想的路徑。

      同時他還強調(diào)了后訓練技術(shù)的重要性:后訓練技術(shù)是挖掘模型深層潛力的關(guān)鍵。

      從GPT-3.5開始,模型就可以實現(xiàn)在后訓練過程中提取智能。到了o1模型時代,其采用的強化學習等創(chuàng)新訓練范式,使模型在復雜任務(wù)(比如編程、數(shù)學)處理上實現(xiàn)質(zhì)的飛躍。

      尤其是在特定數(shù)學問題中,o1能迅速關(guān)聯(lián)看似不相關(guān)的知識概念,自發(fā)地涌現(xiàn)出一些新的思路,為解決難題提供新線索。

      反方:當前縮放定律依賴數(shù)據(jù)、存在幻覺,難以產(chǎn)生新思考模式

      湯姆則認為,目前LLM的發(fā)展存在3個明顯制約:

      1.LLM受訓練數(shù)據(jù)頻率限制嚴重:

      在單詞計數(shù)和排序任務(wù)中,數(shù)據(jù)頻率影響清晰可見。如統(tǒng)計單詞數(shù)量時,對常見長度列表準確率高,罕見長度則大幅下降;排序任務(wù)中,對常用的字母正序處理良好,逆序則表現(xiàn)不佳。

      這表明模型在面對新證明技術(shù)這類低頻任務(wù)時,缺乏創(chuàng)造性突破的根基,難以跳出訓練數(shù)據(jù)的固有模式。

      而且,根據(jù)各種測評數(shù)據(jù),模型能力與數(shù)據(jù)量級呈對數(shù)關(guān)系,未來想要提升模型能力需要新的指數(shù)級數(shù)據(jù),而目前已有嚴重數(shù)據(jù)瓶頸,在未來幾年很難迅速突破。

      2.長推理過程中的幻覺問題是致命傷:

      即使類o1模型在多步推理場景下進步顯著,但LLM仍易生成錯誤信息。隨著數(shù)學證明篇幅拉長,極低的錯誤率也會因累積效應(yīng)使證明失效。

      也就是人們常說的“薄弱環(huán)節(jié)會破壞整個推理鏈條”,嚴重阻礙模型解決復雜數(shù)學證明的能力。

      o1已經(jīng)可以和人類專家合作,但想要獨自解決數(shù)學問題,必須做到超越人類,目前看起來比較困難,甚至還無法達到以穩(wěn)健的方式使用現(xiàn)有想法。

      3.當前縮放方法本質(zhì)缺陷難破:

      基于語言預測的訓練模式,使模型在處理數(shù)學問題時難以直接觸及深度推理和創(chuàng)新思維核心。

      比如在數(shù)學符號處理和抽象邏輯推導方面,模型的處理方式與專業(yè)數(shù)學方法相比缺乏專業(yè)推導,需要從底層架構(gòu)和訓練理念上進行徹底變革。

      隨后正方還對反方觀點進行了駁斥。

      塞巴斯蒂安表示,當前很多人類的頂級成果是依靠組合現(xiàn)有知識產(chǎn)生的,而模型在這個方面的能力會通過強化學習進一步發(fā)展。

      而且人類在超過50頁的證明中也經(jīng)常會出錯,未來可以讓不同的智能體進行合作互相指正,可以有效減少這一方面的失誤。

      其他專家:需結(jié)合證明驗證器、符號空間探索等方式

      Anthropic研究員帕維爾?伊斯梅洛夫也發(fā)表了觀點,他認為LLM在識別數(shù)據(jù)結(jié)構(gòu)上確有優(yōu)勢,但數(shù)學領(lǐng)域?qū)I(yè)性強,需借助強化學習與Lean等證明驗證器構(gòu)建有效訓練機制。

      鑒于數(shù)學的獨特性,探索類似AlphaGo式的非LLM智能搜索方法在符號空間的應(yīng)用,或許能為解決數(shù)學難題另辟蹊徑,突破語言模型固有局限。

      針對觀眾的提問“飛機也不是完全模擬鳥類的飛行,為什么一定要要求LLM模擬人類思維”的問題,帕維爾首先表示贊同,AlphaGo帶給人類的一個驚喜正是來自于它可以用很多人類沒有的方法下棋。

      但同時他也指出:

      MIT諾伯特·維納數(shù)學教授安庫爾?莫伊特拉(Ankur Moitra)也發(fā)表了自己的看法。

      他也贊同重大數(shù)學問題的解決絕非簡單的能力堆疊:

      他認為當前LLM 雖在部分任務(wù)取得進展,但與解決如黎曼假設(shè)這類問題所需的深度和創(chuàng)新性仍相距甚遠。

      安庫爾還提議,未來模型發(fā)展或許應(yīng)聚焦于知識在模型中的有效表示、數(shù)學家與模型間的高效協(xié)作模式等關(guān)鍵層面,探索新的突破方向。

      現(xiàn)場還進行了一次不記名投票,可以看到正反方的觀點基本還是持平的~

      感興趣的朋友可以查看完整視頻和論文。

      請在手機微信登錄投票

      你覺得未來幾年內(nèi)LLM可以解決重大數(shù)學難題嗎?單選

      參考鏈接:

      [1]辯論完整視頻:https://www.youtube.com/live/H3TnTxVKIOQ

      [2]Sebastien Bubeck撰寫的論文Sparks of AGI:https://arxiv.org/abs/2303.12712

      [3]Tom McCoy撰寫的論文Embers of Autoregression:https://arxiv.org/abs/2309.13638

      以上就是關(guān)于【OpenAI科學家:現(xiàn)有模型+后訓練足以產(chǎn)生黎曼猜想的新證明】的相關(guān)內(nèi)容,希望對大家有幫助!

      免責聲明:本文為轉(zhuǎn)載,非本網(wǎng)原創(chuàng)內(nèi)容,不代表本網(wǎng)觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。