日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      Meta首款多模態(tài)Llama 3.2開源!1B羊駝寶寶,跑在手機上了

      發(fā)布時間:2024-09-26 15:00:53 編輯: 來源:
      導讀 相信很多大家對Meta首款多模態(tài)Llama 3.2開源!1B羊駝寶寶,跑在手機上了還不知道吧,今天菲菲就帶你們一起去了解一下~.~! 【新智元導讀】...

      相信很多大家對Meta首款多模態(tài)Llama 3.2開源!1B羊駝寶寶,跑在手機上了還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      【新智元導讀】Meta首個理解圖文的多模態(tài)Llama3.2來了!這次,除了11B和90B兩個基礎(chǔ)版本,Meta還推出了僅有1B和3B輕量級版本,適配了Arm處理器,手機、AR眼鏡邊緣設(shè)備皆可用。

      Llama3.1超大杯405B剛過去兩個月,全新升級后的Llama3.2來了!

      這次,最大的亮點在于,Llama3.2成為羊駝家族中,首個支持多模態(tài)能力的模型。

      Connect大會上,新出爐的Llama3.2包含了小型(11B)和中型(90B)兩種版本的主要視覺模型。

      正如Meta所說,這兩款模型能夠直接替代,相對應(yīng)的文本模型,而且在圖像理解任務(wù)上擊敗了閉源Claude3Haiku。

      甚至,90B版本擊敗了GPT-4o mini。

      就連英偉達高級科學家Jim Fan都不禁夸贊,在輕量級模型中,開源社區(qū)整體上并不落后!

      同時,為了適配邊緣計算和終端設(shè)備,Meta還推出了1B和3B兩個輕量級純文本的版本,可支持128K上下文。

      別看參數(shù)少,1B/3B在總結(jié)摘要、指令遵循、重寫等任務(wù)上,表現(xiàn)非常出色,而且專為Arm處理器做了優(yōu)化。

      LeCun激動地表示,「可愛的大羊駝寶寶來了」!

      Meta首席技術(shù)官對Llama3.2的發(fā)布,做了兩大亮點總結(jié):

      首個既能識別圖像,又能理解文本的多模態(tài)模型。最重要的是,能夠媲美閉源模型

      超輕量1B/3B模型,解鎖更多終端設(shè)備可能性

      有網(wǎng)友對此點評道,這可能是改變游戲規(guī)則的進步,邊緣設(shè)備AI正在壯大。

      能力一覽

      11B和90B這兩款模型,不僅支持圖像推理場景,包括圖表和圖形在內(nèi)的文檔級理解、圖像描述以及視覺定位任務(wù),而且還能基于現(xiàn)有圖表進行推理并快速給出回答。

      比如,你可以問「去年哪個月銷售業(yè)績最好?」,Llama3.2就會根據(jù)現(xiàn)有圖表進行推理,并迅速給出答案。

      輕量級的1B和3B模型則可以幫助不僅在多語言文本生成和工具調(diào)用能力方面表現(xiàn)出色,而且具有強大的隱私保護,數(shù)據(jù)永遠不會離開設(shè)備。

      之所以在本地運行模型備受大家的青睞,主要在于以下兩個主要優(yōu)勢:

      提示詞和響應(yīng)能夠給人瞬間完成的感覺

      應(yīng)用程序可以清晰地控制哪些查詢留在設(shè)備上,哪些可能需要由云端的更大模型處理

      性能評估

      結(jié)果顯示,Llama3.2視覺模型在圖像識別等任務(wù)上,與Claude3Haiku和GPT-4o mini不相上下。

      3B模型在遵循指令、總結(jié)、提示詞重寫和工具使用等任務(wù)上,表現(xiàn)優(yōu)于Gemma22B和Phi3.5mini;而1B模型則與Gemma旗鼓相當。

      視覺模型

      作為首批支持視覺任務(wù)的Llama模型,Meta為11B和90B型打造了一個全新的模型架構(gòu)。

      在圖像輸入方面,訓練了一組適配器權(quán)重,將預訓練的圖像編碼器集成到預訓練的大語言模型中。

      具體來說,該適配器:

      由一系列交叉注意力層組成,負責將圖像編碼器的表示輸入進大語言模型

      通過在文本-圖像對上的訓練,實現(xiàn)圖像表示與語言表征的對齊

      在適配器訓練期間,Meta會對圖像編碼器的參數(shù)進行更新,但不會更新大語言模型參數(shù)。

      也就是說,模型的純文本能力便不會受到任何影響,而開發(fā)者也可以將之前部署的Llama3.1無縫替換成Llama3.2。

      具體的訓練流程如下:

      首先,為預訓練的Llama3.1文本模型添加圖像適配器和編碼器,并在大規(guī)模噪聲圖像-文本對數(shù)據(jù)上進行預訓練。

      然后,在中等規(guī)模的高質(zhì)量領(lǐng)域內(nèi)和知識增強的圖像-文本對數(shù)據(jù)上,再次進行訓練。

      接著,在后訓練階段采用與文本模型類似的方法,通過監(jiān)督微調(diào)、拒絕采樣和直接偏好優(yōu)化進行多輪對齊。并加入安全緩解數(shù)據(jù),保障模型的輸出既安全又實用。

      這在期間,模型所使用的高質(zhì)量微調(diào)數(shù)據(jù),正是來自合成數(shù)據(jù)生成技術(shù)——使用Llama3.1模型在領(lǐng)域內(nèi)圖像的基礎(chǔ)上過濾和增強問題答案,并使用獎勵模型對所有候選答案進行排序。

      最終,我們就能得到一系列可以同時接受圖像和文本提示詞的模型,并能夠深入理解和對其組合進行推理。

      對此,Meta自豪地表示表示:「這是Llama模型向更豐富的AI智能體能力邁進的又一步」。

      得到全新Llama3.2加持的助手Meta AI,在視覺理解力上非常強。

      比如,上傳一張切開的生日蛋糕圖片,并問它制作配方。

      Meta AI便會給出手把手教程,從配料到加工方式,一應(yīng)俱全。

      又或者你發(fā)給它一張小羊的照片,并要求將其放在沖浪板上。

      不一會兒功夫,一只站在沖浪板上的山羊圖畫好了。

      輕量模型

      通過利用剪枝(pruning)和蒸餾(distillation)這兩種方法,Meta讓全新的1B和3B模型,成為了首批能夠高效地適應(yīng)設(shè)備的、具有高能力的輕量級Llama模型。

      剪枝能夠減小Llama的規(guī)模,并盡可能地保留知識和性能

      在此,Meta采用了從Llama3.180億參數(shù)模型進行單次結(jié)構(gòu)化剪枝的方法。也就是,系統(tǒng)地移除網(wǎng)絡(luò)的部分內(nèi)容,并調(diào)整權(quán)重和梯度的幅度,從而創(chuàng)建一個更小、更高效的大語言模型,同時保留原始網(wǎng)絡(luò)的性能。

      完成剪枝之后,則需要使用知識蒸餾來恢復模型的性能。

      知識蒸餾是讓一個更大的網(wǎng)絡(luò)給更小的網(wǎng)絡(luò)傳授知識

      也就是,較小的模型可以借助教師模型的指導,獲得比從頭開始訓練更好的性能。為此,Meta在預訓練階段融入了來自Llama3.18B和70B模型的logits(模型輸出的原始預測值),并將這些較大模型的輸出則用作token級的目標。

      后訓練階段,Meta采用了與Llama3.1類似的方法——通過在預訓練大語言模型基礎(chǔ)上進行多輪對齊來生成最終的聊天模型。

      其中,每一輪都包括監(jiān)督微調(diào)(SFT,Supervised Fine-Tuning)、拒絕采樣(RS,Rejection Sampling)和直接偏好優(yōu)化(DPO,Direct Preference Optimization)。

      在這期間,Meta不僅將模型的上下文長度擴展到了128K token,而且還利用經(jīng)過仔細篩選的合成數(shù)據(jù)和高質(zhì)量的混合數(shù)據(jù),對諸如總結(jié)、重寫、指令跟隨、語言推理和工具使用等多項能力進行了優(yōu)化。

      為了便于開源社區(qū)更好地基于Llama進行創(chuàng)新,Meta還與高通(Qualcomm)、聯(lián)發(fā)科(Mediatek)和Arm展開了密切合作。

      值得一提的是,Meta這次發(fā)布的權(quán)重為BFloat16格式。

      Llama Stack發(fā)行版

      Llama Stack API是一個標準化接口,用于規(guī)范工具鏈組件(如微調(diào)、合成數(shù)據(jù)生成等)以定制Llama大語言模型并構(gòu)建AI智能體應(yīng)用。

      自從今年7月Meta提出了相關(guān)的意見征求之后,社區(qū)反響非常熱烈。

      如今,Meta正式推出Llama Stack發(fā)行版——可將多個能夠良好協(xié)同工作的API提供者打包在一起,為開發(fā)者提供單一接入點。

      這種簡化且一致的使用體驗,讓開發(fā)者能夠在多種環(huán)境中使用Llama大語言模型,包括本地環(huán)境、云端、單節(jié)點服務(wù)器和終端設(shè)備。

      完整的發(fā)布內(nèi)容包括:

      Llama CLI:用于構(gòu)建、配置和運行Llama Stack發(fā)行版

      多種語言的客戶端代碼:包括Python、Node.js、Kotlin和Swift

      Docker容器:用于Llama Stack發(fā)行版服務(wù)器和AI智能體API供應(yīng)商

      多種發(fā)行版:

      單節(jié)點Llama Stack發(fā)行版:通過Meta內(nèi)部實現(xiàn)和Ollama提供

      云端Llama Stack發(fā)行版:通過AWS、Databricks、Fireworks和Together提供

      設(shè)備端Llama Stack發(fā)行版:通過PyTorch ExecuTorch在iOS上實現(xiàn)

      本地部署Llama Stack發(fā)行版:由Dell提供支持

      系統(tǒng)安全

      這次,Meta在模型安全方面主要進行了兩個更新:

      1.Llama Guard311B Vision

      它支持Llama3.2的全新圖像理解能力,并能過濾文本+圖像輸入提示詞或?qū)@些提示詞的文本輸出響應(yīng)。

      2. Llama Guard31B

      它基于Llama3.21B,并在剪枝和量化處理之后,將模型大小從2,858MB縮減至438MB,使部署效率達到前所未有的高度。

      目前,這些新解決方案已經(jīng)集成到了Meta的參考實現(xiàn)、演示和應(yīng)用程序中,開源社區(qū)可以立即開始使用。

      參考資料:

      https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/

      以上就是關(guān)于【Meta首款多模態(tài)Llama 3.2開源!1B羊駝寶寶,跑在手機上了】的相關(guān)內(nèi)容,希望對大家有幫助!

      免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

      熱點推薦

      精選文章