日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      奧特曼深夜發(fā)動價格戰(zhàn),GPT-4o mini暴跌99%!清華同濟(jì)校友立功,GPT-3.5退役

      發(fā)布時間:2024-07-20 08:00:47 編輯: 來源:
      導(dǎo)讀 相信很多大家對奧特曼深夜發(fā)動價格戰(zhàn),GPT-4o mini暴跌99%!清華同濟(jì)校友立功,GPT-3.5退役還不知道吧,今天菲菲就帶你們一起去了解一下~....

      相信很多大家對奧特曼深夜發(fā)動價格戰(zhàn),GPT-4o mini暴跌99%!清華同濟(jì)校友立功,GPT-3.5退役還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      【新智元導(dǎo)讀】GPT-4o mini深夜忽然上線,OpenAI終于開卷小模型!每百萬輸入token已達(dá)15美分的超低價,跟GPT-3相比,兩年內(nèi)模型成本已降低99%。Sam Altman驚呼:通往智能的成本,已變得如此低廉!另外,清華同濟(jì)校友為關(guān)鍵負(fù)責(zé)人。

      OpenAI,也開始進(jìn)軍小模型了。

      就在今天深夜,GPT-3.5退場,全新發(fā)布的GPT-4o mini,更小、性能更強(qiáng),更重要的是——更便宜!

      GPT-3.5,再見!

      每百萬個輸入token15美分,每百萬個輸出token60美分,MMLU得分82%,性能超快。

      CEO Sam Altman感慨道:通往智能的成本,竟是如此低廉。

      是的,如火如荼的大模型價格戰(zhàn),OpenAI也入場了。

      Altman回顧說:就在2022年,世界上最好的模型是還是text-davinci-003(GPT-3的版本)。

      但如今,與這個新模型相比,text-davinci-003差得太多太多。甚至,價格要高出100倍。

      相較于GPT-3.5,GPT-4o mini性能更強(qiáng),價格還要便宜60%以上,成本直線下降。

      大模型的成本,兩年間下降了99%,等再過幾年呢?簡直不敢想。

      以前,用OpenAI模型構(gòu)建應(yīng)用程序可能會產(chǎn)生巨額費(fèi)用,沒有能力對其修改的開發(fā)者,極有可能放棄它,轉(zhuǎn)投更便宜的模型,比如谷歌的Gemini1.5Flash或者Anthropic的Claude3Haiku。

      如今OpenAI終于等不住,出手了。

      現(xiàn)在,所有人都可以在ChatGPT中用上GPT-4o mini了。

      小模型,但對標(biāo)GPT-4Turbo

      GPT-4o mini的知識更新到去年10月,語言種類和GPT-4o對齊,上下文窗口為128k。

      目前在API中僅支持文本和視覺模態(tài),未來還將擴(kuò)展到視頻和音頻的輸入/輸出。

      雖然沒有披露參數(shù)規(guī)模,但OpenAI的官博文章表示,這是他們目前最經(jīng)濟(jì)、最有成本效益的小模型,微調(diào)功能也將很快上線。

      神奇的是,GPT-4o mini在LMSYS排行榜上聊天偏好方面的表現(xiàn)甚至優(yōu)于GPT-4。在總榜上,排名可以和GPT-4Turbo匹敵。

      上周模型還沒發(fā)布,就已經(jīng)有超過6000名用戶投票給早期版本「upcoming-gpt-mini」,但目前該模型的結(jié)果已經(jīng)被撤下。

      LMSYS在推特上宣布,正在重新收集投票,很快就會發(fā)布正式版模型的成績。

      GPT0-4o mini的發(fā)布,顯然將大幅擴(kuò)展AI應(yīng)用的范圍。

      它不僅低成本、低延遲,還支持廣泛的任務(wù),比如鏈?zhǔn)交虿⑿姓{(diào)用多個模型的應(yīng)用(調(diào)用多個 API),向模型傳遞大量上下文(完整代碼庫或?qū)υ挌v史),或通過快速、實時的文本響應(yīng)與客戶互動(支持聊天機(jī)器人)。

      并且,由于與GPT-4o共享改進(jìn)的分詞器(tokenizer),它處理起非英語文本會更加經(jīng)濟(jì)高效。

      目前,GPT-4o mini在API中支持文本和視覺,未來還將支持多模態(tài)功能,包括文本、圖像、視頻和音頻的輸入和輸出。

      聽起來,它像是功能更強(qiáng)大的虛擬助理,比如了解我們的旅行行程并給出建議。

      文本、數(shù)學(xué)、編碼、多模態(tài),效果拔群

      在文本智能和多模態(tài)推理方面,GPT-4o mini已經(jīng)超越了GPT-3.5Turbo和其他小模型,GPT-4o支持的語言它也都支持。

      長上下文處理性能上,它比起GPT-3.5Turbo也有所改進(jìn)。

      在函數(shù)調(diào)用上,GPT-4o mini同樣表現(xiàn)出色,因此開發(fā)者可以更方便地構(gòu)建應(yīng)用。

      看一下GPT-4o mini的關(guān)鍵基準(zhǔn)測試成績。

      推理任務(wù)

      文本和視覺推理任務(wù)上,GPT-4o優(yōu)于其他小模型。

      在MMLU上,它的得分為82.0%,而Gemini Flash為77.9%,Claude Haiku為73.8%。

      數(shù)學(xué)和編碼能力

      在數(shù)學(xué)推理和編碼任務(wù)中,GPT-4o同樣表現(xiàn)出色,優(yōu)于市場上的小模型。

      在MGSM上,在MGSM上,GPT-4o mini得分為87.0%,而Gemini Flash為75.5%,Claude Haiku為71.7%。

      在HumanEval上,GPT-4o mini得分為87.2%,而Gemini Flash為71.5%,Claude Haiku為75.9%。

      多模態(tài)推理

      GPT-4o mini在MMMU上也表現(xiàn)強(qiáng)勁,得分為59.4%,而Gemini Flash為56.1%,Claude Haiku為50.2%。

      實測表明,無論是從收據(jù)文件中提取結(jié)構(gòu)化數(shù)據(jù),還是根據(jù)郵件線程生成高質(zhì)量回復(fù),GPT-4o mini在這類任務(wù)上的表現(xiàn)都明顯比GPT-3.5Turbo更好。

      這也印證了業(yè)界一直在討論的觀點:模型的大小,并不重要。

      性價比極高

      在性價比方面,Artificial Analysis已經(jīng)為我們整理出了詳細(xì)的分析。

      GPT-4o mini的定價為:輸入每1M token15美分,輸出每1M token60美分。

      1M token什么概念?大致相當(dāng)于2500頁書。

      這個價格已經(jīng)卷到了頭部模型的最低檔,僅次于Llama38B。

      從下表中可以看到,在目前頭部廠商發(fā)布的所有小模型中,GPT-4o mini超越Gemini1.5Flash、Llama38B、Mistral7B等眾多競品,成為性價比之最。

      越靠近左上的模型,性價比越高

      不僅是性價比最好,GPT-4o mini在輸出的速度和質(zhì)量上也實現(xiàn)了目前SOTA水平的優(yōu)化權(quán)衡,甚至比GPT-4o更佳。

      將質(zhì)量和生成速度分開來看,效果依舊能打。

      Artificial Analysis上的質(zhì)量指數(shù)代表Chatbot、MMLU和MT-Bench等基準(zhǔn)的歸一化平均性能。

      GPT-4o mini得分為85,和Gemini1.5Flash、Llama370B基本處于同一水平,勝過Mixtral系列的8×22B和8×7B型號。

      MMLU的得分也基本與質(zhì)量指數(shù)一致,但比較亮眼的是在HumanEval編碼任務(wù)上的評分。

      87.2分的成績,超過了谷歌系最強(qiáng)模型Gemini1.5Pro!

      推理效率方面,183token/s的生成讓GPT-4o mini成為這個榜單上的絕對王者,相比第二名Gemini1.5Flash還要快18token/s。

      除了生成速度,目前API的響應(yīng)延遲(TTFT)也算優(yōu)秀,雖然沒打過Phi-3、Llama37B等小模型,但差距也不算太大。

      在響應(yīng)延遲和token生成速度上,GPT-4o mini都有非常優(yōu)秀的成績,但需要注意的是,這兩個指標(biāo)與推理所用的硬件規(guī)格高度相關(guān),而且模型僅開放API,并沒有第三方進(jìn)行部署后的測評。

      模型發(fā)布之后,GPT-4o mini能否始終保持這樣的高效率推理,更值得期待。

      除了生成質(zhì)量和推理效率,GPT-4o mini在上下文長度方面算是中規(guī)中矩,畢竟GPT-4o也才128k,沒法和最長1M的Gemini系列抗衡。

      「真正實現(xiàn)OpenAI使命」

      「我認(rèn)為GPT-4o mini真正實現(xiàn)了OpenAI的使命——讓人們更廣泛地接觸AI。如果我們希望AI惠及世界每個角落、每個行業(yè)、每個應(yīng)用程序,我們就必須讓AI變得更便宜?!笰PI平臺產(chǎn)品負(fù)責(zé)人Olivier Godement這樣介紹。

      使用Free、Plus、Team套餐的ChatGPT用戶,現(xiàn)在都可以使用GPT-4o mini了,企業(yè)用戶也可以在下周獲得訪問權(quán)限。

      對于ChatGPT用戶,GPT-3.5已經(jīng)消失,但開發(fā)者仍能通過API調(diào)用GPT-3.5。

      不過,GPT-3.5也將在某一時間從API中退役,但具體時間點還不確定。

      對于渴望低成本構(gòu)建應(yīng)用的開發(fā)者來說,GPT-4o mini來得太及時了。

      金融初創(chuàng)公司Ramp在測試中,用它構(gòu)建了提取收據(jù)上費(fèi)用的工具,不必費(fèi)力瀏覽文本框,模型就會自動對所有內(nèi)容排序。

      顯然,OpenAI不想再讓開發(fā)者流失到更便宜的Claude3Haiku和Gemini1.5Flash。

      但是,OpenAI為什么花了這么久?

      Godement表示,這涉及到一個「優(yōu)先考慮」的問題。

      此前OpenAI專注于GPT-4這樣的大模型,而隨著時間的推移,OpenAI終于注意到了開發(fā)者們渴望對小模型的愿景,才終于決定投入資源。

      OpenAI非常有信心,GPT-4o mini一定會非常受歡迎。

      網(wǎng)友:LLM變小,競爭加劇

      Sclaing Law要卷,小模型也要卷。

      一大早,不僅OpenAI放出了GPT-4o mini,另一邊Mistral聯(lián)手英偉達(dá)推出12B小模型Nemo,性能趕超Gema和Llama-38B。

      Karpathy對此表示,「大模型的參數(shù)規(guī)模競爭正在加劇……但方向是相反的」!

      HuggingFace創(chuàng)始人表示,「這個星期是小模型的一周」。

      OpenAI研究員Hyung Won Chung表示,「雖然我們比任何人都更喜歡訓(xùn)練大模型,但OpenAI也知道如何訓(xùn)練小模型」。

      網(wǎng)友對當(dāng)前地表最強(qiáng)模型的價格進(jìn)行了匯總:

      作為參考,如果你想對美國24小時內(nèi)所說或所聽到的每一個單詞進(jìn)行推理,僅需要花費(fèi)不到20萬美元。

      不過,最近比較火的陷阱題——9.11和9.9究竟誰大,進(jìn)化后的GPT-4o mini依然失敗了。

      幾天前,剛完成進(jìn)化后的AutoGPT,也可以正式支持GPT-4o mini。

      Altman本人在評論區(qū)中,預(yù)告了GPT-4o語音功能Alpha版本將在本月末上線。

      當(dāng)然,所有人還是更期待GPT-5上線。

      在OpenAI設(shè)想的未來里,模型將會被無縫集成到每一個應(yīng)用程序和每一個網(wǎng)站之上。

      如今,隨著GPT-4o mini的推出,為開發(fā)者更高效、更經(jīng)濟(jì)地構(gòu)建和擴(kuò)展強(qiáng)大的AI應(yīng)用鋪平道路。

      可以看到,AI正在變得更容易訪問、可靠,并會融入到所有人的日常體驗中。

      而OpenAI,會繼續(xù)引領(lǐng)這一進(jìn)程。

      作者介紹

      GPT-4o的作者名單,也是長到讓人印象深刻。

      其中,項目負(fù)責(zé)人是Mianna Chen。

      Mianna Chen曾在普林斯頓大學(xué)取得了學(xué)士學(xué)位。2020年,她獲得了賓夕法尼亞大學(xué)沃頓商學(xué)院MBA學(xué)位。

      入職OpenAI之前,她在2015年加入谷歌任職近3年,中間還跳槽至一家初創(chuàng)Two Sigma,隨后再次入職DeepMind任職1年多產(chǎn)品主管。

      其他負(fù)責(zé)人為Jacob Menick,Kevin Lu,Shengjia Zhao,Eric Wallace,Hongyu Ren,Haitang Hu,Nick Stathas,F(xiàn)elipe Petroski Such。

      Kevin Lu

      Kevin Lu獲得了加州大學(xué)伯克利分校電子工程和計算機(jī)科學(xué)學(xué)士學(xué)位,曾與Pieter Abbeel和Igor Mordatch合作研究強(qiáng)化學(xué)習(xí)和序列建模。

      在校期間,他還擔(dān)任過助教,在伯克利人工智能研究院擔(dān)任本科研究員。

      目前,他已入職OpenAI,成為了一名研究員。

      Shengjia Zhao

      Shengjia Zhao是斯坦福大學(xué)計算機(jī)科學(xué)系的博士,本科畢業(yè)于清華大學(xué)。

      獲得博士學(xué)位后,Shengjia Zhao直接加入了OpenAI,擔(dān)任技術(shù)研究員,至今已有2年多的時間。

      目前,他主要從事大語言模型的訓(xùn)練和對齊工作,負(fù)責(zé)ChatGPT的研究。

      Haitang Hu

      Haitang Hu在霍普金斯約翰大學(xué)取得了計算機(jī)碩士學(xué)位,此前還在同濟(jì)大學(xué)獲得了計算機(jī)科學(xué)和技術(shù)學(xué)士學(xué)位。

      本科畢業(yè)后,他加入了NS Solution公司,任職3年系統(tǒng)工程師。隨后,進(jìn)入霍普金斯約翰大學(xué)繼續(xù)攻讀。

      2016年取得碩士學(xué)位后,Haitang Hu入職谷歌,就職7年工程師。直到23年9月,他正式加入了OpenAI。

      參考資料:

      https://artificialanalysis.ai/models/gpt-4o-mini

      https://x.com/karpathy/status/1814038096218083497

      https://openai.com/index/gpt-4o-mini-advancing-cost-efficient-intelligence/

      以上就是關(guān)于【奧特曼深夜發(fā)動價格戰(zhàn),GPT-4o mini暴跌99%!清華同濟(jì)校友立功,GPT-3.5退役】的相關(guān)內(nèi)容,希望對大家有幫助!

      免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

      熱點推薦

      精選文章