日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      ChatGPT后,人工智能的終極里程碑卻倒了

      發(fā)布時(shí)間:2024-08-18 10:30:08 編輯: 來源:
      導(dǎo)讀 相信很多大家對ChatGPT后,人工智能的終極里程碑卻倒了還不知道吧,今天菲菲就帶你們一起去了解一下~.~! 大模型的擬人行為,在讓我們產(chǎn)生...

      相信很多大家對ChatGPT后,人工智能的終極里程碑卻倒了還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      大模型的擬人行為,在讓我們產(chǎn)生恐怖谷效應(yīng)。

      「圖靈測試是一個(gè)糟糕的測試標(biāo)準(zhǔn),因?yàn)閷υ捘芰屯评硗耆莾纱a事。」最近幾天,AI 圈里一個(gè)新的觀點(diǎn)正在流行。

      如今已是生成式 AI 時(shí)代,我們評價(jià)智能的標(biāo)準(zhǔn)該變了。

      「機(jī)器能思考嗎?」這是艾倫?圖靈在他1950年的論文《計(jì)算機(jī)器與智能》中提出的問題。圖靈很快指出,鑒于定義「思考」的難度,這個(gè)問題「毫無意義,不值得討論」。正如哲學(xué)辯論中常見的做法,他建議用另一個(gè)問題代替它。

      圖靈設(shè)想了一個(gè)「模仿游戲」,在這個(gè)游戲中,一位人類評判員分別與一臺(tái)計(jì)算機(jī)和一名人類(陪襯者)對話,雙方都試圖讓評判員相信自己才是真正的人類。

      重要的是,計(jì)算機(jī)、陪襯者和評判員之間互相無法對視,他們完全通過文本進(jìn)行交流。在與每個(gè)候選者對話后,評判員猜測誰是真正的人類。

      圖靈的新問題是:「是否存在可想象的數(shù)字計(jì)算機(jī),能在模仿游戲中表現(xiàn)出色?」

      論文鏈接:

      https://academic.oup.com/mind/article/LIX/236/433/986238?login=false

      這個(gè)由圖靈提出的游戲,現(xiàn)在被廣泛稱為圖靈測試,用以反駁廣泛存在的直覺性認(rèn)知:「由于計(jì)算機(jī)的機(jī)械性質(zhì),在原理層面上就不可能思考?!?/p>

      圖靈的觀點(diǎn)是:如果一臺(tái)計(jì)算機(jī)在表現(xiàn)上與人類無法區(qū)分(除了它的外貌和其他物理特征),那么為什么我們不將其視為一個(gè)有思維的實(shí)體呢?為什么我們要將「思考」的資格僅限于人類(或更廣泛地說,僅限于由生物細(xì)胞構(gòu)成的實(shí)體)?正如計(jì)算機(jī)科學(xué)家斯科特?阿倫森所描述的,圖靈的提議是「一種反對『肉體沙文主義』的呼吁」。

      圖靈測試是一種思想而不是「方法」

      圖靈將他的測試作為一個(gè)哲學(xué)思想實(shí)驗(yàn),而不是一種可以實(shí)際衡量機(jī)器智能的方法。然而,在公眾的認(rèn)知中,圖靈測試已經(jīng)成為人工智能(AI)的終極里程碑 —— 評判通用機(jī)器智能是否到來的主要標(biāo)準(zhǔn)。

      如今,近75年過去了,關(guān)于 AI 的報(bào)道充斥著聲稱圖靈測試已被通過的論調(diào),尤其是像 OpenAI 的 ChatGPT 和 Anthropic 的 Claude 這樣的聊天機(jī)器人的推出之后。

      去年,OpenAI 的首席執(zhí)行官山姆?奧特曼發(fā)文稱:「面對技術(shù)變革,人們的適應(yīng)能力和韌性得到了很好的體現(xiàn):圖靈測試悄然過去,大多數(shù)人繼續(xù)他們的生活。」

      各大媒體也發(fā)表了類似的標(biāo)題,例如某家報(bào)紙報(bào)道稱,「ChatGPT 通過了著名的『圖靈測試』—— 表明該 AI 機(jī)器人具有與人類相當(dāng)?shù)闹悄??!?/p>

      英國每日發(fā)行的老牌報(bào)刊 —— 每日郵報(bào)

      甚至像 BBC 這樣的全球最大媒體之一、具有廣泛影響力的公共傳媒機(jī)構(gòu)甚至在2014年就提出計(jì)算機(jī) AI 已經(jīng)通過了圖靈測試。

      https://www.bbc.com/news/technology-27762088

      然而,問題是:現(xiàn)代聊天機(jī)器人真的通過了圖靈測試嗎?如果是這樣,我們是否應(yīng)該像圖靈所提議的那樣,賦予它們「思考」的地位?

      令人驚訝的是,盡管圖靈測試在文化上具有廣泛的重要性,長久以來,AI 社區(qū)卻對通過圖靈測試的標(biāo)準(zhǔn)沒有達(dá)成一致意見。許多人懷疑,具備能夠欺騙人的對話技能是否真正揭示了系統(tǒng)的底層智能或「思考」能力。

      一千個(gè)人眼中很可能有一千個(gè)圖靈測試標(biāo)準(zhǔn)。

      圖靈獎(jiǎng)得主 Geoffery Hinton 在一次訪談中談及了他的「圖靈測試標(biāo)準(zhǔn)」,他認(rèn)為 Palm 等聊天機(jī)器人可以解釋笑話為何有趣,這可以視為其智能的標(biāo)志。如今的大模型,如 GPT-4非常擅長解釋一個(gè)笑話為何有趣,這被認(rèn)為是其圖靈測試的一部分標(biāo)準(zhǔn)。

      相比于其他科學(xué)家對于圖靈測試嚴(yán)肅的定義,Hinton 的看法雖然詼諧,但仍是道出了他對「人工智能是否有思考能力」這一終極命題的思考。

      訪談視頻鏈接:https://www.youtube.com/watch?v=PTF5Up1hMhw

      一場「圖靈鬧劇」

      由于圖靈并沒有提出一個(gè)具有完整實(shí)際操作說明的測試。

      他對「模仿游戲」的描述缺乏細(xì)節(jié):

      測試應(yīng)該持續(xù)多長時(shí)間?

      允許提出什么類型的問題?

      人類的評判員或「陪襯者」需要具備什么樣的資格?

      對于這些具體問題,圖靈并未詳細(xì)說明。不過,他做了一個(gè)具體的預(yù)測:「我相信,大約在50年內(nèi),計(jì)算機(jī)可以通過編程變得極其出色,以至于普通的審問者在經(jīng)過五分鐘的提問后,識(shí)別出真實(shí)人類的概率不超過70%?!购喍灾?,在五分鐘的對話中,評判員有平均30% 的幾率會(huì)被誤導(dǎo)。

      有些人將這一隨意的預(yù)測視為通過圖靈測試的「官方」標(biāo)準(zhǔn)。2014年,英國皇家學(xué)會(huì)在倫敦舉辦了一場圖靈測試比賽,參賽的有五個(gè)計(jì)算機(jī)程序、30個(gè)人類陪襯和30名評判員。

      參與的人類群體多樣,既有年輕人也有年長者,既有母語是英語的人也有非母語者,既有計(jì)算機(jī)專家也有非專家。每位評判員分別與一對參賽者(一名人類和一臺(tái)機(jī)器)進(jìn)行了多輪五分鐘的并行對話,之后評判員必須猜測誰是人類。

      一款名為「尤金?古斯特曼(Eugene Goostman)」的聊天機(jī)器人,扮演一名少年,竟然成功欺騙了10名評判員(欺騙率:33.3%)。

      顯然「欺騙率」已經(jīng)超過了圖靈當(dāng)時(shí)所言的30%。

      尤金?古斯特曼(Eugene Goostman)模擬的是一名13歲男孩。

      根據(jù)「在五分鐘內(nèi)有30% 幾率欺騙」的標(biāo)準(zhǔn),組織者宣布:「65年前的標(biāo)志性圖靈測試首次被計(jì)算機(jī)程序『尤金?古斯特曼』通過了圖靈測試,這一里程碑將載入史冊……」。

      AI 專家在閱讀這場圖靈測試中的主角「尤金?古斯特曼(Eugene Goostman)」對話的記錄后,對該聊天機(jī)器人通過圖靈測試的說法嗤之以鼻,認(rèn)為這個(gè)不夠復(fù)雜且不像人類的聊天機(jī)器人并未通過圖靈設(shè)想的測試。

      有限的對話時(shí)間和評判員的專業(yè)水平不均使得這次測試更像是對人類輕信的考驗(yàn),而非機(jī)器智能的展示。結(jié)果卻是「ELIZA 效應(yīng)」的一個(gè)鮮明例子 —— 這個(gè)效應(yīng)得名于1960年代的聊天機(jī)器人 ELIZA,盡管其極其簡單,但仍能讓許多人誤以為它是一個(gè)理解并富有同情心的心理治療師。

      這凸顯了我們?nèi)祟悆A向于把能夠與我們對話的實(shí)體賦予智能的心理傾向。

      ELIZA 是圖靈測試「發(fā)表」后的最早期聊天機(jī)器人之一,它是一個(gè)非常基礎(chǔ)的羅杰斯派心理治療聊天機(jī)器人。

      另一項(xiàng)圖靈測試比賽 —— 勒布納獎(jiǎng)(Loebner Prize)允許更長的對話時(shí)間,邀請了更多專家評委,并要求參賽機(jī)器至少欺騙一半的評委。有趣的是,當(dāng)標(biāo)準(zhǔn)提高后,在近30年的年度比賽中,沒有一臺(tái)機(jī)器通過這一版本的測試。

      圖靈測試開始轉(zhuǎn)向

      盡管圖靈的原始論文中缺乏關(guān)于如何具體實(shí)施測試的細(xì)節(jié),但很明顯,模仿游戲需要三名參與者:一臺(tái)計(jì)算機(jī)、一位人類陪襯者和一位人類評判員。然而,隨著時(shí)間的推移,「圖靈測試」這一術(shù)語在公眾討論中的含義逐漸演變?yōu)橐粋€(gè)明顯弱化的版本:任何人與計(jì)算機(jī)之間的互動(dòng),只要計(jì)算機(jī)表現(xiàn)得足夠像人類,就被視為通過了圖靈測試。

      例如,當(dāng)《華盛頓郵報(bào)》在2022年報(bào)道「谷歌的 AI 通過了一個(gè)著名測試 —— 并展示了該測試的缺陷」時(shí),他們指的并不是模仿游戲,而是谷歌工程師布雷克?萊莫因(Blake Lemoine)認(rèn)為谷歌的 LaMDA 聊天機(jī)器人具有「感覺能力(sentient)」。

      2024年,斯坦福大學(xué)發(fā)布的一份新聞稿宣布,斯坦福團(tuán)隊(duì)的研究「標(biāo)志著人工智能首次通過了嚴(yán)格的圖靈測試之一」。但這里所謂的圖靈測試是通過比較 GPT-4在心理調(diào)查和互動(dòng)游戲中的行為統(tǒng)計(jì)與人類的行為統(tǒng)計(jì)來完成的。

      這種定義可能與圖靈的初衷相去甚遠(yuǎn):斯坦福團(tuán)隊(duì)的定義是「我們認(rèn)為,當(dāng) AI 的回應(yīng)在統(tǒng)計(jì)上無法與隨機(jī)選取的人類回應(yīng)區(qū)分開來時(shí),它就通過了圖靈測試。」

      最新的,聲稱聊天機(jī)器人通過圖靈測試的案例來自2024年的一項(xiàng)研究,該研究采用了「雙人模式」的測試:與圖靈的「三人」模仿游戲(其中裁判會(huì)同時(shí)詢問計(jì)算機(jī)和人類陪襯)不同,這里每個(gè)裁判只與計(jì)算機(jī)或人類互動(dòng)。

      研究人員招募了500名人類參與者,每人被分配為裁判或人類陪襯。每位裁判與陪襯、GPT-4(提示了人類編寫的如何欺騙裁判的建議)或 ELIZA 聊天機(jī)器人版本玩一輪五分鐘的游戲。通過網(wǎng)絡(luò)界面交談五分鐘后,裁判猜測他們的對話對象是人類還是機(jī)器。

      最后,人類陪襯在67% 的回合中被判定為人類;GPT-4在54% 的回合中被判定為人類,ELIZA 在22% 的回合中被判定為人類。作者將「通過」定義為超過50% 的時(shí)間欺騙評委 —— 也就是說,超過隨機(jī)猜測的概率。按照這個(gè)定義,GPT-4通過了,盡管人類對手的得分仍然更高。

      令人擔(dān)憂的是,大多數(shù)人類判斷者在五分鐘的對話之內(nèi)被 GPT-4欺騙了。使用生成式人工智能系統(tǒng)冒充人類傳播虛假信息或進(jìn)行詐騙是社會(huì)必須應(yīng)對的風(fēng)險(xiǎn)。但如今的聊天機(jī)器人真的通過了圖靈測試嗎?

      答案當(dāng)然是,這取決于你談?wù)摰氖悄膫€(gè)版本的測試。一場由專家評委和更長對話時(shí)間組成的三人模仿游戲仍然沒有被任何機(jī)器通過(有人計(jì)劃在2029年舉行一個(gè)超嚴(yán)格的版本)。

      由于圖靈測試的重點(diǎn)是試圖騙過人類,而不是更直接地測試智能。許多人工智能研究人員長期以來一直認(rèn)為圖靈測試是一種干擾,是一種「不是為了讓人工智能通過,而是為了人類失敗」的測試。但該測試的重要性在大多數(shù)人眼中仍然占據(jù)主導(dǎo)地位。

      進(jìn)行對話是我們每個(gè)人評估其他人類的重要方式。我們很自然地認(rèn)為,能夠流利交談的智能體必須擁有類似人類的智能和其他心理特征,如信仰、欲望和自我意識(shí)。

      然而,如果說人工智能的發(fā)展歷史教會(huì)了我們什么,那就是這些假設(shè)往往是站在錯(cuò)誤的直覺上的。幾十年前,許多著名的人工智能專家認(rèn)為,創(chuàng)造一臺(tái)能夠在國際象棋比賽中擊敗人類的機(jī)器需要與人類完全智能相當(dāng)?shù)臇|西。

      人工智能先驅(qū) Allen Newell 和 Herbert Simon 在1958年寫道:「如果一個(gè)人能設(shè)計(jì)出一臺(tái)成功的國際象棋機(jī)器,他似乎已經(jīng)深入到人類智力的核心。」認(rèn)知科學(xué)家 Douglas Hofstadter 在1979年預(yù)測,未來「可能會(huì)有程序可以在國際象棋比賽中擊敗任何人,但…… 它們將是通用智能的程序?!?/p>

      當(dāng)然,在接下來的二十年里,IBM 的 DeepBlue 擊敗了世界國際象棋冠軍加里?卡斯帕羅夫,使用的是一種與我們所說的「通用智能」相去甚遠(yuǎn)的蠻力方法。同樣,人工智能的進(jìn)步表明,曾經(jīng)被認(rèn)為需要通用智能的任務(wù) —— 語音識(shí)別、自然語言翻譯,甚至自動(dòng)駕駛 —— 都可以由缺乏人類理解能力的機(jī)器來完成。

      圖靈測試很可能會(huì)成為我們不斷變化的智力觀念的又一個(gè)犧牲品。1950年,圖靈直覺地認(rèn)為,像人類一樣交談的能力應(yīng)該是「思考」及其所有相關(guān)能力的有力證據(jù)。這種直覺至今仍然很有說服性。但也許我們從 ELIZA 和 Eugene Goostman 身上學(xué)到的東西,以及我們可能仍能從 ChatGPT 及其同類產(chǎn)品中學(xué)到的東西是,能夠流利地說出自然語言,比如下棋,并不是通用智力存在的確鑿證據(jù)。

      事實(shí)上,神經(jīng)科學(xué)領(lǐng)域中有越來越多的證據(jù)表明,語言流利程度與認(rèn)知的其他方面出奇地脫節(jié)。麻省理工學(xué)院神經(jīng)科學(xué)家 Ev Fedorenko 等人通過一系列細(xì)致而令人信服的實(shí)驗(yàn)表明,他們所謂的「正式語言能力」(與語言生成相關(guān)的能力)背后的大腦網(wǎng)絡(luò)與常識(shí)、推理和我們可能稱之為「思考」的其他方面背后的網(wǎng)絡(luò)大體上是分開的。這些研究人員聲稱,我們直覺上認(rèn)為流利的語言是一般智力的充分條件,這是一種「謬論」。

      圖靈在1950年的論文中寫道:「我相信,到本世紀(jì)末,詞語的使用和普遍受教育的觀點(diǎn)將會(huì)發(fā)生巨大的變化,人們將能夠談?wù)摍C(jī)器思考,而不會(huì)遭到反駁。」如今的我們還沒有到達(dá)那個(gè)地步。圖靈的預(yù)測是否只是偏離了幾十年?真正的改變是否發(fā)生在我們對「思考」的概念上?—— 還是說真正的智能比圖靈和我們所認(rèn)識(shí)到的更復(fù)雜、更微妙?一切還有待觀察。

      有趣的是,最近谷歌前 CEO 埃里克?施密特在那場斯坦福大學(xué)的演講里也發(fā)表了觀點(diǎn)。

      在很長一段歷史中,人類對宇宙的理解更多是神秘的,科學(xué)革命改變了這種情況。然而現(xiàn)在的 AI 卻再次讓我們無法真正理解其中的原理。知識(shí)的本質(zhì)是否正在發(fā)生變化?我們是否要開始接受這些 AI 模型的結(jié)果,與此同時(shí)不再需要它們解釋給我們聽呢?

      施密特是這樣說的:我們可以將其比作是青少年。如果你有個(gè)十來歲的孩子,你知道他們是人類,但你卻無法完全理解他們的想法。我們的社會(huì)顯然適應(yīng)青少年的存在。我們可能會(huì)有無法完全理解的知識(shí)系統(tǒng),但我們理解它們的能力范圍。

      這可能就是我們能夠獲得的最好結(jié)果。

      以上就是關(guān)于【ChatGPT后,人工智能的終極里程碑卻倒了】的相關(guān)內(nèi)容,希望對大家有幫助!

      免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

      熱點(diǎn)推薦

      精選文章