OpenAI再度拉響安全警報:又一高層離職揭示巨大風險
相信很多大家對OpenAI再度拉響安全警報:又一高層離職揭示巨大風險還不知道吧,今天菲菲就帶你們一起去了解一下~.~!
站長之家(ChinaZ.com)5月27日 消息:OpenAI最近面臨了安全團隊成員的連續(xù)離職,其中包括AI策略研究員Gretchen Krueger(簡稱格姐)。她在2019年加入OpenAI,參與了GPT-4和DALL·E2的開發(fā),并在2020年領(lǐng)導了OpenAI第一個全公司范圍的“紅隊”測試?,F(xiàn)在,她也成為了發(fā)出警告的離職員工之一。
格姐在社交媒體上表達了她的擔憂,認為OpenAI在決策流程、問責制、透明度、文檔、策略執(zhí)行等方面需要改進,并應(yīng)采取措施減輕技術(shù)對社會不平等、權(quán)利和環(huán)境的影響。她提到,科技公司有時會通過制造分裂來剝奪那些尋求追究責任的人的權(quán)力,她非常關(guān)心防止這種情況發(fā)生。
格姐的離職是OpenAI安全團隊內(nèi)部動蕩的一部分。在她之前,OpenAI首席科學家Ilya Sutskever和超級對齊負責人Jan Leike也已經(jīng)宣布離職。這些離職事件引發(fā)了外界對OpenAI安全問題決策過程的質(zhì)疑。
OpenAI的安全團隊主要分為三大塊:
超級對齊團隊:專注于控制還不存在的超級智能。
Safety Systems團隊:專注于減少現(xiàn)有模型和產(chǎn)品的濫用。
Preparedness團隊:繪制前沿模型的新興風險。
盡管OpenAI擁有多個安全團隊,但風險評估的最終決策權(quán)仍然掌握在領(lǐng)導層手中。董事會擁有推翻決策的權(quán)利,目前董事會成員包括了來自不同領(lǐng)域的專家和高管。
格姐的離職和她的公開言論,以及OpenAI安全團隊的其他變動,引起了社區(qū)對AI安全性和公司治理的廣泛關(guān)注。這些問題現(xiàn)在對人們和社區(qū)都很重要,它們影響著未來的各個方面如何以及由誰來規(guī)劃。
以上就是關(guān)于【OpenAI再度拉響安全警報:又一高層離職揭示巨大風險】的相關(guān)內(nèi)容,希望對大家有幫助!