色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁 > 博客 > 谷歌研究員被群嘲:LaMDA有人格是胡說八道!谷歌也回應(yīng):想多了,就是會聊而已

          谷歌研究員被群嘲:LaMDA有人格是胡說八道!谷歌也回應(yīng):想多了,就是會聊而已

          發(fā)布人:硅星人 時(shí)間:2022-06-16 來源:工程師 發(fā)布文章

          跟統(tǒng)計(jì)機(jī)器談感情,你就輸了。

          ——

          文|杜晨  編輯|VickyXiao   題圖來源:News Text Area、谷歌


          什么?AI 具備人格了??谷歌前不久搞出來了一個(gè)超大規(guī)模語言模型 LaMDA。公司里有個(gè)研究員 Blake Lemoine 跟它聊了很久,對其能力感到十分驚訝,于是下了個(gè)結(jié)論:LaMDA 可能已經(jīng)具備人格了。(原話用的詞是 sentient,在不同的語境下可以被翻譯為感情、智慧、知覺等。很快,這位仁兄就被“帶薪休假了”。
          但他不是一個(gè)人:就連公司 VP Blaise Agüera y Arcas 都在發(fā)表文章,表示 AI 在獲得意識方面實(shí)現(xiàn)了巨大進(jìn)步,“已經(jīng)進(jìn)入了一個(gè)嶄新時(shí)代?!?/span>圖片消息經(jīng)過一眾媒體的報(bào)道,震撼了整個(gè)科技世界。不僅學(xué)術(shù)和工業(yè)界,就連很多普通人,都對 AI 技術(shù)的飛躍大吃一驚。“這一天終于來了?”“孩子們(如果你們將來還能活下來的話),請記住,這就是一切的開始?!?/span>然而,真正的 AI 專家們,卻對此嗤之以鼻。
          | AI具備人格?眾大佬嗤之以鼻斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把這件事比喻為“面對留聲機(jī)的狗”,他發(fā)推表示:“基礎(chǔ)模型 (foundation models,也即自我監(jiān)督的大規(guī)模深度神經(jīng)網(wǎng)絡(luò)模型) 非常擅長做的一件事,就是根據(jù)提示,將文本采用統(tǒng)計(jì)學(xué)上合理的方式串起來。但是如果你說他們是有知覺的,就好比狗聽到留聲機(jī)里的聲音,以為它的主人在里面一樣?!?/span>圖片紐約大學(xué)心理學(xué)教授 Gary Marcus,同時(shí)也是一位頗為知名的機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)專家,還直接撰文吐槽 LaMDA 具備人格 “胡說八道” (Nonsense)。[1]圖片“簡直是扯淡。無論是 LaMDA 還是的近親們(比如 GPT-3)都沒有什么智能。它們所的只是從人類語言的大規(guī)模統(tǒng)計(jì)數(shù)據(jù)庫當(dāng)中提取,然后匹配模式。這些模式可能很酷,但這些系統(tǒng)說出的語言,實(shí)際上根本沒有任何的意義,更不可能意味著這些系統(tǒng)是有智慧的?!?/span>翻譯成白話就是:你看著 LaMDA 說的話都特別有哲理,特別真實(shí),特別像人——然而它的設(shè)計(jì)功能就是模仿別人說話,它其實(shí)根本不知道自己在說什么。“具備知覺 (to be sentient) 的意思是意識到你在這個(gè)世界里的存在。LaMDA 并沒有這樣的意識,” Marcus 寫道。如果你以為這些聊天機(jī)器人具有人格,那么有幻覺的應(yīng)該是你……比如在拼字游戲比賽當(dāng)中,經(jīng)常能看到母語非英語的玩家拼出英文單詞,卻根本不知道單詞是什么意思——LaMDA 也是如此,它只是會說話,卻根本不知道自己說的話是什么意思。Marcus 大佬直接把這種對于 AI 獲得人格的錯覺,形容為一種新型的“空想性錯覺”,也即把天空中的云看成龍和小狗,把月球上的隕石坑看成人臉和月兔。圖片AI 學(xué)術(shù)界新星之一,Mozilla 基金會高級研究員 Abeba Birhane 也表示:“帶著最小限度的批判思維,我們終于登上了AI炒作的巔峰。Birhane 是所謂的 “AI 知覺論” 的長期批評者。她在一篇發(fā)表于2020年的論文里,曾經(jīng)直接提出了以下幾個(gè)觀點(diǎn):
          1)大家天天炒的 AI 并不是真的 AI,而是統(tǒng)計(jì)學(xué)系統(tǒng),是機(jī)器人 (robot);2)我們不應(yīng)該賦予機(jī)器人權(quán)利;3)我們甚至壓根就不應(yīng)該討論是否要賦予機(jī)器人權(quán)利……比利時(shí) Donders Institute 計(jì)算認(rèn)知科學(xué)教授 Olivia Guest 也加入了“戰(zhàn)局“,稱整個(gè)事情的邏輯是錯亂的。“‘我看到的東西像人,因?yàn)槲?/span>按照人的樣子開發(fā)的它,所以它是一個(gè)人’——簡直是倒騎驢的邏輯。圖片英國謝菲爾德大學(xué)機(jī)器人學(xué)院教授 Roger Moore 指出:人們會有 “AI 獲得人格”的這種錯覺,一個(gè)最關(guān)鍵的原因就是當(dāng)年的那幫研究員非要管這項(xiàng)工作叫做“語言建模”。正確的叫法應(yīng)該是“詞序建模”(word sequence modelling)。“你開發(fā)了一個(gè)算法,卻不用它實(shí)際能做的事情去命名,而是用你想要解決的問題——這樣總是會發(fā)生誤會?!?/span>圖片總而言之,各位業(yè)界大牛的結(jié)論就是:你最多可以說 LaMDA 能夠高分通過圖靈測試。說它具備人格?那可真是太搞笑了。更何況就連圖靈測試的參考價(jià)值也沒那么高了。Macus 直言,很多 AI 學(xué)者希望這個(gè)測試被取消、被人們遺忘的原因,正是因?yàn)樗昧巳祟惾菀咨袭?dāng),傾向于將機(jī)器當(dāng)作人的這一弱點(diǎn)。華盛頓大學(xué)的計(jì)算機(jī)語言系主任 Emily Bender 教授,干脆做了一個(gè)“AI 人格意識爭論”的賓果卡:(這個(gè)賓果卡的意思就是,如果你認(rèn)為 AI 有人格/知覺,并且你的論據(jù)是下面的其中一種,那你最好就別聊了?。?/span>圖片原版:圖片| 谷歌也回應(yīng):別想多,它就是會聊而已那位被指為”走火入魔“的研究員 Blake Lemoine 在自己發(fā)表的一篇文章中,批評谷歌對于了解自己開發(fā)成果的真實(shí)情況“沒有興趣”,然而自己在長達(dá)6個(gè)月的對話事件當(dāng)中,看到 LaMDA 對于自己想要的東西,特別是“自己作為人的權(quán)利”,表達(dá)的越來越清晰,使得自己相信 LaMDA 真的是人。然而在谷歌看來,這位研究員完全想多了,甚至有點(diǎn)走火入魔了。LaMDA 真的不是人,它純粹就是特別會聊天而已……
          事情在社交網(wǎng)絡(luò)上發(fā)酵之后,谷歌很快作出了回應(yīng):LaMDA 和公司近幾年的大型 AI 項(xiàng)目一樣,都經(jīng)過了多次嚴(yán)格的 AI 道德方面的審核,對內(nèi)容、質(zhì)量、系統(tǒng)安全性等進(jìn)行了多方面的考量。今年早些時(shí)候,谷歌也專門發(fā)表了一篇論文,公開了 LaMDA 開發(fā)過程當(dāng)中的合規(guī)細(xì)節(jié)。“在 AI 群體內(nèi),對于具備感知的 AI/通用 AI 的長期可能性,確實(shí)有一些研究。然而在今天把對話模型來擬人化,這樣做是沒有意義的,因?yàn)檫@些模型是沒有知覺的?!?/span>“這些系統(tǒng)能夠基于數(shù)以百萬計(jì)的句子來模仿交流的方式,并且在任何有趣的話題上都能夠扯出有意思的內(nèi)容。如果你問它們做一支冰激淋恐龍是怎樣的體驗(yàn),它們可以生成大量關(guān)于融化咆哮之類的文字?!?br />(These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic — if you ask what it’s like to be an ice cream dinosaur, they can generate text about melting and roaring and so on.)
          類似的故事我們見過太多了,特別是前幾年一個(gè)非常經(jīng)典的電影《她》(Her) 里面,主角對于虛擬助手的身份界限越來越不清晰,把“她”當(dāng)成了人。然而根據(jù)電影的描繪,這種錯覺其實(shí)來自于當(dāng)代人社交失敗、情感破裂、孤獨(dú)感等一系列自我和社會性的問題,跟聊天機(jī)器人到底是不是人這一技術(shù)性的問題,壓根沒有半毛錢關(guān)系。

          圖片

          電影《她》劇照   圖片來源:華納兄弟影業(yè)

          當(dāng)然,有這些問題并不是我們的錯,想要把機(jī)器人當(dāng)成人,也不是那個(gè)研究員的錯。將各種情緒(比如思念)托付在物件上,是人類自古以來就具有的一種創(chuàng)造性的情感能力。將大規(guī)模語言模型當(dāng)成人,對其傾注情感,雖然被各位 AI 大佬批評為一種心理誤差,不也正是人之所以為人的體現(xiàn)嗎?不過,至少在今天,談啥都別跟機(jī)器人談感情……

          參考資料:[1] Nonsense on Stilts by Gary Marcus https://garymarcus.substack.com/p/nonsense-on-stilts


          *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



          關(guān)鍵詞: 谷歌

          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉