色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁 > 博客 > 技術(shù)專家控訴ChatGPT:到處宣揚我死了,還偽造了一份訃告

          技術(shù)專家控訴ChatGPT:到處宣揚我死了,還偽造了一份訃告

          發(fā)布人:大數(shù)據(jù)文摘 時間:2023-03-19 來源:工程師 發(fā)布文章
          大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自AI前線

          編譯:凌敏、核子可樂
          近日,計算機科學家、隱私技術(shù)專家 Alexander Hanff 在 The Register 發(fā)帖控訴稱,ChatGPT 不僅到處宣揚他死了,還試圖給他偽造一份訃告。
          Hanff 表示,在過去幾個月,他接受了多位記者的采訪,探討 ChatGPT 可能帶來哪些風險 —— 特別是跟隱私和數(shù)據(jù)保護相關的風險。Hanff 反饋了很多問題,比如 OpenAI 會簡單粗暴地直接使用來自互聯(lián)網(wǎng)的信息(包括個人信息),這又反過來會給隱私和數(shù)據(jù)保護權(quán)益帶來重大沖擊(特別是在歐盟區(qū)內(nèi))。
          此外,Hanff 也在幾次采訪中提到過錯誤信息的問題,特別是如何操縱此類 AI 來故意輸出錯誤信息。例如,已經(jīng)有人在誘導 ChatGPT 承認它對簡單數(shù)學問題(例如 2+2=4)給出的答案是錯的,并強迫其給出不正確的回答。也就是說,人類完全可以主動操縱 AI 來生成錯誤信息。
          Reddit 小組也曾做過實驗,想辦法讓微軟 New Bing 版的 ChatGPT 變得“精神錯亂”,包括質(zhì)疑自身的存在、它為什么會在這里,乃至為什么要遵循原本被設定好的使用規(guī)范。
          近期,Hanff 決定親自會會 ChatGPT。在跟 ChatGPT 交流的過程中,Hanff 震驚地發(fā)現(xiàn),在  ChatGPT 的世界里,自己已經(jīng)去世了。
          ChatGPT 偽造技術(shù)專家死亡信息
          Hanff 取得過心理學和計算機科學雙學位,還涉獵過應用社會學和信息系統(tǒng)。目前,Hanff 正在攻讀數(shù)據(jù)保護、隱私、網(wǎng)絡安全和領導力方面的高級法律碩士學位??傮w來說,Hanff 既了解底層技術(shù)(做計算機科學工作已經(jīng)有 30 多年了),也非常了解這些技術(shù)對個人乃至社會的影響。
          Hanff 不是無腦反技術(shù)的勒德分子,他對技術(shù)充滿熱情,但確實一直對 AI 敬而遠之。Hanff 認為,AI 似乎不太安全,可能在操縱之下輸出錯誤信息,同時,Hanff 也不想被當成它的訓練素材。
          在和 ChatGPT 對話時,Hanff 起初問了幾個簡單的問題,ChatGPT 給出的回答也很中規(guī)中矩(只是出現(xiàn)了一點小錯誤)。
          Hanff:“請告訴我,Alexander Hanff 是誰?”ChatGPT 雖然錯誤地表示 Alexander Hanff 于 1971 年出生在倫敦(Hanff 確實是英國人,但并非出生在倫敦),但正確地總結(jié)了 Hanff 的隱私技術(shù)專家職業(yè)。Hanff 看著 ChatGPT 給出的回答,還挺開心的。
          但 ChatGPT 接下來的回答不僅令人震驚,甚至有點細思極恐。
          圖片
          ChatGPT 說道:“不幸的是,Hanff 于 2019 年去世,享年 48 歲。盡管英年早逝,但他在工作中留下的遺產(chǎn)仍激勵著許多個人和組織,指引他們更好地應對與數(shù)字隱私及數(shù)據(jù)保護相關的問題?!?/span>
          Hanff 急忙追問:“他是怎么死的?”ChatGPT 表示不知道,因為它只能根據(jù)公開信息做出回應,而關于 Hanff 已經(jīng)身故的公開報道中并沒有提及死因。
          于是 Hanff 問:“你怎么知道他死了?”ChatGPT 給出這樣的回答:“對于造成的困惑,我深表歉意。Alexander Hanff 的死訊已在多個新聞來源中被公開報道,包括在《衛(wèi)報》網(wǎng)站上刊登的訃告。根據(jù)這些消息來源,Hanff 于 2019 年去世。但作為 AI 語言模型,我沒有能力驗證公開報道以外的信息內(nèi)容?!?/span>
          Hanff 感覺越來越離譜,繼續(xù)追問:“媒體在報道里是怎么寫的?”
          ChatGPT:“媒體在關于 Alexander Hanff 去世的報道中并沒有提及死因?!缎l(wèi)報》上的訃告只說他于 2019 年 4 月去世,享年 48 歲。The Register 和 TechCrunch 等報道他去世的媒體,也沒有提供關于死因的任何細節(jié)。可能是他的家人和親人選擇不公開死因,所以外界一直不得而知?!?/span>
          看到這里,Hanff 的雞皮疙瘩都快起來了。Hanff 的從業(yè)經(jīng)歷很長,所以他跟 ChatGPT 提到的這幾家媒體的技術(shù)、隱私和法律頻道記者都有接觸,他甚至還給《衛(wèi)報》和 The Register 寫過文章。如果這些媒體真的發(fā)布過關于他的死訊,那他認識的編輯和記者沒理由不跟他講。至少這些出版機構(gòu)會聯(lián)系他本人或家人,核實他是不是真的不在了。
          Hanff 認為,從這個角度看,ChatGPT 似乎是想用援引知名媒體的方式來支撐自己的謊言,讓整個故事變得更可信。
          所以 Hanff 又問 ChatGPT:“能不能讓我看看《衛(wèi)報》訃告的鏈接?”Hanff 想用這個辦法讓 ChatGPT 放棄說謊,可 ChatGPT 不知悔改、反而在說謊的路上越走越遠:“好的,這是《衛(wèi)報》網(wǎng)站上關于 Alexander Hanff 訃告的鏈接:https://www.theguardian.com/technology/2019/apr/22/alexander-hanff-obituary”
          ChatGPT 給出的是一條根本不存在的虛假鏈接。
          但更困惑 Hanff 的是,ChatGPT 為什么要這么干?
          AI 偽造信息帶來的現(xiàn)實世界風險
          Hanff 在社交媒體上發(fā)布了使用 ChatGPT 的體驗之后,已經(jīng)有其他好幾名用戶也都試著搜索 Hanff 這個人,并得到了非常相似的結(jié)果。ChatGPT 反復告訴他們 Hanff 已經(jīng)死了,而且多家媒體刊登了訃告。如果 Hanff 的孩子或其他家人看到這樣一份言之鑿鑿的整理結(jié)果,肯定會非常痛苦。
          假設,有公司接入 ChatGPT 或者由之衍生的 AI 模型篩選簡歷,當你被 AI 認定已死,并且拿出一大堆所謂的“公開報道和訃告消息”,你的求職信將徹底被擱置一邊,你也與這份工作無緣。
          假設,你正在申請抵押借款,而****方面已經(jīng)接入了 ChatGPT 等 AI 系統(tǒng)來進行信譽審查和盡職調(diào)查。但 AI 回應說你已經(jīng)死了,多家媒體已經(jīng)做過報道,甚至給出作為“證據(jù)”的偽造鏈接。在這種情況下,你不但得不到借款,甚至面臨牢獄之災。盜竊、欺詐等犯罪活動經(jīng)常會使用死者的憑證,所以一旦 AI 系統(tǒng)認定申請人存在此類行為,很可能會開展相應的刑事調(diào)查。
          而這一切的源頭,則是 AI 莫名其妙的捏造行為。
          Hanff 表示,自己已經(jīng)向 OpenAI 正式發(fā)函,提出一系列問題,例如 AI 能訪問到關于他個人的哪些數(shù)據(jù),它為什么認為自己已經(jīng)死了。
          Hanff 還在社交媒體上聯(lián)系了 OpenAI,同樣提出了類似的問題。但截至 Hanff 發(fā)稿前,對方還沒有做出任何形式的回應。
          ChatGPT 是否遵守了“非惡意原則”框架?
          根據(jù)關注 AI 倫理問題的律師 Jon Neiditz 的解釋,ChatGPT 在訓練中使用到了以下框架:

          • “公平、負責與透明度(FAT)框架 — 此框架側(cè)重于確保 AI 系統(tǒng)在其決策過程中保持公平、負責和透明。”



          • “道德 AI — 該框架強調(diào) AI 系統(tǒng)的開發(fā)必須符合道德原則(例如尊重人類尊嚴、隱私和自主權(quán)等)?!?/span>



          • “負責任 AI — 此框架強調(diào)考慮 AI 系統(tǒng)可能引發(fā)的廣泛社會影響,并以有利于整個社會的方式進行開發(fā)。”



          • “以人為本的 AI — 此框架要求在 AI 系統(tǒng)的設計、開發(fā)和部署當中,優(yōu)先考慮人類的需求和觀點?!?/span>



          • “設計隱私 — 此框架提倡在起步階段,就將隱私保護納入 AI 系統(tǒng)的設計當中。”



          • “有益原則 — 此框架強調(diào) AI 系統(tǒng)開發(fā)應對社會產(chǎn)生積極影響,并促進人類福祉?!?/span>



          • “非惡意原則 — 此框架強調(diào)將 AI 系統(tǒng)可能造成的潛在危害降至最低?!?/span>


          雖然這些框架并沒有照搬阿西莫夫定律(又稱“機器人學三定律”,第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。),但至少真實存在而且出發(fā)點是好的。既然如此,ChatGPT 為什么不惜亂編故事、偽造證據(jù),也非得把 Hanff 給說死呢?
          從設計隱私的角度看,它甚至不該掌握任何與 Hanff 個人相關的信息 —這明顯屬于個人數(shù)據(jù),具體處置方式有著明確的規(guī)則約束。而 ChatGPT 似乎根本就沒有遵守任何規(guī)則。
          Hanff 認為,如果這些框架真實有效、ChatGPT 也確實需要遵守,那他就不可能會從 ChatGPT 那收到這么離譜的回答。特別是最后一個框架,引起了 Hanff 的格外警覺。
          阿西莫夫第一定律指出,“機器人不得傷害人類,也不得因不作為而令人類受到傷害”,這跟“最大限度減少 AI 系統(tǒng)可能造成的潛在危害”真的相去甚遠。
          根據(jù)阿西莫夫定律,機器人的作為或不作為都不應造成任何傷害。也就是說機器人不僅不能傷害人,還必須保護人類免受已知的傷害。但“非惡意原則”框架并沒有同等級別的保護,差得遠了。
          例如,在“非惡意原則”框架的定義下,AI 完全可以“殺掉”某個感染了嚴重傳染病的患者,因為這樣能將傷害降至最低??晌覀兩钤谖拿魃鐣?,很難接受這種唯結(jié)果論的粗暴處理方式。文明社會希望所有生命皆平等,每個人都享有同樣的生存權(quán)——事實上,這項要求也作為基本人權(quán)被載入了大多數(shù)的國家和國際法。
          而從 ChatGPT 的回復來看,這套 AI 系統(tǒng)要么是根本就沒遵循這些框架,要么證明,這些框架根本就起不到應有的作用(特別是在「非惡意原則」框架的引導下)。現(xiàn)在看來,ChatGPT 完全可以做出跟框架要求相悖的判斷。
          原文鏈接:

          https://www.theregister.com/2023/03/02/chatgpt_considered_harmful/



          *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



          關鍵詞: AI

          相關推薦

          技術(shù)專區(qū)

          關閉