OpenAI陷入安全危機(jī):攻擊者成功入侵內(nèi)部消息系統(tǒng)
位于舊金山的人工智能巨頭OpenAI,近日陷入了一場安全危機(jī)。據(jù)外媒報道, 2023年年初OpenAI發(fā)生安全事件,攻擊者成功入侵OpenAI的內(nèi)部消息系統(tǒng),竊取了有關(guān)該公司人工智能技術(shù)和研究材料的敏感討論,但黑客并未進(jìn)入托管人工智能源代碼的服務(wù)器。
本文引用地址:http://cafeforensic.com/article/202407/460755.htm由于沒有泄露客戶數(shù)據(jù),OpenAI并沒有披露本次安全事件,也沒有向任何執(zhí)法部門報告,只是在去年4月的全體員工大會上通報了這一漏洞。這一事件不僅暴露了OpenAI在網(wǎng)絡(luò)安全方面的潛在漏洞,更引發(fā)了外界對人工智能技術(shù)安全性的廣泛擔(dān)憂。
本次安全事件導(dǎo)致員工質(zhì)疑OpenAI對安全的重視程度,且成為新的導(dǎo)火索,導(dǎo)致了內(nèi)部員工出現(xiàn)分裂。OpenAI原技術(shù)項目經(jīng)理Leopold Aschenbrenner曾向董事會發(fā)送備忘錄,提出了安全擔(dān)憂,認(rèn)為OpenAI在防止其技術(shù)機(jī)密被盜方面做得不夠。然而,他隨后被解雇,這一舉動進(jìn)一步加劇了外界對OpenAI內(nèi)部管理和安全策略的質(zhì)疑。
值得注意的是,OpenAI發(fā)言人Liz Bourgeois回應(yīng)稱Leopold的離職并非源于此,并表示“雖然我們和他一樣致力于打造安全的通用人工智能,但我們不同意他后來對我們的工作提出的許多說法,包括他對我們安全措施的描述,尤其是這次入侵事件。在他加入公司之前,我們已經(jīng)解決了這個問題,并向董事會報告。”
簡單事實是,AI公司已經(jīng)成為非常有價值數(shù)據(jù)的看門人,包含三種數(shù)據(jù):高質(zhì)量的訓(xùn)練數(shù)據(jù)、大量用戶交互以及客戶數(shù)據(jù)。就像其他任何SaaS產(chǎn)品一樣,AI提供者具有特權(quán)訪問權(quán)限,可能是一些枯燥的舊預(yù)算表或人員記錄,也可能是一些尚未發(fā)布的軟件代碼。AI公司突然成為這些機(jī)密的核心,這一行業(yè)的新穎性帶來了一個特殊風(fēng)險,因為AI流程尚未被標(biāo)準(zhǔn)化或完全理解。
但也許更有價值的是OpenAI龐大的用戶數(shù)據(jù)庫 —— 可能包含數(shù)十億與ChatGPT進(jìn)行的數(shù)百萬話題的對話。今年5月,OpenAI表示已經(jīng)阻止了五次試圖濫用其AI模型進(jìn)行網(wǎng)絡(luò)欺騙活動的行為,暴露了即便是行業(yè)巨頭也可能面臨嚴(yán)重的安全威脅。AI公司成為黑客攻擊目標(biāo)的新趨勢,安全防護(hù)措施重要性凸顯,即使沒有嚴(yán)重數(shù)據(jù)泄露,也應(yīng)引起關(guān)注。
這一事實表明,人工智能技術(shù)不僅面臨被竊取的風(fēng)險,還可能被惡意利用,對社會造成更廣泛的負(fù)面影響。如何在推動技術(shù)創(chuàng)新的同時,確保AI系統(tǒng)的安全性和可控性,成為了全球科技界和政策制定者需要共同面對的挑戰(zhàn)。
評論