擔心數(shù)據(jù)安全 美國太空部隊禁用生成式AI工具
10月12日消息,在最新泄露的備忘錄中,美國太空部隊已經(jīng)決定暫時禁止使用基于網(wǎng)絡的生成式人工智能工具和所謂的大語言模型,理由是數(shù)據(jù)安全和其他方面的擔憂。
本文引用地址:http://cafeforensic.com/article/202310/451440.htm這份日期為9月29日的備忘錄是寫給“守衛(wèi)者”的,這是對美國太空部隊成員的內(nèi)部稱呼。在備忘錄中,美國太空部隊禁止其成員在基于網(wǎng)絡的生成式人工智能工具上使用任何政府數(shù)據(jù),這些工具可以根據(jù)簡單的提示創(chuàng)建文本、圖像或其他形式的內(nèi)容。備忘錄中稱,除非特別批準,否則上述工具“沒有被授權(quán)”在政府系統(tǒng)上使用。
像OpenAI的ChatGPT這樣的聊天機器人已經(jīng)十分受歡迎,它們利用經(jīng)過大量數(shù)據(jù)訓練的語言模型來預測和生成新的文本。這樣的大語言模型催生了大量人工智能工具,它們可以搜索大量文檔,提取關(guān)鍵細節(jié),并以各種語言風格的連貫方式呈現(xiàn)出來。
美國太空部隊首席技術(shù)和創(chuàng)新官麗莎·科斯塔(Lisa Costa)在備忘錄中表示,生成式人工智能“毫無疑問將徹底改變我們的員工隊伍,提高‘守衛(wèi)者’的業(yè)務能力。”但科斯塔也提到了對網(wǎng)絡安全、數(shù)據(jù)處理和采購要求的擔憂,稱人工智能和大語言模型的采用需要“負起責任”。
美國太空部隊沒有提供進一步的解釋。專家們指出了一種風險,即在某些情況下,提供給大模型的文檔和提示中大量潛在的非公開數(shù)據(jù)可能最終被泄露到公共領(lǐng)域,或以其他方式被黑客入侵。備忘錄稱,科斯塔計劃在30天內(nèi)發(fā)布新的指引。
美國太空部隊的發(fā)言人表示,媒體看到的備忘錄是真實存在的,在決定如何整合支持任務和增強“守衛(wèi)者”能力的同時,該機構(gòu)已經(jīng)發(fā)布了禁令以保護人員和太空部隊的數(shù)據(jù)。
太空部隊的上述決定影響了至少500名使用Ask Sage生成式人工智能平臺的人,該公司創(chuàng)始人尼古拉斯·沙伊蘭(Nicolas Chaillan)說。據(jù)沙伊蘭稱,Ask Sage旨在提供一個安全的生成式人工智能平臺,該平臺可與多種大語言模型兼容,包括微軟和谷歌的模型。
沙伊蘭曾是美國空軍和太空部隊的首席軟件官,他批評了后者暫停使用生成式人工智能的決定,尤其是在國防部呼吁加速采用人工智能的情況下。今年8月,美國國防部成立了一個生成式人工智能工作組,專門研究大語言模型的用例,以及如何在整個國防部分析和整合這些用例?!斑@是一個非常短視的決定,”沙伊蘭說。
美國中情局也已經(jīng)開發(fā)了一種生成式人工智能工具,打算在情報界廣泛使用。沙伊蘭表示,他的平臺已經(jīng)滿足了保護數(shù)據(jù)的安全要求。
沙伊蘭補充說,除了美國太空部隊的用戶外,國防部其他部門的1萬多名用戶,包括空軍的6500名用戶,仍在使用其公司的軟件。他說,國防部的一些用戶甚至自掏腰包支付每月30美元的費用,這有助于他們減輕撰寫報告的負擔。
評論