色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 人工智能應(yīng)用和隱私保護如何兼得?

          人工智能應(yīng)用和隱私保護如何兼得?

          作者: 時間:2019-06-19 來源:新浪科技 收藏

          在人們越來越看重個人和信息安全的當下,技術(shù)是把雙刃劍。如何讓在保障用戶安全的軌道上有序發(fā)展,正成為國內(nèi)外共同關(guān)注的焦點和難點。

          本文引用地址:http://cafeforensic.com/article/201906/401660.htm

          5月16日,美國舊金山市政府通過《停止秘密監(jiān)察條例》法案,禁止舊金山的政府機構(gòu)使用人臉識別技術(shù),并將“靠人臉識別技術(shù)獲得某些信息”列為違法行為。這無疑是一種保護的措施,但也引起諸多爭議。

          國內(nèi)某著名計算機視覺創(chuàng)業(yè)公司一位要求匿名的副總裁在接受《中國科學(xué)報》采訪時反問:“舊金山已經(jīng)不再是一座能讓人感到安全的城市,人臉識別作為提高安全系數(shù)的基礎(chǔ)工具,反而禁止使用,不知道什么技術(shù)手段可以保證安全?”

          和隱私安全不可兼得?

          有意思的是,最近亞馬遜公司的股東以壓倒性多數(shù)票,否決了該公司停止向政府機構(gòu)出售其人臉識別技術(shù)的一項提議,只有2.4%的股東投票贊成這項禁令。

          “這兩件事情放在一起看非常有意思?!鄙鲜龈笨偛谜f,這說明圍繞個人隱私、群體安全問題,對于人臉識別技術(shù)的使用需要一個平衡。“這個平衡,就是一個好的規(guī)則規(guī)范——不僅要去規(guī)范人臉識別技術(shù)企業(yè),還要去規(guī)范使用這些技術(shù)的機構(gòu)?!?/p>

          實際上,人臉識別技術(shù)所創(chuàng)造的價值是被認可的。該副總裁認為,假使只是因為不確定使用人臉識別技術(shù)能夠帶來什么后果就直接禁用,那么這只能是一種短視或者短期行為。

          “在滿足某些條件的情況下,這種技術(shù)當然是可以應(yīng)用的?!彼f道,“作為發(fā)明和使用新技術(shù)的人,都要去認真思考這些問題,并且一起努力促使新規(guī)范的形成,而不是直接禁止掉?!?/p>

          隨著大數(shù)據(jù)的使用、算力的提高和算法的突破,人工智能正變得無處不在。由此帶來的問題是,人們一方面享受人工智能帶來的“紅利”,另一方面則面臨隱私被當做“資源”過度和非法使用的困境。如何應(yīng)對人們隱私“裸奔”的挑戰(zhàn)變得越發(fā)嚴峻。

          技術(shù)手段:區(qū)塊鏈技術(shù)被派上場

          以“人工智能+醫(yī)療”為例,人工智能技術(shù)在醫(yī)療健康領(lǐng)域的應(yīng)用潛力巨大,但也面臨著數(shù)據(jù)的問題——用以訓(xùn)練人工智能模型的大量醫(yī)學(xué)數(shù)據(jù),可能是圖像、基因組、電子健康記錄等這些非常敏感的信息。

          基于醫(yī)院的數(shù)據(jù)進行訓(xùn)練的人工智能算法有望獲得診斷、預(yù)防疾病和甚至治療疾病的能力。但在許多國家,由于法律原因,醫(yī)療記錄無法輕易共享并提供給算法。這使得利用人工智能在醫(yī)學(xué)圖像或數(shù)據(jù)中發(fā)現(xiàn)疾病的研究通常只能涉及相對較小的數(shù)據(jù)集,極大地制約了技術(shù)應(yīng)用前景。

          美國加州大學(xué)伯克利分校一家創(chuàng)業(yè)公司“綠洲實驗室”(Oasis Labs),致力于探索利用云計算和區(qū)塊鏈等技術(shù)確保用于研究的醫(yī)療數(shù)據(jù)等信息不被泄露或濫用。目前,斯坦福大學(xué)醫(yī)學(xué)院已經(jīng)批準綠洲實驗室與相關(guān)的研究人員一道在該院開展實驗,測試他們的技術(shù)對解決上述兩難問題是否有效果。

          綠洲實驗室首先將患者的個人數(shù)據(jù)存儲在一款合作設(shè)計的安全芯片上,并保存在云端。外部人員——希望以數(shù)據(jù)集訓(xùn)練算法的工程師們,可以在該系統(tǒng)(安全芯片+云端)下,利用數(shù)據(jù)運行算法并輸出結(jié)果。該系統(tǒng)也會在接收到數(shù)據(jù)訪問請求時,觸發(fā)基于區(qū)塊鏈的軟件上的智能合約系統(tǒng),智能合約不僅會記錄數(shù)據(jù)的使用方式,還能檢查機器學(xué)習(xí)計算是否被正確執(zhí)行。

          綠洲實驗室聯(lián)合創(chuàng)始人兼加州大學(xué)伯克利分校教授Dawn Song介紹說,該技術(shù)還可以推及人工智能在其他領(lǐng)域的應(yīng)用,例如財務(wù)記錄、個人購買習(xí)慣或網(wǎng)頁瀏覽數(shù)據(jù)。不過他表示,在探索其他領(lǐng)域之前,他們的計劃是先推動此技術(shù)在醫(yī)療領(lǐng)域的應(yīng)用。

          盡管綠洲實驗室的技術(shù)探索展現(xiàn)出了潛力,但美國弗吉尼亞大學(xué)專門研究機器學(xué)習(xí)與安全問題的專家埃文斯仍持保守態(tài)度。他指出,在安全硬件中存儲數(shù)據(jù)也有失敗的風(fēng)險。一旦硬件制造方遭遇攻擊,它所處理的數(shù)據(jù)就會面臨風(fēng)險。并且,現(xiàn)在也沒有證據(jù)證明,區(qū)塊鏈一定就是可靠的技術(shù)。

          立法約束:讓合規(guī)應(yīng)用有章可循

          在沒有好的技術(shù)措施解決問題之前,使用法規(guī)法律保護隱私和個人信息安全,是全球通用的做法。

          2018年5月,歐盟頒布的被稱為“史上最嚴”的《通用數(shù)據(jù)保護條例》(GDPR),就對企業(yè)獲取及使用數(shù)據(jù)的方式進行了嚴格的限定。GDPR要求經(jīng)營者告知并獲得客戶同意才可記錄用戶搜索等記錄,且不能使用模糊、冗長的語言政策來獲取用戶數(shù)據(jù)使用許可等。并且,GDPR對違法企業(yè)的懲處力度也是空前的。

          中國科學(xué)院自動化研究所研究員曾毅認為,GDPR值得我國借鑒。雖然GDPR在實施初期,遭到很多企業(yè)質(zhì)疑且難以推行,但隨著企業(yè)接受并按要求落實,他們將得到更多用戶的認可和信任。

          曾毅告訴《中國科學(xué)報》,如果人工智能系統(tǒng)不能盡力確保個人數(shù)據(jù)的安全性,不但無法贏得用戶信賴,而且將觸犯相關(guān)法律。人工智能的研發(fā)者、服務(wù)提供者、使用者都應(yīng)充分了解有關(guān)個人數(shù)據(jù)安全的行業(yè)共識、規(guī)范、管理辦法、法律,以促進人工智能的健康發(fā)展。

          “加快立法的同時,還應(yīng)考慮我國國情,保護人工智能的發(fā)展‘土壤’?!眹鴥?nèi)智能設(shè)備體系安全服務(wù)提供商同余科技創(chuàng)始人袁開國對《中國科學(xué)報》舉例說,比如要明確數(shù)據(jù)的所有權(quán)屬于用戶,企業(yè)不能非法使用、兜售用戶數(shù)據(jù);但如果企業(yè)是為了更好地服務(wù)用戶,在經(jīng)過用戶授權(quán)允許下,可以對用戶數(shù)據(jù)進行深層次分析,明確數(shù)據(jù)的使用權(quán)。

          “隱私保護是對公民基本人權(quán)的保護,也影響著國民經(jīng)濟的發(fā)展?!敝袊鐣茖W(xué)院哲學(xué)研究所研究員、北京協(xié)和醫(yī)學(xué)院生命倫理學(xué)研究中心學(xué)術(shù)委員會主任邱仁宗在接受《中國科學(xué)報》采訪時表示,隨著技術(shù)的發(fā)展,人們的各種信息可以被輕易獲取。

          “我反對這種未經(jīng)授權(quán)的‘人肉搜索’。”邱仁宗表示,應(yīng)該認真研究GDPR,開展由人工智能專家、倫理學(xué)家、公眾代表、監(jiān)管人員參與的個人數(shù)據(jù)保護研討會,盡快制定我國的專門法律法規(guī)。



          關(guān)鍵詞: 人工智能 隱私

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉