投資20億美元:美國防部未來5年壓注高級AI
近日,在美國華盛頓特區(qū)的一次研討會上,美國國防部高級研究計劃局(DARPA)宣布,計劃在未來五年內(nèi),投資20億美元用于人工智能的研究。
本文引用地址:http://cafeforensic.com/article/201809/391726.htm在一個名為“AI Next”的計劃中,該機構目前有超過20個項目正在進行中。這些項目的研究重點包括提高機器學習和人工智能技術的安全性和彈性,提高電力、數(shù)據(jù)和性能方面的效率,并探索這些系統(tǒng)的“可解釋性”。
“機器缺乏上下文推理能力,它們的訓練必須涵蓋所有可能發(fā)生的情況,這樣不僅成本高昂,而且?guī)缀醪豢赡芡瓿??!表椖恐鞴躍teven Walker博士說,“我們希望探索機器如何以類似人類的溝通和推理能力,來識別新情況和環(huán)境,并以此適應它們。”
人工智能是一個廣義術語,它涵蓋了從檢索能力到機器學習的所有內(nèi)容,而且所有的定義都嚴重依賴于消耗數(shù)據(jù)來告知算法和“學習”。DARPA在這一領域有著悠久的研發(fā)歷史,但最近它的研發(fā)成果已被中國等外國強國超越。今年夏天早些時候,中國宣布計劃到2030年成為人工智能領域的領軍者。
在許多情況下,這些人工智能仍處于起步階段,但這項技術——尤其是機器學習——不僅有可能徹底改變用戶與技術的交互方式,還可能徹底改變企業(yè)和政府機構利用這種技術與員工和公民進行交互的方式。
機器學習有一個特點,在學習時,會將學習數(shù)據(jù)里的偏差納入人工智能系統(tǒng)。如果數(shù)據(jù)中包含漏洞或錯誤信息,機器可能得出錯誤的結論,例如:哪類人“更有可能”犯罪,這類錯誤的結論可能會產(chǎn)生非常嚴重的后果。更可怕的是,即使機器產(chǎn)生了偏差,由于人工智能類似于“黑盒子”的原理構造,我們沒有辦法搞清楚它們是否有偏差、產(chǎn)生了哪些偏差以及為什么產(chǎn)生偏差。
換句話說,即使是設計算法的研究人員,也不太了解機器如何得出它們的結論。
也就是說,人工智能存在危險性。但是,如果開發(fā)者足夠謹小慎微,人工智能研究也可以成為創(chuàng)新和進步的源泉。隨著DARPA的研究不斷向前推進,我們將會看到他們?nèi)绾翁幚磉@些重要問題。這些問題已經(jīng)不僅僅是技術問題,更是關系到每個人的社會問題。
評論