何為“AI倫理”?又何為“AI治理”?科技向善,何為“善”,如何“向”?
編者按:人工智能(AI)技術(shù)的發(fā)展正在重塑當(dāng)今社會(huì)生產(chǎn)方式與產(chǎn)業(yè)結(jié)構(gòu)。AI 在提升生產(chǎn)效率、賦能產(chǎn)業(yè)的同時(shí),也為社會(huì)帶來(lái)了全新的挑戰(zhàn)。自動(dòng)駕駛汽車(chē)交通事故的防范與歸責(zé)、新冠疫情下個(gè)人隱私的保護(hù)、人工智能技術(shù)的應(yīng)用對(duì)就業(yè)的影響、技術(shù)是否會(huì)引起貧富差距擴(kuò)大等,均成為公共討論的議題。
如何應(yīng)對(duì) AI 可能對(duì)社會(huì)產(chǎn)生的負(fù)面影響?AI 倫理與治理的討論應(yīng)此而生?!叭绾伪苊獯髷?shù)據(jù)時(shí)代下個(gè)人隱私形同虛設(shè)?”“代碼是否具有道德?”“人工智能時(shí)代的道德代碼如何編寫(xiě)?”
微軟全球資深副總裁,微軟亞太研發(fā)集團(tuán)主席,微軟亞洲研究院院長(zhǎng)洪小文受邀參加未來(lái)論壇 AI 倫理與治理系列活動(dòng),在“AI 向善的理論與實(shí)踐”主題論壇中發(fā)表了看法。
洪小文認(rèn)為“技術(shù)都是死的,我們才是制造者與使用者。所謂的 AI 道德,最后反映的是我們的道德,是我們的價(jià)值觀。”
以下是論壇全文,轉(zhuǎn)載自未來(lái)科學(xué)論壇公眾號(hào)。
議題一:人工智能將會(huì)對(duì)人類(lèi)社會(huì)帶來(lái)哪些挑戰(zhàn)?近些年 AI 的發(fā)展,已經(jīng)產(chǎn)生了哪些問(wèn)題?社會(huì)應(yīng)該如何應(yīng)對(duì)?
1.技術(shù)導(dǎo)致的不良后果其實(shí)源于人類(lèi)自身;
2.微軟人工智能設(shè)計(jì)原則:合法與主權(quán)、負(fù)責(zé)、透明、公平、可靠與安全、隱私與保障、包容。
洪小文:怎么樣讓技術(shù)促進(jìn)經(jīng)濟(jì)發(fā)展?怎么樣讓技術(shù)促進(jìn)社會(huì)進(jìn)步?在大多數(shù)情況下,技術(shù)都是好的,而在技術(shù)被廣泛應(yīng)用后,也產(chǎn)生一些大家所擔(dān)心的負(fù)面隱憂,英文叫“Techlash”。
這里舉一些例子。首先,每個(gè)國(guó)家的經(jīng)濟(jì)發(fā)展程度不同,如果有些人可以使用到最新的技術(shù),而有些人不能,這就可能帶來(lái)發(fā)展的不均衡和落差,帶寬、網(wǎng)絡(luò)的就是這樣的例子;另外,關(guān)于安全、隱私的問(wèn)題大家也談的很多。比如社交媒體中出現(xiàn)假新聞,如果不小心誤傳誤信,就會(huì)影響決定;還有數(shù)據(jù)和技術(shù)偏見(jiàn)的問(wèn)題。有數(shù)據(jù)就一定會(huì)有偏見(jiàn),因?yàn)轶w量再大的數(shù)據(jù)也不可能涵蓋所有方面;再有就是關(guān)于 AI 在武器上的使用以及技術(shù)取代人類(lèi)工作的問(wèn)題等等。我認(rèn)為水能載舟,亦能覆舟,不能說(shuō)技術(shù)無(wú)辜,但是真正的問(wèn)題還是在于技術(shù)背后的創(chuàng)造者,在于怎么使用技術(shù),因此技術(shù)導(dǎo)致的不良后果其實(shí)源于人類(lèi)自身。制造者、用戶、政府、受影響者都是重要的相關(guān)方。
微軟1998年提出了人工智能的相關(guān)原則(“Responsible AI”),要求以負(fù)責(zé)任的方式設(shè)計(jì)人工智能。其中,最基本的原則就是合法與主權(quán)。對(duì)數(shù)據(jù)及人工智能治理而言,今天很多規(guī)則性的內(nèi)容都會(huì)變成將來(lái)的法律規(guī)范。微軟作為一家跨國(guó)公司,在任何國(guó)家或地區(qū)經(jīng)營(yíng)都要保證合法性、尊重其主權(quán)。第二是負(fù)責(zé),任何技術(shù)和產(chǎn)品都有其設(shè)計(jì)制造者,要對(duì)技術(shù)和產(chǎn)品的部署和運(yùn)營(yíng)承擔(dān)責(zé)任,包括法律以及社會(huì)等各方面的責(zé)任。第三是透明,設(shè)計(jì)制造者要能夠解釋程序如何設(shè)計(jì),尤其是數(shù)據(jù)的收集,更需要透明化。比如當(dāng)攝像頭被安置在公共場(chǎng)所搜集數(shù)據(jù)的時(shí)候,需要提前告知數(shù)據(jù)被收集對(duì)象,進(jìn)入數(shù)據(jù)收集區(qū)域其頭像信息可能會(huì)被采集。第四是包容,做任何東西都需要考慮到所有的人,也要求我們創(chuàng)造的技術(shù)能夠服務(wù)每個(gè)人,包括少數(shù)族群,殘障人士,所以開(kāi)發(fā)這些人工智能技術(shù)的時(shí)候需要考慮如何保證它的包容性。第五是隱私與保障,有些人利用互聯(lián)網(wǎng)或者 AI 在網(wǎng)絡(luò)上做一些不道德的事,比如說(shuō)“黑客”、“釣魚(yú)”,對(duì)于系統(tǒng)或平臺(tái)而言,很重要的時(shí)要保障用戶不受網(wǎng)絡(luò)騷擾、身份信息不被竊取,以及避免產(chǎn)生一些實(shí)質(zhì)性的災(zāi)難;第六是可靠和安全,任何 AI 系統(tǒng)都不可能萬(wàn)無(wú)一失。例如一個(gè) GPS 系統(tǒng),即使只要有萬(wàn)分之一的機(jī)會(huì)把司機(jī)引到懸崖,那也是不安全的。所以怎樣做到安全可靠在 AI 領(lǐng)域中非常重要。機(jī)器學(xué)習(xí)都會(huì)存在一定誤差。問(wèn)題在于,存在誤差的時(shí)候如何預(yù)防風(fēng)險(xiǎn),如何提供更進(jìn)一層的安全保障。第七是公平,坦言之很難做到,因?yàn)闆](méi)有絕對(duì)的公平。在現(xiàn)實(shí)條件下存在很多偏差或偏見(jiàn),這些偏見(jiàn)或偏差可能來(lái)自數(shù)據(jù),可能來(lái)自我們的固有認(rèn)知,可能屬于一種社會(huì)偏見(jiàn),毫無(wú)疑問(wèn),每個(gè)人都存在偏見(jiàn),問(wèn)題在于怎樣不把偏見(jiàn)帶到我們所制造的東西里、怎么樣避免這些偏見(jiàn)。
最后,技術(shù)都是死的,我們才是制造者與使用者。所謂的 AI 道德,最后反映的是我們的道德,是我們的價(jià)值觀。對(duì)于科技工作者而言,需要把正確的價(jià)值觀與道德納入技術(shù)語(yǔ)言中進(jìn)行表達(dá),但即使這樣還不夠,還需要跨領(lǐng)域的合作,需要法學(xué)家、社會(huì)學(xué)家、人類(lèi)學(xué)家等都參與進(jìn)來(lái),才有可能把這個(gè)做得盡量完善。
郭銳:謝謝洪老師。我有兩點(diǎn)思考,一是這個(gè)規(guī)制框架是否可以拓展,我認(rèn)為它現(xiàn)在可以用于專(zhuān)用人工智能領(lǐng)域,在未來(lái)向通用人工智能行進(jìn)的過(guò)程中,這樣的框架是否可以繼續(xù)適用,還是我們需要一些新的道德準(zhǔn)則?道德準(zhǔn)則是否可以?xún)?nèi)化在算法之中?洪老師講到的公平性問(wèn)題,與此密切相關(guān)。二是洪老師提到一個(gè)關(guān)鍵詞——信任,社會(huì)對(duì)技術(shù)的信任至關(guān)重要,中國(guó)在過(guò)去20年特別是近10年來(lái)在人工智能領(lǐng)域的發(fā)展,很大程度上借力于社會(huì)對(duì)于技術(shù)的擁抱和信任。我記得薛瀾老師講到過(guò)信任的重要性,下面有請(qǐng)薛瀾老師,對(duì)這個(gè)問(wèn)題給出點(diǎn)評(píng)。
1.AI 改變了人類(lèi)與技術(shù)的關(guān)系;
2.信任問(wèn)題。
薛瀾:關(guān)于剛才談到信任的問(wèn)題,第一,從某種意義上講,很多傳統(tǒng)技術(shù)是相對(duì)被動(dòng)的,所以人類(lèi)的應(yīng)用行為顯得比較主動(dòng)。但是我覺(jué)得人工智能技術(shù)的不同之處在于,好像它不完全聽(tīng)從我們,因?yàn)槿斯ぶ悄苓€具有智能性,因此我們與技術(shù)的關(guān)系好像發(fā)生了改變。如此一來(lái),我們有時(shí)候的確擔(dān)心它會(huì)不會(huì)錯(cuò)誤決策導(dǎo)致不利的后果。我們對(duì)傳統(tǒng)技術(shù)占據(jù)主動(dòng)權(quán),清楚知道這些技術(shù)能做什么、不能做什么,但是使用人工智能技術(shù)進(jìn)行人機(jī)交互時(shí),有時(shí)候感覺(jué)不一定敢那么自信。
第二,我覺(jué)得對(duì)技術(shù)開(kāi)發(fā)的公司而言,信任問(wèn)題需要被重視,特別是隱私問(wèn)題。正如剛才大家所說(shuō),鑒于人工智能技術(shù)在應(yīng)用過(guò)程中搜集了大量數(shù)據(jù),如果我們百分之百地信任這些公司,比如說(shuō)用戶知道技術(shù)公司只是把數(shù)據(jù)作為一個(gè)機(jī)器學(xué)習(xí)的原料,那對(duì)于它們收集數(shù)據(jù)的行為,我不會(huì)太擔(dān)心。但是,現(xiàn)實(shí)中有些技術(shù)公司或其中的部分員工存在不道德地利用信息的可能,比如把個(gè)人或非個(gè)人數(shù)據(jù)匯集在一起得到更多的信息,或者把這些數(shù)據(jù)打包在網(wǎng)上拍賣(mài),這些行為我們都看到過(guò)。所以從用戶角度來(lái)講,我們就希望非常清楚地知道智能公司的開(kāi)發(fā)系統(tǒng)如何運(yùn)行,對(duì)我們數(shù)據(jù)的處置是否合理。
郭銳:謝謝薛老師的點(diǎn)評(píng)。人工智能技術(shù)和其他技術(shù)相比,能夠更加直接地作用于普通用戶。比方說(shuō),如果能源的相關(guān)技術(shù)改進(jìn)了,我們就會(huì)看到日用品的價(jià)格下降,或者用電的價(jià)格下降,但人工智能技術(shù)好像可以直接對(duì)我們產(chǎn)生影響。在數(shù)據(jù)領(lǐng)域中,如果我們意欲使用某個(gè)技術(shù),可能需要技術(shù)的部署應(yīng)用企業(yè)收集我們的信息,但同時(shí)我們又擔(dān)心所收集的信息是否會(huì)被誤用。剛才華夏老師也提到了一個(gè)很重要的問(wèn)題——隱私問(wèn)題,從您的角度來(lái)看,我們?cè)趺磻?yīng)對(duì)人工智能技術(shù)對(duì)社會(huì)的影響?
1.隱私問(wèn)題:數(shù)據(jù)歸屬于誰(shuí),如何保護(hù)用戶隱私?從兩個(gè)層面加以分析:一是提高透明度,二是企業(yè)自律。
2.安全問(wèn)題:需要多方共同參與法律法規(guī)的制定與完善。
夏華夏:我覺(jué)得洪老師的架構(gòu)圖總結(jié)得非常好,尤其是把法律法規(guī)放在底下兜底,上面包括隱私、公平這幾個(gè)問(wèn)題,內(nèi)容全面、層次分明。說(shuō)到數(shù)據(jù)隱私的問(wèn)題,現(xiàn)在很多企業(yè)都掌握著大量數(shù)據(jù),我們也在思考如何合理保護(hù)用戶隱私,這個(gè)問(wèn)題蠻難的,有時(shí)候數(shù)據(jù)的歸屬問(wèn)題并不是那么清楚。
前幾天跟龔克老師溝通的時(shí)候,他提到當(dāng)我們?nèi)メt(yī)院拍一個(gè)醫(yī)學(xué)影像片時(shí),醫(yī)學(xué)影像的數(shù)據(jù)到底屬于誰(shuí),是屬于用戶嗎?醫(yī)院的確是拍的是用戶的片子,但同時(shí)如果沒(méi)有醫(yī)院、沒(méi)有工作人員通過(guò)儀器加以采集,沒(méi)有醫(yī)生為他做各種醫(yī)學(xué)診斷或判斷,這就不是一個(gè)完整的數(shù)據(jù)。因此至少有三方跟這個(gè)數(shù)據(jù)有關(guān)系,數(shù)據(jù)的所有權(quán)歸屬問(wèn)題比較復(fù)雜,在此基礎(chǔ)上,怎么保護(hù)最終端用戶的隱私,也是一個(gè)蠻有挑戰(zhàn)的問(wèn)題。一方面,剛才洪老師在框圖第二層中寫(xiě)的是是透明度,透明化對(duì)于隱私來(lái)說(shuō)是一個(gè)非常好的解決之道。當(dāng)科技企業(yè)收集用戶數(shù)據(jù)的時(shí)候,企業(yè)會(huì)告訴他該數(shù)據(jù)在未來(lái)可能會(huì)有哪些用途,這種告知就是解決隱私問(wèn)題非常重要的手段。如果技術(shù)足夠成熟,每次調(diào)用用戶數(shù)據(jù)的時(shí)候,系統(tǒng)都能自動(dòng)通知每個(gè)用戶,這就使用戶更加安心和放心。再一個(gè)方面,保護(hù)數(shù)據(jù)隱私,可能還要從企業(yè)的自律方面做很多工作,企業(yè)到底怎么使用、內(nèi)部數(shù)據(jù)誰(shuí)能看到,是一個(gè)非常重要的問(wèn)題。比如在美團(tuán)為此專(zhuān)門(mén)成立人工智能治理委員會(huì),內(nèi)部制定了很多數(shù)據(jù)使用的規(guī)則和規(guī)范,劃分了諸多數(shù)據(jù)的保密級(jí)別,高密級(jí)的數(shù)據(jù)只有在極少數(shù)的情況下通過(guò)專(zhuān)門(mén)的程序才可以調(diào)用,這樣就能夠比較好地保護(hù)用戶的隱私。
此外,整個(gè)數(shù)據(jù)的安全性也是一個(gè)很重要的技術(shù)要求,AI 系統(tǒng)或者用戶數(shù)據(jù)的數(shù)據(jù)庫(kù)不能輕易被黑客攻擊進(jìn)來(lái)。當(dāng)然,兜底還是要靠法律法規(guī)。洪老師把法律法規(guī)列在底下非常合理,就人工智能治理而言,不管是安全、隱私、公平還是就業(yè),法律法規(guī)最終是一個(gè)兜底方。最近國(guó)家也在非常積極討論數(shù)據(jù)保護(hù)的相關(guān)法律法規(guī),這些法律如果得以應(yīng)用,對(duì)于企業(yè)是約束,對(duì)用戶是更放心的事情。未來(lái)隱私會(huì)是一個(gè)需要大家共同參與才能解決的系統(tǒng)化問(wèn)題,法律法規(guī)也是如此。
郭銳:謝謝華夏老師。大家都對(duì)法律寄予很高的期待,各國(guó)立法者好像都在進(jìn)行技術(shù)追趕,很多法律學(xué)者都開(kāi)始關(guān)注這個(gè)領(lǐng)域,都想知道怎么樣應(yīng)對(duì)人工智能帶來(lái)的問(wèn)題。但是,作為一個(gè)法律人,我想說(shuō)我們必須看到法律本身的特性。立法是一個(gè)緩慢的過(guò)程,可能需要集中民意,通過(guò)諸多論證之后才能完成立法。反倒是在技術(shù)和行業(yè)層面上,能夠更快地對(duì)問(wèn)題做出回應(yīng)。
我注意到前面幾位老師都是從現(xiàn)存的 AI 技術(shù)出發(fā)來(lái)思考 AI 系統(tǒng)及其給社會(huì)帶來(lái)的問(wèn)題。我最早思考這個(gè)問(wèn)題的緣起,相信和今天參與直播的很多觀眾一樣,是關(guān)注 AI 技術(shù)的潛力。我想請(qǐng)教一下漆遠(yuǎn)老師:很多人真正思考 AI 倫理問(wèn)題,是因?yàn)榭戳艘恍┛苹秒娪???苹秒娪袄锩娼?jīng)常出現(xiàn)的一個(gè)場(chǎng)景,是 AI 的智能大大超過(guò)人類(lèi),甚至對(duì)我們的生存造成了威脅。在技術(shù)領(lǐng)域里面,大家對(duì)于通用人工智能甚至超級(jí)智能是否可能實(shí)現(xiàn)有不同的看法,我想請(qǐng)教漆遠(yuǎn),您認(rèn)為通用人工智能可不可能實(shí)現(xiàn),有沒(méi)有可能給我們帶來(lái)生存上的危機(jī)?再請(qǐng)您對(duì)這個(gè)問(wèn)題的整體進(jìn)行回應(yīng),一會(huì)兒有機(jī)會(huì)也想聽(tīng)聽(tīng)大家如何看待這個(gè)看起來(lái)有點(diǎn)遙遠(yuǎn)的未來(lái)問(wèn)題,下面先請(qǐng)漆遠(yuǎn)老師。
1.未來(lái)能否實(shí)現(xiàn)通用人工智能?并非絕無(wú)可能。
2.AI 治理需要推進(jìn)與法學(xué)、經(jīng)濟(jì)學(xué)等結(jié)合的跨學(xué)科研究
漆遠(yuǎn):在一個(gè)機(jī)器學(xué)習(xí)學(xué)術(shù)的頂會(huì)里有過(guò)一個(gè)調(diào)查:你覺(jué)得什么時(shí)候通用人工智能何時(shí)會(huì)實(shí)現(xiàn)?即使在一個(gè)非常專(zhuān)業(yè)的技術(shù)會(huì)議里面,答案也是百花齊放的——有人認(rèn)為五年,有人認(rèn)為五十年,有人認(rèn)為永遠(yuǎn)不可能。這個(gè)反映了什么?說(shuō)明對(duì)科學(xué)的預(yù)測(cè)本身是非常難的?,F(xiàn)在學(xué)界業(yè)界比較關(guān)注的是深度學(xué)習(xí)?,F(xiàn)在有個(gè)說(shuō)法是“大模型即正義”。自然語(yǔ)言處理等模型參數(shù)從以前的百億級(jí)到現(xiàn)在的千億萬(wàn)億級(jí)。海量的數(shù)據(jù)和計(jì)算使得大模型能力越來(lái)越強(qiáng)。比如使用大規(guī)模自然語(yǔ)言模型可以自動(dòng)寫(xiě)出真假難辨的新聞,——當(dāng)然,這是另外一個(gè)話題,即數(shù)字生活安全與可信問(wèn)題。但是面對(duì)如此強(qiáng)大的自然語(yǔ)言模型,如果我們問(wèn)2+3是幾?它能回答出來(lái),但是如果問(wèn)“1525091+8747721”是多少?它就無(wú)法回答了,能力還不如一個(gè)簡(jiǎn)單的計(jì)算器。這背后說(shuō)明一個(gè)問(wèn)題:從人工智能?chē)宄绦颉癆lphago”到現(xiàn)在一系列數(shù)據(jù)驅(qū)動(dòng)的深度學(xué)習(xí)技術(shù)出來(lái)以后,很多人都對(duì)人工智能的發(fā)展比較樂(lè)觀,但其實(shí)現(xiàn)階段的人工智能所具備的推理能力還非常低的。
人工智能可以有很多條發(fā)展思路,現(xiàn)在大家看到的深度學(xué)習(xí)只是思路之一。未來(lái)把知識(shí)、人的推理能力和數(shù)據(jù)驅(qū)動(dòng)的深度學(xué)習(xí)結(jié)合在一起,可能成為未來(lái)非常重要的發(fā)展方向。在這個(gè)目標(biāo)沒(méi)有實(shí)現(xiàn)之前,也就是說(shuō)在 AI 在不具備常識(shí)推理的能力時(shí),實(shí)現(xiàn)真正的通用人工智能是不可能的事情。換句話說(shuō),AI 目前像一個(gè)走火入魔的練武之人,它在某一個(gè)領(lǐng)域特別厲害,但是稍微改一下領(lǐng)域,它可能會(huì)出大問(wèn)題。AI 的推理能力、可解釋性都是非常關(guān)鍵的問(wèn)題,如果沒(méi)有解決這些問(wèn)題,我們談的通用人工智能是不太可能的。
但是從另一方面看,也不能說(shuō)絕對(duì)不可能。今天我們?cè)谶@一個(gè)有意思的時(shí)間點(diǎn)上,未來(lái)有各種可能性。如果把幾種技術(shù)思路和因素結(jié)合在一起,或許能夠在通用人工智能的路上大踏步走出一步,這誰(shuí)也不知道。就像在2010年深度學(xué)習(xí)興起之前,深度學(xué)習(xí)背后的很多思路早就已經(jīng)有了,但并沒(méi)有落地推廣。隨著海量數(shù)據(jù)和強(qiáng)大計(jì)算能力的到來(lái),深度學(xué)習(xí)在十年間突飛猛進(jìn),被業(yè)界大量使用。我們誰(shuí)都不知道會(huì)不會(huì)有新的種子點(diǎn)燃新的劇變。但是我們必須努力的是在人工智能技術(shù)被廣泛使用的今天,如何治理 AI 技術(shù),保證 AI 技術(shù)的可靠和可信。打一個(gè)比方,假如我們不知道如何管理高速公路,最簡(jiǎn)單的方法是關(guān)閉高速公路。但如此一來(lái)會(huì)降低大家通行效率。這顯而易見(jiàn)不是我們想要的治理方法。我們會(huì)通過(guò)建立紅綠燈等交通管理系統(tǒng)進(jìn)行管控。類(lèi)似的,我們要在發(fā)展 AI 的同時(shí),做好 AI 治理系統(tǒng)和相關(guān)技術(shù)研究。而要做好這個(gè),需要對(duì) AI 技術(shù)與法學(xué)、經(jīng)濟(jì)學(xué)等結(jié)合進(jìn)行跨學(xué)科的研究和思考??鐚W(xué)科的研究將有助于 AI 走向可靠的、可持續(xù)發(fā)展之路。
實(shí)通用人工智能的技術(shù)發(fā)展邊界問(wèn)題
薛瀾:通用人工智能是個(gè)非常有意思的話題,我想趁這個(gè)機(jī)會(huì)問(wèn)一下三位專(zhuān)家,假設(shè)人類(lèi)實(shí)現(xiàn)通用人工智能以后,AI 有可能做出更多更能干、更強(qiáng)大的事情。但是,通用人工智能發(fā)展到某個(gè)階段,可能會(huì)對(duì)人類(lèi)產(chǎn)生一定的威脅,在這樣的情況下,我們到底應(yīng)不應(yīng)該開(kāi)發(fā)這項(xiàng)技術(shù)?一般性地討論時(shí),大家都會(huì)說(shuō)科學(xué)技術(shù)研究應(yīng)該無(wú)止境、無(wú)前沿,走到哪算哪,但當(dāng)我們預(yù)料到某些問(wèn)題的時(shí)候是否應(yīng)該按下暫停鍵?在通用人工智能技術(shù)開(kāi)發(fā)方面,它的界限要不要設(shè)、應(yīng)該設(shè)在哪兒?想請(qǐng)三位專(zhuān)家來(lái)幫我們解答一下。
實(shí)現(xiàn)通用人工智能”的說(shuō)法并無(wú)現(xiàn)實(shí)依據(jù);AI 技術(shù)的控制關(guān)鍵在于規(guī)制其背后的制造者
洪小文:第一,對(duì)于“實(shí)現(xiàn)通用人工智能”的說(shuō)法我們還沒(méi)有看到任何現(xiàn)實(shí)依據(jù)。第二,通用人工智能至少有兩種,所謂“通用人工智能”,就比如我們?nèi)祟?lèi)自身,就是一種通用人工智能。我常常講,“強(qiáng)人工智能很弱,弱人工智能很強(qiáng)”,什么意思呢?弱人工智能就是專(zhuān)家系統(tǒng)(Expert System),它只能做一件事,做得比誰(shuí)都好,比如做一個(gè)特定物體的辨認(rèn)系統(tǒng),它就只能辨認(rèn)狗和貓或者犯罪嫌疑人,這叫“Narrow AI”,它很強(qiáng)大;但是我們呢?恰恰相反——每樣都懂一點(diǎn),比如我可以談治理,可以談 AI,也可以談量子,什么都可以談,但是我除了計(jì)算機(jī)是專(zhuān)家,其他都不是專(zhuān)家,因此事實(shí)上通用人工智能是很弱的。我們的孩子也是通用人工智能,你今天會(huì)教他做所有事情嗎?當(dāng)然不會(huì),只會(huì)教他做某一件事情。所以,我覺(jué)得大家對(duì)通用人工智能不要抱以太多厚望。我們擔(dān)心的其實(shí)是“超級(jí)人工智能”(Super intelligence),比方說(shuō)這個(gè)人什么都懂,什么都是世界最強(qiáng),有沒(méi)有這樣的客觀存在?就目前所有對(duì)通用人工智能的研究來(lái)看一點(diǎn)影子都還沒(méi)有,因?yàn)榻裉斓娜斯ぶ悄芨緵](méi)有具備系統(tǒng)化解問(wèn)題的功能。試想,我們今天怎么造一個(gè)機(jī)器,讓它解一個(gè)從來(lái)沒(méi)有遇到過(guò)的新問(wèn)題,讓算法自己去解問(wèn)題根本不可能。我們今天很多問(wèn)題無(wú)解,就拿計(jì)算機(jī)里面,NP 是不是等于 P,沒(méi)有人知道。對(duì)于某些問(wèn)題,我們也根本不知道怎么解決,所以我覺(jué)得通用人工智能離我們很遠(yuǎn)。
講到治理,談一個(gè)沒(méi)有的東西:時(shí)間機(jī)器(Time machine),怎么治理?這可能是哲學(xué)界可以討論的問(wèn)題,但今天我們對(duì)它的討論不是哲學(xué)意義上的討論。對(duì)于你剛剛的問(wèn)題——如果有人說(shuō)他可以做出超級(jí)人工智能來(lái),我們?cè)摬辉摻??討論這個(gè)問(wèn)題前,我覺(jué)得考慮近期問(wèn)題可能更為迫切,比如轉(zhuǎn)基因或者基因編輯,就是“人造人”,基因工程可以造福人類(lèi),也可以為害一方,所以哪些科技應(yīng)該得到發(fā)展,這也是哲學(xué)意義上的問(wèn)題。還有一點(diǎn)我比較有信心的,人做任何事情都希望它可控,很多人擔(dān)心我們創(chuàng)造的事物不可控,因此,任何一個(gè)科學(xué)家進(jìn)行發(fā)明創(chuàng)造,沒(méi)有人希望不可控,沒(méi)有人希望最后把這個(gè)世界給毀了。除了瘋子以外沒(méi)有人會(huì)干這種事,但是怎么限制瘋子呢?這又要回歸到哲學(xué)性的探討。如果人類(lèi)真的實(shí)現(xiàn)了通用人工智能,我們能否控制它,在于我們需要控制其制造者。
1.AI 未來(lái)發(fā)展不好預(yù)測(cè),但是實(shí)現(xiàn)通用人工智的概率不是零;
2.可靠性與信任:AI 制造者負(fù)有責(zé)任,也需要將人和機(jī)器作為大系統(tǒng)整體來(lái)思考和分析;
3.隱私問(wèn)題:協(xié)同行業(yè)共同發(fā)展“可用不可見(jiàn)”的隱私保護(hù)的機(jī)器學(xué)習(xí)技術(shù),促進(jìn)隱私保護(hù)與數(shù)據(jù)價(jià)值實(shí)現(xiàn)的平衡
漆遠(yuǎn):幾年前在麻省理工學(xué)院(MIT)頂尖科學(xué)家之間有一個(gè)非常好的辯論,關(guān)于通用人工智能。他們辯論的主題是——將來(lái)機(jī)器人是否能夠像牛頓和愛(ài)因斯坦等科學(xué)家一樣發(fā)現(xiàn)科學(xué)定律。幾年前在一個(gè)電視節(jié)目上我和伯克利的楊培東教授、清華的魯白教授和西湖大學(xué)的許田教授等人,討論過(guò)一個(gè)關(guān)于未來(lái)的技術(shù)問(wèn)題。當(dāng)時(shí),我也提出了這個(gè)問(wèn)題。我沒(méi)有答案,但是我感覺(jué)這是可能的。在 MIT,這是一場(chǎng)非常激烈的辯論,在場(chǎng)的研究者分為兩派,一派認(rèn)為不可能、這個(gè)技術(shù)的“種子”不存在;另一派認(rèn)為,為了實(shí)現(xiàn)這個(gè)目標(biāo),這個(gè)技術(shù)路線未來(lái)如何發(fā)展我們不得而知,但有可能實(shí)現(xiàn)。我們并不知道未來(lái)會(huì)具體發(fā)生什么,實(shí)現(xiàn)這個(gè)目標(biāo)的挑戰(zhàn)會(huì)非常巨大,但其實(shí)概率是零的事其概率才是零。就好比在金融風(fēng)險(xiǎn)領(lǐng)域不存在任何情況下絕對(duì)不會(huì)發(fā)生的風(fēng)險(xiǎn)。系統(tǒng)可控性同樣如此,人人都想做出可控的系統(tǒng),但是系統(tǒng)經(jīng)常就在我們以為可控的時(shí)候出現(xiàn)不可控的情形。所以系統(tǒng)設(shè)計(jì)里面要留有所謂的“冗余”(Redundance),即理論上沒(méi)有問(wèn)題,但工程實(shí)現(xiàn)的時(shí)候,要留有冗余和余地。
這里就講到信任和可靠性的問(wèn)題。確實(shí),人是第一重要的,現(xiàn)在的機(jī)器也是由人制造。在著名的科幻作家阿西莫夫提出的“機(jī)器人三定律”中強(qiáng)調(diào),機(jī)器人必須聽(tīng)從人的指令,不可以傷害人。但是,假如我們未經(jīng)認(rèn)真思考,對(duì)機(jī)器人下達(dá)了一些不計(jì)長(zhǎng)期后果的指令,就完全可能發(fā)生我們沒(méi)有預(yù)料到的大規(guī)模風(fēng)險(xiǎn)。從無(wú)人駕駛到醫(yī)療服務(wù)、金融服務(wù),機(jī)器正在參與越來(lái)越多的決策。認(rèn)為只要控制住人,智能系統(tǒng)就沒(méi)有風(fēng)險(xiǎn),這其實(shí)遠(yuǎn)遠(yuǎn)不夠的。一個(gè)原因是智能系統(tǒng)越來(lái)越復(fù)雜有很多無(wú)法理解的地方,所以前面我提到“可解釋性”非常重要。技術(shù)人員往往希望系統(tǒng)是開(kāi)放透明的,能夠持續(xù)發(fā)展的。但是在技術(shù)發(fā)展成復(fù)雜系統(tǒng)后,就技術(shù)本身而言,普通人很難明白背后發(fā)生了什么、很難解釋技術(shù)背后的原理是什么,系統(tǒng)里的因果關(guān)系是什么?,F(xiàn)實(shí)中會(huì)很難認(rèn)定事故背后的真實(shí)原因,是人造成的,還是系統(tǒng)的哪個(gè)因素造成的。不能簡(jiǎn)單的說(shuō),人是負(fù)責(zé)的(accountable),系統(tǒng)就是負(fù)責(zé)可靠的(accountable)。比如司機(jī)很稱(chēng)職,但如果剎車(chē)出現(xiàn)故障,同樣可以導(dǎo)致車(chē)禍。所以需要將人和智能機(jī)器看一個(gè)大系統(tǒng)從整體來(lái)思考和構(gòu)建可信可靠性。
數(shù)據(jù)隱私保護(hù),是用戶保護(hù)的問(wèn)題,也是一個(gè)數(shù)字經(jīng)濟(jì)的發(fā)展問(wèn)題。一方面涉及數(shù)據(jù)生產(chǎn)資料,但另一方面又事關(guān)每個(gè)用戶的權(quán)益,如何在保護(hù)用戶隱私的同時(shí),讓 AI 發(fā)揮數(shù)據(jù)價(jià)值推動(dòng)經(jīng)濟(jì)持續(xù)發(fā)展,這也是一個(gè)非常關(guān)鍵的問(wèn)題。隱私的反義詞可以是“透明”,透明能夠幫助信任,但就保護(hù)隱私而言,有些地方是不能透明和對(duì)外開(kāi)放的。對(duì)于隱私保護(hù)來(lái)說(shuō),去標(biāo)識(shí)匿名化是我們可以使用的技術(shù)方案之一。但如果將數(shù)據(jù)簡(jiǎn)單地完全匿名化,數(shù)據(jù)所含的有用信息量也會(huì)大大減損,數(shù)據(jù)價(jià)值降低。其實(shí)數(shù)據(jù)作為一種生產(chǎn)資料,就像大樓的磚頭一樣,磚頭放在一起才能蓋起大樓,單個(gè)的數(shù)據(jù)點(diǎn)很難產(chǎn)生巨大價(jià)值,只有互補(bǔ)的數(shù)據(jù)源合在一起才能讓 AI 發(fā)揮最好的價(jià)值。
這里就引出了一個(gè)非常關(guān)鍵的問(wèn)題:智能時(shí)代下的數(shù)字經(jīng)濟(jì)能不能既保護(hù)隱私,又發(fā)揮數(shù)據(jù)核變的經(jīng)濟(jì)推動(dòng)能力?螞蟻集團(tuán)在2016年開(kāi)始布局隱私計(jì)算、開(kāi)發(fā)相關(guān)技術(shù),在世界范圍內(nèi)我們擁有數(shù)量最多的隱私保護(hù)專(zhuān)利,包括“差分隱私”、“多方計(jì)算”、“可信環(huán)境計(jì)算”等技術(shù)。這些技術(shù)可以幫助數(shù)據(jù)可用不可見(jiàn),但是他們有不同的安全等級(jí)。我們可以基于場(chǎng)景,把數(shù)據(jù)和隱私保護(hù)技術(shù)進(jìn)行分析分類(lèi),把他們劃分成不同安全等級(jí),在某些安全等級(jí)下可以用對(duì)應(yīng)的某類(lèi)數(shù)據(jù)和技術(shù)。每一個(gè)安全等級(jí)都有對(duì)應(yīng)的代價(jià),就像越重的汽車(chē)往往越安全,但是也消耗更高的能量。我們要基于場(chǎng)景需求來(lái)選擇適當(dāng)?shù)募夹g(shù)。最后,隱私是一個(gè)社會(huì)問(wèn)題,需要更多的人來(lái)一起討論,需要來(lái)自各行業(yè)的研究者和從業(yè)者共同討論。世上沒(méi)有一個(gè)絕對(duì)的答案,就像中國(guó)文化講求的平衡發(fā)展,我們要在中間點(diǎn)上找到一條共同前進(jìn)的路。
郭銳:我以前聽(tīng)過(guò)一個(gè)笑話:有一個(gè)修車(chē)的人,他問(wèn)醫(yī)生:“憑什么修車(chē)的一個(gè)月就賺這么一點(diǎn)錢(qián),醫(yī)生就賺的比我們多得多?而我們做的工作是一樣的,我就是把車(chē)上面壞的部分修好,你就是把人身上壞的部分修好?!贬t(yī)生說(shuō):“你是怎么修的?你把車(chē)停到修車(chē)庫(kù),抬起車(chē),把損壞的零件取下來(lái),訂一個(gè)新的零件,把它裝上就好了。我怎么干我的工作?我有一個(gè)病人正在呼吸,但是我要給他肺部動(dòng)一個(gè)手術(shù),要保證他在這個(gè)過(guò)程中不能死,還要讓他減少痛苦,把這個(gè)手術(shù)做完,還要保證病人復(fù)建后很好地完成所需的一切活動(dòng),醫(yī)生的工作要比你難得多?!蔽覀?cè)谌斯ぶ悄芗夹g(shù)已經(jīng)投入應(yīng)用、而且實(shí)實(shí)在在地對(duì)社會(huì)產(chǎn)生影響。同時(shí),我們還在進(jìn)行技術(shù)方面的改進(jìn)、實(shí)施各種治理方案,這需要我們像醫(yī)生一樣謹(jǐn)慎。存在各種各樣和 AI 相關(guān)的技術(shù)和治理問(wèn)題——隱私的問(wèn)題、公平性的問(wèn)題,還涉及到透明度的問(wèn)題——如何在治理的同時(shí),還能從整體上贏得社會(huì)的信任?以下我們轉(zhuǎn)入第二個(gè)議題的討論:如何應(yīng)對(duì)人工智能治理問(wèn)題?先請(qǐng)華夏老師。
議題二:如何應(yīng)對(duì)人工智能治理問(wèn)題?
保障 AI 公平性——美團(tuán)“助老、助殘項(xiàng)目”
夏華夏:很多技術(shù)我們沒(méi)法禁止,技術(shù)的發(fā)展總在往前走,只要大家知道這個(gè)地方有一個(gè)技術(shù)金礦,總有很多對(duì)未知的事情充滿好奇的學(xué)者,包括企業(yè)界的人,不斷進(jìn)行探索。今天討論 AI 的治理,目的就是在技術(shù)不斷往前發(fā)展的時(shí)候能找到一些規(guī)則辦法,讓越來(lái)越先進(jìn)的技術(shù)繼續(xù)走在向善的、幫助我們的用戶及社會(huì)、甚至幫助整個(gè)人類(lèi)的方向上。美團(tuán)把人工智能應(yīng)用于生活服務(wù)的很多場(chǎng)景,大概包括200多種不同的生活服務(wù)功能,包括吃喝玩樂(lè)、出行游玩,每個(gè)功能里面都會(huì)涉及人工智能。我們有很多例子與公平性有關(guān),有時(shí)候不同的人使用人工智能技術(shù)的應(yīng)用效果是不一樣的,比如老人或其他殘障人士往往不會(huì)使用人工智能的工具,我們?cè)谠O(shè)計(jì)人工智能應(yīng)用的時(shí)候,會(huì)特別注意幫助老年人、幫助弱勢(shì)群體設(shè)計(jì)一些應(yīng)用。我們有一個(gè)助老項(xiàng)目,專(zhuān)門(mén)開(kāi)發(fā)一款打車(chē)程序,該 APP 字體特別大,且在 APP 的頁(yè)面里不需要輸入目的地,可以上車(chē)之后告訴司機(jī)你去哪,讓司機(jī)幫助輸入。此外,在這個(gè)程序頁(yè)面里,老年人會(huì)有一個(gè)緊急聯(lián)系人,APP 可以實(shí)時(shí)跟親屬匯報(bào)老年人的位置,這樣在年輕人來(lái)看很正常的一個(gè) APP,老年人也能夠便利地使用。
再比如說(shuō)我們有一些盲人用戶,由于看不見(jiàn),他們很難使用手機(jī)上的 APP,但是為了讓一些盲人用戶能夠在美團(tuán) APP 上點(diǎn)餐、打車(chē),我們?yōu)樗麄冮_(kāi)發(fā)了一個(gè)語(yǔ)音交互頁(yè)面,這些用戶就可以完全通過(guò)語(yǔ)音在 APP 上點(diǎn)餐、打車(chē),后來(lái)發(fā)現(xiàn)這樣的 APP 對(duì)很多老人、小孩也非常有用。這是在公平性方面美團(tuán)所做的一點(diǎn)小的示例。就像洪老師說(shuō)的,AI 技術(shù)本來(lái)無(wú)所謂好壞,真正決定 AI 是向善還是向惡,則是使用 AI 的工程師、企業(yè),美團(tuán)希望在內(nèi)部制定這樣的規(guī)范,讓人工智能技術(shù)能夠幫助每一個(gè)用戶。
郭銳:我有一個(gè)對(duì)技術(shù)前景好奇的問(wèn)題,在法律和治理領(lǐng)域有學(xué)者提出:可以把一些道德倫理的價(jià)值內(nèi)化到代碼中,在研究或者應(yīng)用中是否存在這種道德算法?
1.要慎重選擇 AI 公平性的考量標(biāo)準(zhǔn),要全面、多層次考慮;
2.就社會(huì)角度而言,螞蟻集團(tuán)開(kāi)發(fā)支持弱勢(shì)群體接入數(shù)字生活的技術(shù)、實(shí)施扶貧項(xiàng)目以促進(jìn)就業(yè);
3.就人與自然角度而言,螞蟻集團(tuán)通過(guò) AI 實(shí)施環(huán)保項(xiàng)目。
漆遠(yuǎn):就 AI 公平性而言,從技術(shù)的角度,到社會(huì)的角度,再到人和自然的角度我來(lái)講幾個(gè)例子。首先要有向善的心,但是好心不一定辦好事。在技術(shù)上,要慎重選擇和設(shè)計(jì) AI 公平性的考量標(biāo)準(zhǔn)。一個(gè)經(jīng)典的例子:辛普森悖論——在不同層面看問(wèn)題會(huì)得出完全不同的結(jié)論。比如伯克利大學(xué)在統(tǒng)計(jì)男生女生的入學(xué)率時(shí)發(fā)現(xiàn),1973年男生錄取率40%多、女生30%多(在美國(guó)專(zhuān)門(mén)討論各個(gè)種族、性別的大學(xué)錄取率最能反映公平性,因?yàn)榻逃亲畲蟮墓剑?,似乎是女生被歧視了。如果再仔?xì)看,將各個(gè)系的男女錄取比例進(jìn)行比較,就會(huì)發(fā)現(xiàn)每個(gè)系女生錄取率不一定低男生,甚至比男生錄取率還高,這是怎么回事?聽(tīng)說(shuō)現(xiàn)在不少?lài)?guó)外高校的錄取系統(tǒng)都使用了計(jì)算機(jī)輔助決策系統(tǒng),如果要把道德指標(biāo)寫(xiě)入這算法決策系統(tǒng)里,怎么選定這個(gè)指標(biāo)呢?是全校的男女錄取率的平衡還是每個(gè)系的男女錄取率的平衡?這是需要仔細(xì)考慮的?;氐侥悄瓴死髮W(xué)錄取的問(wèn)題,背后原因是什么?分析發(fā)現(xiàn)大量男生申請(qǐng)了錄取率比較高的系,而女生普遍申請(qǐng)了錄取率比較低的系,從而拉低了學(xué)校范圍的女生錄取率,盡管從每個(gè)系的角度看,男女錄取比例基本一致的。如果我們錄取更多女生,讓學(xué)校范圍的男女錄取率更一致就可能導(dǎo)致在每個(gè)系里男生都比女生更難被錄取,會(huì)是對(duì)男生的歧視。
還有一個(gè)非常經(jīng)典的例子,在美國(guó)某個(gè)州關(guān)于黑人死刑判決里面是否存在歧視有過(guò)法律分析。當(dāng)時(shí)的問(wèn)題是否黑人殺人更容易被判死刑?整體看好像沒(méi)什么區(qū)別,但如果按照“受害者是白人或黑人”或者“行兇人是白人或黑人”進(jìn)行分類(lèi),并分開(kāi)分析,就會(huì)看到一個(gè)完全不同的結(jié)論。所以要從不用層次細(xì)致分析設(shè)計(jì)算法公平性的指標(biāo),分析是否存在“辛普森悖論”, 否則也許會(huì)導(dǎo)致好心辦壞事。更深入而言,公平性背后一個(gè)很重要的基礎(chǔ)是因果分析——究竟是什么東西導(dǎo)致了當(dāng)前情況的不一樣,是自身不努力不負(fù)責(zé)導(dǎo)致的問(wèn)題?還是先天條件導(dǎo)致其受到限制?針對(duì)不同的原因,治理方案是不一樣的,背后涉及哲學(xué)和法律的思考。所以我們?cè)谠O(shè)計(jì)這些系統(tǒng)指標(biāo)時(shí),需要哲學(xué)家,社會(huì)學(xué)家,法律學(xué)者和 AI 技術(shù)專(zhuān)家一起討論,把哲學(xué)法律等人文的思考和技術(shù)結(jié)合在一起,才能實(shí)現(xiàn)持續(xù)良性的發(fā)展。
再講個(gè)具體的例子。螞蟻集團(tuán)技術(shù)上關(guān)心弱勢(shì)群體,支付寶開(kāi)發(fā)了幫助弱勢(shì)用戶的功能。例如把 APP 菜單自動(dòng)用語(yǔ)音讀出來(lái)幫助視力有障礙的人使用支付寶。另外,為了防止黑產(chǎn)使用機(jī)器攻擊,支付寶在用戶身份驗(yàn)證時(shí)可能需要校驗(yàn)碼來(lái)證明使用者是人不是機(jī)器。而對(duì)于盲人來(lái)講,由于看不見(jiàn)就無(wú)法完成拖拉通過(guò)校驗(yàn),就無(wú)法使用電子支付。螞蟻技術(shù)人員開(kāi)發(fā)了空中手勢(shì)識(shí)別技術(shù),可以幫助盲人通過(guò)身份校驗(yàn)。螞蟻會(huì)把這個(gè)技術(shù)開(kāi)源給行業(yè),協(xié)同行業(yè)伙伴幫助更多人。
從社會(huì)的角度,我們用 AI 技術(shù)來(lái)幫助邊遠(yuǎn)貧困地區(qū)就業(yè)。兩年前我的團(tuán)隊(duì)通過(guò)“AI 豆計(jì)劃“開(kāi)發(fā)一系列的 AI 工具幫助在陜西清澗當(dāng)?shù)厝俗鲾?shù)據(jù)打標(biāo)。借助智能數(shù)據(jù)打標(biāo)工具,沒(méi)有經(jīng)驗(yàn)的普通人也迅速上手。目前“AI 豆計(jì)劃”已在全國(guó)培訓(xùn)了2000多名從業(yè)人員,其中困難群眾占比50%以上。讓困難群眾,尤其是貧困地區(qū)的女性,實(shí)現(xiàn)在家門(mén)口獲得更多就業(yè)機(jī)會(huì)。
更大的角度是從人機(jī)器和自然的關(guān)系切入,保護(hù)環(huán)境。我們的 AI 技術(shù)團(tuán)隊(duì)在2019年開(kāi)發(fā)了“AI 垃圾分類(lèi)”小程序和智能垃圾桶,使用 AI 技術(shù)來(lái)區(qū)分干垃圾、濕垃圾等幾千種垃圾,提高垃圾回收和處理努力。我們也因此獲得聯(lián)合國(guó)綠色可持續(xù)發(fā)展“綠眼睛獎(jiǎng)”。
郭銳:謝謝漆遠(yuǎn)老師,漆遠(yuǎn)老師已經(jīng)把我們帶到了討論的第三個(gè)主題。由于技術(shù)的進(jìn)步前沿的研究和應(yīng)用都在行業(yè)里面,所以企業(yè)也許需要承擔(dān)更多的社會(huì)責(zé)任,這也是 AI 不同于傳統(tǒng)技術(shù)的地方。薛瀾老師在公共治理方面是真正的專(zhuān)家,從社會(huì)治理的角度看,我們想請(qǐng)薛老師就企業(yè)的社會(huì)責(zé)任給一些點(diǎn)評(píng)。
議題三:從 AI 倫理和治理的角度看,科技企業(yè)有什么樣的社會(huì)責(zé)任?
在 AI 治理領(lǐng)域,“敏捷治理”是處理政企關(guān)系的最佳方式
薛瀾:現(xiàn)在我們?cè)谌斯ぶ悄茴I(lǐng)域討論治理問(wèn)題,企業(yè)要承擔(dān)很大的責(zé)任。通常講行業(yè)治理,政府作為治理者,企業(yè)作為被治理者中間,與政府往往有種博弈關(guān)系,政府出臺(tái)一些規(guī)則以后,企業(yè)總想在遵守規(guī)則的情況下,使得企業(yè)利益最大化,甚至規(guī)避一些監(jiān)管,這很常見(jiàn)。而人工智能領(lǐng)域的實(shí)際情況是,由于技術(shù)發(fā)展很快,政府作為治理者遠(yuǎn)遠(yuǎn)落后于企業(yè)。治理者在制定規(guī)則的過(guò)程中,技術(shù)已經(jīng)往前走得很遠(yuǎn),永遠(yuǎn)是一追再追(Catch up forever)。
對(duì)此,比較好的治理模式是“敏捷治理”,政府和企業(yè)都要改變觀念。如果企業(yè)發(fā)展過(guò)快,導(dǎo)致以公眾利益和安全為目標(biāo)的政府管制無(wú)法企及。倘若此時(shí)企業(yè)出現(xiàn)一些問(wèn)題、帶來(lái)一些危害,政府就會(huì)把管制口袋扎得很緊,甚至一下就會(huì)把企業(yè)卡死,這樣對(duì)技術(shù)的發(fā)展非常不利。怎樣使得治理者和技術(shù)發(fā)展者之間形成良性互動(dòng),這就要改變?cè)瓉?lái)政企互相博弈的關(guān)系,從貓抓老鼠的關(guān)系轉(zhuǎn)變成搭檔的關(guān)系。技術(shù)發(fā)展迅速可能會(huì)帶來(lái)一些危害,如果政府沒(méi)有及時(shí)采取措施,公眾也會(huì)問(wèn)責(zé),所以政府對(duì)技術(shù)不及時(shí)下手監(jiān)管,對(duì)技術(shù)發(fā)展本身也是不利的?!懊艚葜卫怼币笳c企業(yè)互相溝通,共同討論潛在風(fēng)險(xiǎn),談判如何有意識(shí)地加以規(guī)避。鑒于不同類(lèi)型的企業(yè)在不同發(fā)展階段可能考慮問(wèn)題不同,所以這時(shí)尤其需要成熟企業(yè)與政府合作,建立合理的治理框架,我覺(jué)得這是最合理的治理方式。另外,如果企業(yè)出了一點(diǎn)小問(wèn)題,政府就一下采取非常嚴(yán)厲的規(guī)制手段,對(duì)技術(shù)發(fā)展也是不利的。政企要形成互動(dòng)關(guān)系,企業(yè)要比原來(lái)承擔(dān)更大的社會(huì)責(zé)任。
由于人工智能技術(shù)的復(fù)雜性,從某種程度上講更加需要強(qiáng)化企業(yè)的自律。較之其他行業(yè),社會(huì)對(duì) AI 企業(yè)自律的要求更高,只有這樣,才能夠讓人工智能技術(shù)更健康的發(fā)展。
與其擔(dān)心 AI 導(dǎo)致的失業(yè)問(wèn)題,不如關(guān)注教育。未來(lái)在孩子的教學(xué)課程中,至少應(yīng)該安排不少于6年的 AI 通識(shí)教育。
洪小文:我認(rèn)為企業(yè)應(yīng)當(dāng)負(fù)擔(dān)更多的社會(huì)責(zé)任。第一,法律只是最低標(biāo)準(zhǔn),企業(yè)最先接觸技術(shù),法律在后制定管制標(biāo)準(zhǔn),所以企業(yè)走在管制前面。微軟這幾年的轉(zhuǎn)型很成功,很大的原因在于我們?cè)谕?lèi)公司里比較值得信賴(lài),微軟在191個(gè)國(guó)家有商務(wù)往來(lái),尤其是2B的業(yè)務(wù),守法是最基本的,沒(méi)有信任根本行不通。尤其是高科技方面,因?yàn)樯婕岸喾降睦嫦嚓P(guān)者,我們應(yīng)該要聽(tīng)取各方的想法。
第二,今天很多人把超級(jí)人工智能想像得像神一樣,但沒(méi)有影子不代表機(jī)率是零,做 AI 跟做時(shí)間機(jī)器,很難說(shuō)哪一個(gè)比較難。但是,以假設(shè)實(shí)現(xiàn)超級(jí)人工智能的思路進(jìn)行 AI 治理,完全是緣木求魚(yú),所以治理的關(guān)鍵是契合今天的 AI 技術(shù)。我可以保證人工智能再往前發(fā)展,不管進(jìn)展怎樣、能夠做到什么程度,它背后的原理永遠(yuǎn)是“AI+HI”(人工智能加人類(lèi)智慧)。我們希望這個(gè)制造群體可以做出最好的判斷。
第三,至于人工智能會(huì)不會(huì)取代一部分人類(lèi)的工作,很明顯當(dāng)然是會(huì)。從歷史來(lái)看,一兩百年前,90%的人從事農(nóng)業(yè)工作,今天最多只有10%的人從事農(nóng)業(yè),而其他的90%并沒(méi)有失業(yè)。汽車(chē)的發(fā)明導(dǎo)致馬夫失業(yè),這是技術(shù)發(fā)展的必然結(jié)果。技術(shù)更迭對(duì)職場(chǎng)的變化是必然的,更不要說(shuō)新冠疫情更加速了這一變化,遠(yuǎn)程會(huì)議、線上教育,數(shù)字化讓將來(lái)的工作場(chǎng)所可以無(wú)所不在。不管從政府角度、個(gè)人角度還是公司角度,與其擔(dān)心就業(yè)問(wèn)題,更應(yīng)該關(guān)注教育,數(shù)字教育不只屬于計(jì)算機(jī)專(zhuān)業(yè)的課程,實(shí)際對(duì)非計(jì)算機(jī)專(zhuān)業(yè)也一樣重要。我個(gè)人覺(jué)得,未來(lái)每個(gè)人不論文科理科,都至少接受了12年的數(shù)學(xué)教育,那么對(duì)于計(jì)算機(jī)、大數(shù)據(jù)、AI 等一些通用的數(shù)字技能而言,至少應(yīng)該安排6年的通識(shí)教育,這不是自由班教育,而是大家所必備的基本的數(shù)字技能。此外,還要鼓勵(lì)每個(gè)人終身學(xué)習(xí)。因?yàn)閷?duì)于 AI 而言,10年前學(xué)習(xí)的東西和現(xiàn)在完全不一樣。當(dāng)然,還需要很好地職業(yè)技能匹配及認(rèn)證系統(tǒng),幫助大家進(jìn)修以后找到更好的工作。
第四,牛津大學(xué)經(jīng)濟(jì)學(xué)家講過(guò),“The purpose of business is to produce profitable solutions to the problems of people and planet”(商業(yè)的目的不僅是利潤(rùn),而是要能夠創(chuàng)造解決人類(lèi)和地球的問(wèn)題的解決方案)。怎么樣讓 AI 解決人類(lèi)的大問(wèn)題,還可以實(shí)現(xiàn)盈利,這是每個(gè)企業(yè)都要考慮的。比如為節(jié)能減碳,微軟去年提出“負(fù)碳”的承諾,到2030年實(shí)現(xiàn)碳的負(fù)排放,到2050年消除公司從1975年成立以來(lái)的碳排放總合。要做到負(fù)排放,首先要做到零,不是通過(guò)買(mǎi)碳稅,而是要讓包括云計(jì)算在內(nèi)的所有的產(chǎn)品,都做到百分之百的零碳排放;在硬件軟件的制造上,不僅要用再生能源,而且要更省能源;同時(shí)幫助我們的伙伴以及客戶,減少他們的碳排放。當(dāng)然,面對(duì)地球環(huán)境和氣候的挑戰(zhàn),僅僅減少碳排放還不夠,碳排放即使達(dá)到零,在大氣層中怎樣回收、怎么樣捕捉碳排放,這也需要企業(yè)拿出資源資來(lái),一起治理我們的環(huán)境,不僅為我們自己,也為我們的子子孫孫。
郭銳:今天的科技企業(yè)和傳統(tǒng)大企業(yè)相比,還有一個(gè)不同的地方,就是每一個(gè)“頭部大企業(yè)”,包括美團(tuán)、微軟、螞蟻等,最初都是建立在滿足社會(huì)需求的愿景之上。比如在金融服務(wù)領(lǐng)域,因?yàn)橛辛酥Ц秾?,大大減少了人們?nèi)?***的頻率。再比如在“新冠”疫情期間,如果沒(méi)有美團(tuán)外賣(mài)或者買(mǎi)菜等智能服務(wù),整個(gè)城市都會(huì)停止運(yùn)轉(zhuǎn),正是因?yàn)橛辛诉@樣的新科技,讓我們這個(gè)城市在經(jīng)歷這么一場(chǎng)巨大挑戰(zhàn)的時(shí)候,我們能夠挺過(guò)來(lái)。剛才漆遠(yuǎn)老師講到驗(yàn)證碼的問(wèn)題,我也特別有感觸。我在人民大學(xué)教授殘障法,我們會(huì)邀請(qǐng)很多盲人朋友到課上分享經(jīng)驗(yàn)或者給我們提供一些具體案例,曾經(jīng)有一位盲人朋友分享在買(mǎi)火車(chē)****的時(shí)候,某款 APP 的驗(yàn)證碼操作非常復(fù)雜,讓沒(méi)有視力殘障的朋友使用起來(lái)都很麻煩,這導(dǎo)致他幾乎沒(méi)有辦法從手機(jī)上買(mǎi)****。去趟火車(chē)站,困難又非常大。因此,支付寶的驗(yàn)證碼真的是解決了非常實(shí)際的問(wèn)題,這些都是科技企業(yè)承擔(dān)社會(huì)責(zé)任的表現(xiàn)。正如薛老師剛才所講,企業(yè)在“敏捷治理”里回應(yīng)社會(huì)的呼聲,的確是單純的政府管理所無(wú)法取代的。
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。