馬斯克的“圣戰(zhàn)”:阻止人工智能毀滅人類
特斯拉CEO埃隆·馬斯克(Elon Musk)以押注未來而聞名,但如今卻因?yàn)楣韫葥肀?a class="contentlabel" href="http://cafeforensic.com/news/listbylabel/label/人工智能">人工智能(AI)而膽戰(zhàn)心驚。于是,他開始了自己的“十字軍東征”,以避免人類將來被人工智能扼殺。
本文引用地址:http://cafeforensic.com/article/201703/346075.htm國外《名利場》對(duì)此進(jìn)行了深度報(bào)道,AI世代(微信號(hào):tencentai)對(duì)文章進(jìn)行編譯整理如下:
一、機(jī)器殺人狂
這是一次關(guān)于人類未來命運(yùn)的友好爭論。戴密斯·哈薩比斯(Demis Hassabis)是高級(jí)人工智能(AI)的領(lǐng)先開發(fā)者,而埃隆·馬斯克(Elon Musk)是一位知名的預(yù)言者,二人曾針對(duì)人工智能的威脅進(jìn)行過針鋒相對(duì)的探討。
戴密斯·哈薩比斯
他們是硅谷最具影響力、最令人感興趣的兩個(gè)人,雖然二人均不住在硅谷。哈薩比斯是谷歌(微博)旗下人工智能實(shí)驗(yàn)室DeepMind聯(lián)合創(chuàng)始人兼CEO,數(shù)年前,他曾造訪馬斯克旗下太空探索技術(shù)公司SpaceX位于洛杉磯郊外的火箭工廠。二人在食堂里聊了起來,馬斯克說,SpaceX的終極目標(biāo)是這個(gè)世界上最重要的項(xiàng)目:星際殖民。
而哈薩比斯回復(fù)道,其實(shí)他們正在從事的是才是世界上最重要的項(xiàng)目:開發(fā)人工超級(jí)智能。馬斯克接著說,這就是我們殖民火星的原因之一:將來如果人工智能向人類發(fā)起攻擊,我們還有一個(gè)藏身之地。哈薩比斯笑著說,那人工智能也會(huì)追著人類去火星。
這番談話并未打消馬斯克對(duì)人工智能的擔(dān)憂,雖然他也相信人工智能跟蹤人類走上火星的可能性不大。
哈薩比斯今年40歲,謙遜低調(diào),但不乏競爭意識(shí),被視為幫助我們召喚“人工智能之子”的魔法師“梅林”(Merlin,魔幻電視劇《梅林傳奇》的主人公)。當(dāng)前,人工智能正在快速發(fā)展,但尚未達(dá)到馬斯克所設(shè)想的能夠威脅到人類的程度。目前,F(xiàn)acebook利用人工技術(shù)來提供精準(zhǔn)廣告服務(wù),微軟和蘋果利用人工智能來驅(qū)動(dòng)其數(shù)字助手Cortana和Siri,谷歌搜索從一開始就依賴于人工智能技術(shù)。這些努力的最終目標(biāo)就是創(chuàng)建一種靈活的、能夠自我教育的人工智能,像人類能夠自我學(xué)習(xí)一樣。
哈薩比斯是一位象棋高手,也曾經(jīng)是一位視頻游戲設(shè)計(jì)師,并設(shè)計(jì)了《邪惡天才》(Evil Genius)這款游戲。在游戲中,一位邪惡的科學(xué)家開發(fā)了一款“世界末日設(shè)備”,來主宰世界。知名風(fēng)險(xiǎn)投資人、PayPal聯(lián)合創(chuàng)始人彼得·蒂爾(Peter Thiel)和馬斯克曾向《名利場》(Vanity Fair)雜志講述過一個(gè)故事:在DeepMind的一次投資者會(huì)議上,一位投資者臨走時(shí)開玩笑地說,應(yīng)該就地射殺哈薩比斯,因?yàn)檫@是挽救人類的最后機(jī)會(huì)。
知名風(fēng)險(xiǎn)投資人、PayPal聯(lián)合創(chuàng)始人彼得·蒂爾
馬斯克3年前就發(fā)布警告,稱人工智能將來可能成為“殺人機(jī)器”。哈薩比斯的合伙人之一謝恩·萊格(Shane Legg)曾表示:“我認(rèn)為,人類將來可能會(huì)滅絕,而科技也許從中發(fā)揮部分作用。”
在2014年被谷歌收購前,馬斯克曾是DeepMind投資者。馬斯克稱,他投資DeepMind不是為了獲得資金回報(bào),而是要關(guān)注人工智能的發(fā)展。他說:“這會(huì)讓我了解人工智能的發(fā)展?fàn)顩r。我認(rèn)為,人工智能的發(fā)展速度真的很快,遠(yuǎn)超出人們預(yù)期。在日常生活中,我們很少能看到機(jī)器人走來走去。有機(jī)會(huì)看到的也就是Roomba這樣的掃地機(jī)器人,但它們無法主宰世界。”
馬斯克曾在公開場合提醒好友和科技同行,稱他們可能正在創(chuàng)造毀滅自己的方法。例如,馬斯克曾對(duì)彭博社表示, 他擔(dān)心好友拉里·佩奇(Larry Page,谷歌聯(lián)合創(chuàng)始人)可能會(huì)在無意中偶然創(chuàng)造出一種“邪惡機(jī)器”,如能夠毀滅人類的人工智能機(jī)器人。
在今年2月于迪拜舉行的“世界政府首腦峰會(huì)”上,馬斯克再次提及人工智能威脅論。他說:“有時(shí),科學(xué)家們太過于專注自己的研究,以致于沒有真正意識(shí)到其后果。”他還稱,為了不被人工智能所淘汰,人類最終需要與機(jī)器相結(jié)合,成為一種“半機(jī)械人”。馬斯克說:“我認(rèn)為,隨著時(shí)間的推移,我們將看到生物智能與數(shù)字智能的緊密結(jié)合。”
馬斯克對(duì)人工智能的擔(dān)憂始于2014年。當(dāng)時(shí),他在麻省理工學(xué)院(MIT)發(fā)表演講時(shí)稱,人工智能可能是人類存在的最大威脅。他還稱:“我們應(yīng)該出臺(tái)一些國內(nèi)或國際監(jiān)管條例,以確保我們不做傻事。有了人工智能,就相當(dāng)于我們開始召喚惡魔。”
馬斯克的這番言論被一些人工智能工程師認(rèn)為荒唐可笑,每當(dāng)他們休假后重返實(shí)驗(yàn)室,就會(huì)調(diào)侃說:“好了,讓我們重新開始召喚惡魔的工作吧!”
馬斯克并沒有被他們逗笑,但他反對(duì)無拘無束的人工智能的征程卻已經(jīng)開始。
二、馬斯克的“圣戰(zhàn)”
當(dāng)提及“他被認(rèn)為是艾茵·蘭德(Ayn Rand,俄裔美籍作家)小說中的英雄人物”(強(qiáng)調(diào)個(gè)人主義和理性的利己主義)時(shí),馬斯克笑著說:“蘭德的小說中有些極端的觀點(diǎn),但有些積極的觀點(diǎn)。”
但是,如果要真正描寫馬斯克,蘭德可能還需要做些修改。例如,眼睛是灰色的,臉看起來要憔悴些,公眾形象沒那么幽默好笑。此外,蘭德還能從馬斯克復(fù)雜的個(gè)人生活中找到更多有價(jià)值的材料:第一任妻子是科幻作家賈絲廷·馬斯克(Justine Musk),他有五個(gè)兒子(試管技術(shù),一次是雙胞胎,一次是三胞胎),第二任妻子是英國演員妲露拉·萊莉(Talulah Riley)。馬斯克和萊莉經(jīng)歷了結(jié)婚、離婚、再結(jié)婚和再離婚?!?/p>
馬斯克和第一任妻子賈絲廷·馬斯克
馬斯克和第二任妻子妲露拉·萊莉
作為一個(gè)平凡的女人,要想和馬斯克這樣長期癡迷于工作的人長期維持關(guān)系是件很困難的事情。馬斯克在接受彭博社記者阿什利·萬斯(Ashlee Vance)采訪時(shí)曾稱:“女人一周需要關(guān)注多長時(shí)間?10個(gè)小時(shí)?”
每當(dāng)馬斯克、斯蒂芬·霍金(Stephen Hawking)和比爾·蓋茨(Bill Gates)談到人工智能的威脅時(shí),許多人認(rèn)為這只是一個(gè)“10級(jí)火警”(發(fā)生的概率極小)。但馬斯克卻不以為然,他計(jì)劃傾注所有的資源來規(guī)范人工智能研發(fā),從而阻止這一切的發(fā)生。
例如,馬斯克與Y Combinator總裁薩姆·奧特曼(Sam Altman)成立了非營利機(jī)構(gòu)OpenAI,旨在預(yù)防人工智能可能帶來的災(zāi)難性影響。如今,OpenAI喜遷新址,全職員工數(shù)量達(dá)到50人,另計(jì)劃招聘10人至30人。
OpenAI 2016年6月公布了其主要目標(biāo),包括制造通用機(jī)器人和使用自然語言的聊天機(jī)器人。乍一看,OpenAI像是一個(gè)輕量級(jí)的面子工程,一群聰明的孩子們窩在低層公寓里,對(duì)抗谷歌、Facebook和其他科技公司數(shù)十億美元的人工智能項(xiàng)目,以及全世界頂尖的人工智能專家。
但是,“以少勝多,以弱勝強(qiáng)”是馬斯克的專長,他經(jīng)常用自己的風(fēng)格來做這樣的事情。在硅谷其他公司紛紛專注于IPO股價(jià)時(shí),馬斯克卻擁有著更偉大的目標(biāo),如解決全球變暖問題,殖民火星等。
OpenAI本質(zhì)上是一個(gè)研究實(shí)驗(yàn)室。建立這個(gè)實(shí)驗(yàn)室的目的在于監(jiān)督企業(yè)和政府,以免這兩個(gè)群體依靠超級(jí)人工智能系統(tǒng)過度榨取利潤或者謀取權(quán)力,并以此壓制民眾。
OpenAI也是帶著一個(gè)模糊的使命開始運(yùn)作的。這不足為奇,因?yàn)闃I(yè)界對(duì)于“采取怎樣的人工智能形式”、“人工智智能可以做什么”以及“如果去做”等問題,業(yè)內(nèi)專家也在探索中。到目前為止,針對(duì)人工智能的公共政策尚未出臺(tái),軟件在很大程度上也不受管制。
雖然馬斯克對(duì)人工智能持批評(píng)態(tài)度,但并不代表他對(duì)人工智能敬而遠(yuǎn)之。他的策略是進(jìn)攻。馬斯克認(rèn)為,首先要實(shí)現(xiàn)超級(jí)人工智能,然后在全球推廣這些技術(shù),而不是讓這些算法(人工智能技術(shù))隱藏或集中在少數(shù)科技或政府精英的手中。
馬斯克說:“我認(rèn)為防范人工智能技術(shù)被誤用的最好辦法是盡可能讓更多的人可以使用人工智能技術(shù)。如果每一個(gè)人都可以使用這項(xiàng)技術(shù),那么這項(xiàng)‘超能力’就不會(huì)成為少數(shù)團(tuán)體的囊中法寶。”
谷歌聯(lián)合創(chuàng)始人拉里·佩奇(Larry Page)和塞吉·布林(Sergey Brin)等科技精英都是馬斯克的好友,馬斯克說,佩奇和布林都認(rèn)為自己是人工智能的善意力量。但是,有時(shí)會(huì)事與愿違,一些事情可能會(huì)脫離他們最初的動(dòng)機(jī)。
馬斯克說:“馬可·奧勒利烏斯(Marcus Aurelius,羅馬皇帝)執(zhí)政期間,羅馬人民安居樂業(yè)。但到了卡里古拉(Caligula)執(zhí)政時(shí),一切都變了。 ”
三、人工智能卷土重來
在經(jīng)歷了所謂的“人工智能寒冬”之后,人工智能如今再次成為硅谷的熱門話題。OpenAI首席技術(shù)官(CTO)格雷格·布羅克曼(Greg Brockman)稱,科技市場的下一個(gè)十年將圍繞人工智能而展開,幾乎每個(gè)人都會(huì)把錢投資給那些“少數(shù)了解人工智能咒語的巫師身上”。
微軟計(jì)算機(jī)專家、“虛擬現(xiàn)實(shí)之父” 杰倫·拉尼爾(Jaron Lanier)向我們解釋了人工智能的誘人之處,他說:“有這樣一種觀點(diǎn)說,你們這些人工智能技術(shù)人員就是上帝,你們正在創(chuàng)造生活,你們正在改變現(xiàn)實(shí)。許多開發(fā)人員也有一種自戀傾向,只有我們能做這樣的事情,其他人根本做不到。教皇做不到,總統(tǒng)也做不到。我們就是人工智能的主宰……”
在過去的幾年,谷歌幾乎收購了每一家有吸引力的機(jī)器人和機(jī)器學(xué)習(xí)公司。例如,以6.5億美元收購了DeepMind,隨又組建“谷歌大腦”團(tuán)隊(duì),專攻人工智能。此外,谷歌還聘請(qǐng)了英國人工神經(jīng)網(wǎng)絡(luò)專家杰弗里·希爾頓(Geoffrey Hinton)和未來學(xué)家雷·庫茲韋爾(Ray Kurzweil)。
在佩奇的骨子里,以及谷歌的DNA中,都認(rèn)為公司走上人工智能之路不可避免。彭博社記者萬斯甚至表示:“如果 人工智能惹出什么事,我第一個(gè)就會(huì)想到谷歌。”如果谷歌能用電腦控制搜索(當(dāng)時(shí)是世界上最重要的問題),那就能用電腦做成任何事。
去年3月,DeepMind開發(fā)的人工智能圍棋程序AlphaGo因戰(zhàn)勝人類圍棋頂尖高手李世石而震驚世界。哈薩比斯稱,AlphaGo簡直就是人工智能界的“阿波羅計(jì)劃”。最近,AlphaGo又在網(wǎng)上匿名狂虐各國圍棋高手,甚至實(shí)現(xiàn)了60-0的完勝戰(zhàn)績。
無論是出于真心,還是公關(guān)目的,針對(duì)三年前的谷歌收購DeepMind交易,哈薩比斯提出了一個(gè)前提條件:雙方必須要組建一個(gè)人工智能倫理委員會(huì)。在三年前,這真的是一個(gè)彌足珍貴的舉措。這表明,哈薩比斯是在追求真正的人工智能。去年6月,DeepMind一名研究人員還發(fā)表了一篇論文, 給出了“緊急按鈕”解決方案,以阻止人工智能傷害人類。
佩奇認(rèn)為,當(dāng)前的許多系統(tǒng)都沒有處于最佳狀態(tài)。但如果能引入人工智能,人們的需求就能更好地被滿足。這樣,人們就能有更多時(shí)間陪伴家人,或追求自己的興趣愛好。雖然是佩奇的好友,但馬斯克卻不同意他的觀點(diǎn),并認(rèn)為佩奇在這個(gè)問題上的看法太天真了。
而一些硅谷人士認(rèn)為,馬斯克拯救世界是假,給自己貼金才是真。此外,馬斯克用“人機(jī)大戰(zhàn)”的劇情也是為了吸引人才,其真正目的并非阻止人工智能,而是阻止別人發(fā)展人工智能。
但萬斯認(rèn)為,馬斯克的擔(dān)心是真實(shí)存在的,雖然馬斯克到底要拿什么對(duì)抗人工智能的崛起還是個(gè)未知數(shù)。萬斯說:“馬斯克的第一任妻子曾表示,他們夜里很晚還會(huì)討論人工智能的問題。”
加州大學(xué)伯克利分校機(jī)器智能研究所(MIRI)聯(lián)合創(chuàng)始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)也認(rèn)同萬斯的觀點(diǎn),他說:“他可是馬斯克,如果想博得關(guān)注,根本不用談及人工智能,直接說移民火星就好了。”
除了谷歌, Facebook也在發(fā)展人工智能。去年,在馬斯克宣布成立OpenAI僅三周,扎克伯格就發(fā)布了新年度挑戰(zhàn)任務(wù),其中包括打造一個(gè)全能的人工智能助手。
扎克伯格曾表示:“人工智能能為我們所用,并協(xié)助我們工作。有些人認(rèn)為人工智能是個(gè)巨大的威脅,但我認(rèn)為,它的危險(xiǎn)程度遠(yuǎn)不及疾病和暴力。”去年4月,扎克伯格在Facebook開發(fā)者大會(huì)上還稱:“相對(duì)于恐懼,我更愿意選擇希望。”
在去年的圣誕節(jié)前,扎克伯格推出了人工智能助手“Jarvis”,還請(qǐng)來了好萊塢影星摩根·弗里曼(Morgan Freeman)為它配音。賈維斯雖然較為初級(jí),但切個(gè)歌,開關(guān)個(gè)燈或烤個(gè)吐司,卻完全不在話下。但馬斯克卻認(rèn)為:“這種能自動(dòng)完成家務(wù)的機(jī)器根本算不上人工智能,開關(guān)燈、調(diào)節(jié)溫度,這些都不是人工智能。”
對(duì)于馬斯克的評(píng)價(jià),扎克伯格不屑一顧。當(dāng)被問及馬斯克的“世界末日論”是“癡人說夢(mèng)”還是“有理有據(jù)”,馬斯克選擇了前者。
四、人工智能或造成歷史斷裂
馬斯克和其他一些發(fā)表過人工智能威脅論的人有時(shí)被視為“小題大作”的人,但2016年1月,馬斯克贏得了“盧德獎(jiǎng)”(Luddite Award,反技術(shù)進(jìn)步),頒發(fā)這個(gè)獎(jiǎng)項(xiàng)的是華盛頓一家科技政策智囊。不過,馬斯克不是一個(gè)人在戰(zhàn)斗。
英國著名物理學(xué)家霍金曾向BBC表示:“我認(rèn)為,人工智能的發(fā)展可能預(yù)示著人類的滅亡。”微軟聯(lián)合創(chuàng)始人比爾·蓋茨(Bill Gates)也表示,人工智能可能比核戰(zhàn)爭還要恐怖。牛津大學(xué)哲學(xué)教授尼克·博斯托姆(Nick Bostrom)2014年曾在《超級(jí)智能》(Superintelligence)一書中寫道:“一旦不友好的超級(jí)智能誕生,它就會(huì)阻止我們?nèi)ヌ鎿Q它,或改變其喜好。如果這樣,我們的命運(yùn)將被終結(jié)。”去年,美國前國務(wù)卿亨利·基辛格(Henry Kissinger)也表示,智能機(jī)器人可能造成歷史斷裂,甚至瓦解整個(gè)人類文明。
2015年1月,馬斯克、博斯托姆和其他一些業(yè)內(nèi)專家齊聚波多黎各,參加一次行業(yè)會(huì)議。這次會(huì)議達(dá)成了一個(gè)共識(shí):我們需要“火災(zāi)保險(xiǎn)”。 當(dāng)我們?cè)庥龌馂?zāi)并深受其害時(shí),人類發(fā)明了滅火器。當(dāng)車禍帶走人類生命時(shí),我們發(fā)明了安全帶和氣囊。但在核武器和人工智能問題上,我們沒有吸取教訓(xùn)的機(jī)會(huì),因此一次錯(cuò)誤都不能犯,我們需要未雨綢繆。
波多黎各會(huì)議過去半年后,馬斯克、霍金和哈薩比斯等1000多位業(yè)內(nèi)人士又簽署了一封聯(lián)名信,呼吁禁止進(jìn)攻性自動(dòng)化武器。加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖亞特·魯塞爾(Stuart Russell)稱:“在過去的50年間,最近18個(gè)月對(duì)人工智能的未來發(fā)展至關(guān)重要。因?yàn)槿斯ぶ悄芙缃K于蘇醒,并開始認(rèn)真思考怎樣做才會(huì)有一個(gè)更美好的未來。”
去年9月,美國五大科技巨頭谷歌、Facebook、亞馬遜、IBM和微軟罕見的攜起手來,成立了人工智能合作組織。此外,歐盟也開始探討機(jī)器人和人工智能方面的道德問題。
去年1月,麻省理工學(xué)院物理學(xué)家麥克斯·泰格馬克(Max Tegmark)主持了一次人工智能安全會(huì)議。佩奇也參加了這次會(huì)議,馬斯克稱,他們之間的談話不再劍拔弩張了。馬斯克在會(huì)后稱,我們還有很長的路要走,但他同時(shí)表示:“硅谷的頂級(jí)科學(xué)家們真的開始認(rèn)真對(duì)待人工智能了,他們都意識(shí)到了這項(xiàng)技術(shù)的風(fēng)險(xiǎn)。”
風(fēng)險(xiǎn)投資人蒂爾對(duì)馬斯克的“十字軍東征”有著不同的看法。他認(rèn)為,馬斯克聲勢(shì)浩大的抵制行為反而會(huì)推動(dòng)人工智能的研究,因?yàn)樗?ldquo;世界末日論”提高了人們對(duì)人工智能的興趣。
他說:“關(guān)于人工智能,當(dāng)前有一些非常棘手的問題。即使真的要確保人工智能安全,我們目前也沒有任何線索。我們甚至不知道人工智能是什么,更不用說如何來控制它們。”
蒂爾還稱:“人工智能問題包括了人們對(duì)電腦時(shí)代的全部希望和恐懼,由于上述種種限制,人類的直覺可能會(huì)失靈,因?yàn)槲覀儚奈刺幚磉^比人類還聰明的實(shí)體”。
五、與超級(jí)智能合二為一
人們?cè)谌斯ぶ悄茴I(lǐng)域的分歧,究竟孰是孰非? 未來學(xué)家、《奇點(diǎn)迫近》(The Singularity Is Near) 一書的作者雷·庫茲韋爾(Ray Kurzweil)稱:“當(dāng)前計(jì)算機(jī)對(duì)人類思考的貢獻(xiàn)頗大。就在幾年前,人工智能連貓和狗之間的差別都分不清。”
庫茲韋爾還支持人與超級(jí)智能合二為一的想法。在描述這個(gè)想法時(shí),他甚至使用了“我們”一詞,而擁有同樣想法的馬斯克則謹(jǐn)慎的選擇了“它們”。
庫茲韋爾已經(jīng)意識(shí)到了人工智能的威脅。他說:“危險(xiǎn)和希望相互交織。就像火一樣,它能取暖燒飯,但也可能燒掉你的房子。當(dāng)前,也有相應(yīng)的策略來控制這種危險(xiǎn)。”
庫茲韋爾還稱:“要想比計(jì)算機(jī)做得更好,我們要變得越來越聰明,而我們創(chuàng)造這些工具就是為了增強(qiáng)人類的能力。”
庫茲韋爾預(yù)計(jì),到本世紀(jì)30年代,人類將進(jìn)化成半機(jī)械人,通過神經(jīng)系統(tǒng)直接就能進(jìn)入虛擬現(xiàn)實(shí)(VR)和增強(qiáng)現(xiàn)實(shí)(AR)世界。他說:“屆時(shí)人人都將變成幽默大師,音樂造詣高超,智慧過人。”最終,會(huì)有許多貝多芬和愛因斯坦誕生。此外,血管中的納米機(jī)器人還能治療疾病,從身體內(nèi)部治愈我們的身體。
庫茲韋爾認(rèn)為,馬斯克的設(shè)想可能會(huì)成真。人工智能可能很友好,但也可能不夠友好。一旦反叛,人類必須要與之一戰(zhàn),而唯一的戰(zhàn)勝方式可能就是再開發(fā)一個(gè)更聰明、聽從人類指揮的人工智能機(jī)器。
對(duì)于機(jī)器人替代人類的說法,加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授魯塞爾并不認(rèn)同。他說,如果機(jī)器人替代了人類,這世界上就沒有意識(shí)存在了,無論它們創(chuàng)造出多少令人震驚的事情,這可能是最大的悲劇。博斯托姆也認(rèn)為,這樣的世界相當(dāng)于是“沒有孩子的迪士尼樂園”。
魯塞爾說:“有人認(rèn)為,如果機(jī)器人在智力上超越人類,它們就會(huì)占領(lǐng)地球,并趕走人類。但也有人認(rèn)為,我們可以把自己的思維上傳到機(jī)器體內(nèi),這樣就能進(jìn)化成有意識(shí)的機(jī)器人。但我認(rèn)為,這種想法完全不可信。”
魯塞爾也不認(rèn)同F(xiàn)acebook人工智能研究院院長、“卷積神經(jīng)網(wǎng)絡(luò)之父嚴(yán)·樂村(Yann LeCun)的觀點(diǎn)。樂村認(rèn)為,電影《機(jī)械姬》(Ex Machina)或《終結(jié)者》(Terminator)中的場景都不會(huì)出現(xiàn),因?yàn)闄C(jī)器人沒有人類的基本欲求,包括饑餓、權(quán)力、生育和自我保護(hù)。
對(duì)于“無需擔(dān)心人工智能威脅”的觀點(diǎn),支持者通常有兩大理由:其一,這根本不會(huì)發(fā)生;其二;我們可以再開發(fā)一些機(jī)器人同盟軍,來對(duì)抗背叛的機(jī)器人。魯塞爾對(duì)這兩個(gè)理由給予了反駁,稱第一個(gè)理由就好比在說,我們正駕車駛向懸崖,但在到達(dá)之前,汽車油量一定會(huì)耗盡,這不是管理日常事物的良好方式。至于第二個(gè)理由,魯塞爾說:“如果你的機(jī)器人不同意你的計(jì)劃,如何與它們結(jié)成一個(gè)團(tuán)隊(duì)?”
去年,微軟關(guān)停了自家人工智能聊天機(jī)器人Tay。本來,微軟對(duì)Tay寄予厚望,但上線后不到一天就開始發(fā)表不當(dāng)言論。馬斯克隨后表示:“看吧,讓聊天機(jī)器人變成希特勒,微軟只花了一天時(shí)間。”
六、人類將走向何方?
37歲的尤德科夫斯基是加州大學(xué)伯克利分校機(jī)器智能研究所(MIRI)的聯(lián)合創(chuàng)始人,他試圖弄清在現(xiàn)實(shí)中(而不是理論上)人類究竟能否根據(jù)意愿指揮人工智能。
在接受采訪時(shí),他率先拋出了一連串的問題,“假如你想為人工智能安裝一個(gè)緊急關(guān)閉按鈕,它會(huì)允許你安裝嗎?它會(huì)試圖弄掉這個(gè)按鈕嗎?它愿意讓你按下按鈕嗎?出問題時(shí)它會(huì)自己按下按鈕嗎?如果它能自行更改設(shè)置,它還愿意保留這個(gè)關(guān)閉按鈕嗎?我們正在研究這些問題,這些都不是簡單的問題。”
尤德科夫斯基認(rèn)為:“人工智能想奪權(quán)根本不需要控制整個(gè)互聯(lián)網(wǎng),也不需要無人機(jī)。人工智能的危險(xiǎn)不在于它們手上有槍,它們之所以危險(xiǎn),是因?yàn)楸热祟惛斆?。假設(shè)它們能根據(jù)DNA信息來預(yù)測蛋白質(zhì)結(jié)構(gòu),只需發(fā)幾封郵件給實(shí)驗(yàn)室,就能合成特定的蛋白質(zhì)。這樣,它們很快就會(huì)擁有自己的分子機(jī)器,還能建造更高端的分子機(jī)器。 ”
尤德科夫斯基說:“預(yù)測人工智能的威脅,不要想象科幻電影中紅著眼睛的人形金屬機(jī)器人,它真正的威脅來自那些看不到的、由金剛石構(gòu)成的合成細(xì)菌,它們會(huì)載著微型電腦進(jìn)入人類血液。之后,只要它們釋放一微克的肉毒桿菌毒素,人類就會(huì)倒下。當(dāng)然,人工智能究竟會(huì)不會(huì)這樣做,目前還很難預(yù)測,因?yàn)閷脮r(shí)它們的智力已經(jīng)超越人類。因此,當(dāng)你制造一個(gè)比你還聰明的事物時(shí),第一次嘗試就不能出任何差錯(cuò)。”
再回到之前對(duì)馬斯克和奧特曼的采訪,他們也認(rèn)為,不要被單純的“殺戮機(jī)器人”所分心。馬斯克說:“人工智能的的恐怖之處不在于它要化身為機(jī)器人,相反它會(huì)成為網(wǎng)絡(luò)上的算法,最終機(jī)器人就會(huì)變成終端效應(yīng)器,無限的散播是最難阻擋之處。”
馬斯克還舉例說:“假如你開發(fā)一個(gè)可以自我升級(jí)的人工智能來摘草莓,這個(gè)人工智能可以干得越來越好,摘得越來越多。但是,它想做的事情就是摘草莓,所以可能把全世界都變成草莓園,而且永遠(yuǎn)都是草莓園。這樣,人類就沒有生存空間了。”
奧特曼也表示:“一個(gè)能控制整個(gè)互聯(lián)網(wǎng)的人工智能算法,要比控制機(jī)器人的人工智能算法更強(qiáng)大,因?yàn)槲覀兊纳钤缫雅c互聯(lián)網(wǎng)密不可分。”
當(dāng)被問及人類能否開發(fā)出用來終結(jié)人工智能機(jī)器人的”緊急按鈕“時(shí),馬斯克說:“我是不想成為那個(gè)手持緊急按鈕的人,因?yàn)槿斯ぶ悄軙?huì)第一個(gè)來殺掉我。”
奧特曼則開玩笑地說:“活著真好。未來幾十年,人類要么走向自我毀滅,要么殖民宇宙。”
馬斯克補(bǔ)充說:“是的,如果你相信宇宙‘熱寂理論’,那么我們已經(jīng)都在路上了。”“熱寂理論”是猜想宇宙終極命運(yùn)的一種假說。在這樣的宇宙中,再也沒有任何可以維持運(yùn)動(dòng)或是生命的能量存在。
評(píng)論