為什么人類不相信機器人呢?
盡管有24%的美國消費者認為自動駕駛汽車的安全性高于人類駕駛員,但人類卻并不相信人工智能或機器人。但是考慮到90%以上的交通事故都是由人類的錯誤導致的,所以未來有很大的可能人工智能將接過人類的駕駛權(quán),那幺我們就不禁要問了,為什幺人類不相信人工智能呢?
本文引用地址:http://cafeforensic.com/article/201710/369007.htm2014 年,沃爾頓商學院進行了一項調(diào)查,在這項調(diào)查中,調(diào)查者會根據(jù)人們做出的預測情況的好壞進行適當?shù)莫剟?。在預測過程中,人們可以使用自己的判斷,也可以采用人工智能的意見。這個算法得出的預測比人類的預測更好。盡管如此,只要人工智能做出了錯誤的預測,人們就會對其失去信心,盡管他們自己做出的錯誤更多。
這種情況被稱為“算法規(guī)避”或“算法回避”,即當機器人出現(xiàn)一個錯誤時,人們就不再信任機器人。
除此之外,在酒品、醫(yī)療服務和股票選擇上也有一些相似的研究。無一例外,不管人類和機器人相比有多幺差勁,人們都會對機器人失去信心。甚至還不需要機器人真正做錯什幺。我們通常不信任那些和我們自己不相似的東西,因為它們的運作模式和我們不一樣。
當機器人開始在各行各業(yè)開始工作時,或者人工智能出現(xiàn)各種各樣的產(chǎn)品中時,這就會成為一個問題。你應該如何增加人類對人工智能的信任,從而讓你的員工和客戶接受它呢?
解決方案卻很奇怪:讓機器人看起來更沒有信心。
看起來猶豫不決和困惑不解的機器人反倒能夠贏得人們更多的信任。馬薩諸塞大學盧維爾分校進行了一項調(diào)查,他們要求人們幫助機器人通過一項滑雪游戲的課程。他們可以選擇使用操作桿引導機器人,或者讓機器人自己做,或者兩者結(jié)合使用。自動模式下的機器人的運動時相當快的,但這一點并不為參與者所知,而且機器人的程序中有讓機器人犯錯的程序。當機器人犯錯時,研究參與者可能就會放棄機器人。但研究中的一些機器人的設計中會表現(xiàn)出困惑。當他們不肯定應該選擇那一條道路時,它們的表情就會從高興切換成悲傷。當機器人表現(xiàn)出困惑時,人們更容易相信機器人能找到自己的解決方案。
這項研究已經(jīng)用在提高人類對機器人的信任上。此外還有兩項分別來自美國芝加哥大學和康涅狄格大學和荷蘭埃因霍溫大學的研究也試圖幫助人們提高對自動駕駛汽車的信心。埃因霍溫大學的研究者設計出了一個名叫Bob的驅(qū)動程序,此外它還具有人類的表情和頭部動作。在另一項研究中,駕駛模擬器使用了友好的女性聲音,并且還有一個女性的名字Iris。顯然,人們更容易相信Iris,而不是一個沒有名字的機器。
顯然,未來十年內(nèi),人工智能的問題還將繼續(xù)是一個敏感問題。隨著機器人和人工智能不斷向工作領域的滲透,關系重大的不僅僅是是否相信它們的判斷,而且還在于是否丟掉工作,士氣的問題以及傷痕累累的自我。但是除非人類知道自己可以相信人工智能,而你并不能完成所有的事情。所以搞清楚如何實現(xiàn)你的人工智能的人性化才是一個很好的開始。
評論