色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          關(guān) 閉

          新聞中心

          EEPW首頁 > 工控自動化 > 業(yè)界動態(tài) > 為什么機(jī)器人要比普通人類工作起來更加可靠

          為什么機(jī)器人要比普通人類工作起來更加可靠

          作者: 時(shí)間:2014-05-03 來源:騰訊數(shù)碼 收藏
          編者按:機(jī)器人真的可靠嗎?樂觀主義者和悲觀主義者會有不同的看法,看看這篇文章中闡述的內(nèi)容,肯定能夠打消不少人對機(jī)器人的懷疑。

            現(xiàn)在的已經(jīng)擁有了智能,因此有時(shí)它們自己也會產(chǎn)生特定的“焦慮”和不確定性,即使是每天它們都在完成同一種任務(wù),這樣的可能性也是存在的。因此,為了減少出現(xiàn)的“焦慮”,我們應(yīng)該更加著重研究如何能夠讓它們真正的在第一時(shí)間代替人類做出正確的決定。只有這樣,在某種程度上來說,這樣的才比人類更加可靠。

          本文引用地址:http://cafeforensic.com/article/246277.htm
          為什么機(jī)器人要比普通人類工作起來更加可靠
            不管你是否認(rèn)同,已經(jīng)存在于相當(dāng)數(shù)量的機(jī)器人中。這里的“”通常指的是機(jī)器人做出自動判斷的能力,在什么情況下應(yīng)該做什么事情。到目前為止,我們所能夠接觸到的機(jī)器人,比如機(jī)器人吸塵器、自動停車系統(tǒng)、飛機(jī)駕駛儀等都非常簡單,幾乎并沒有過多的涉及自治系統(tǒng)概念。這些系統(tǒng)雖然能夠適應(yīng)它們所處的環(huán)境,并且自動對環(huán)境變化進(jìn)行應(yīng)對,但是都是實(shí)現(xiàn)已經(jīng)進(jìn)行了編程錄入,通過環(huán)境的變化來調(diào)取相應(yīng)的命令。

            經(jīng)常喜歡看科幻故事的朋友都知道,其實(shí)機(jī)器人還可以更進(jìn)一步。我們關(guān)心的是,但機(jī)器人取代了普通的人類飛行員之后,在遇到特殊情況時(shí)會自動根據(jù)條件變化做出合適的對策。在目前的飛行系統(tǒng)中,自動駕駛系統(tǒng)可以使飛機(jī)在固定的航線中飛行,但是依然需要人類飛行員來決定該走哪個方向、什么時(shí)候轉(zhuǎn)彎以及如何應(yīng)對意想不到的意外情況。同樣的道理,巡航控制、車道控制等系統(tǒng)雖然可以讓汽車根據(jù)當(dāng)前路線自動行駛,但是一切重大決策的制定還是要依靠人類。但是一旦自治系統(tǒng)變得更加先進(jìn),軟件就會發(fā)揮更大的作用。我們將不再需要真正的人類來決定何時(shí)改變飛機(jī)的飛行路線或當(dāng)高速公路關(guān)閉后選擇哪條小路繼續(xù)行駛。

            相信許多人看到這樣的想法,一定會有這樣的擔(dān)心。即使是一臺機(jī)器可以自動做出決定,那么我們怎么保證它的決定是安全的呢?相信看過《終結(jié)者》系列電影的朋友都知道,機(jī)器人其實(shí)也并非完全可靠,而在現(xiàn)實(shí)生活中,選擇乘坐飛機(jī)本身就是具有一定危險(xiǎn)概率的時(shí)間,更不用說這架飛機(jī)還是完全依靠“沒血沒肉”的機(jī)器人來駕駛。

            通常情況下我們大致要面臨兩種選擇。完全相信它們或拒絕它們。不過現(xiàn)在已經(jīng)出現(xiàn)了第三種選項(xiàng)。當(dāng)我們在與另外一個人相處時(shí),雖然我們無法確定對方做出什么樣的決定,但是我們可以基于對對方的了解而做出我們自己的判斷。而判斷的依據(jù)就是對方之前是否欺騙過我們或有過類似的經(jīng)歷。但是我們并不能完全根據(jù)這種經(jīng)驗(yàn)判斷來假設(shè)對方一定是在欺騙自己。而機(jī)器人的自治系統(tǒng)則并不一樣。它的本質(zhì)上是由軟件來控制,因此如果我們能夠?qū)⑦@些軟件變得“完美”,將所有人類的高級思維融入其中,而軟件和系統(tǒng)就會可以非常詳細(xì)的分析行動計(jì)劃。在這一點(diǎn)上,人類的大腦可并非輕易能夠辦到。

            目前,一種對計(jì)算機(jī)科學(xué)與軟件的深入分析研究已經(jīng)變得越來越流行,特別是如何證明軟件的邏輯分析能力如何正確的匹配實(shí)際的需求。這種方法被稱為形式驗(yàn)證(formal verification),在分析和評估足以影響人類安全的軟件中非常有用,比如火車站、生命支持系統(tǒng)或交通系統(tǒng)等。一旦這些軟件能夠通過自治系統(tǒng)做出更高級的決定,我們就可以對某些項(xiàng)目的詳細(xì)工作進(jìn)行更加準(zhǔn)確的驗(yàn)證。

            而目前科學(xué)界的研究最主要的方向就是如何驗(yàn)證這種自治系統(tǒng)所做出的行為判斷最為科學(xué),來證明通過軟件控制的機(jī)器人系統(tǒng)永遠(yuǎn)不會做出錯誤或糟糕的決定。

            這個決策的過程也是讓機(jī)器人被絕對信賴的核心之處,如何更舒心、更省力的讓機(jī)器來做出最佳決定。不過這樣的工作系統(tǒng)通常都是非常復(fù)雜和充滿了不確定性的,所以即使是事故已經(jīng)發(fā)生,我們也要保證軟件系統(tǒng)之前已經(jīng)至少嘗試了試圖避免事故發(fā)生。這似乎是一種不可避免的缺點(diǎn),但是至少可以讓那些擔(dān)憂科幻小說中出現(xiàn)機(jī)器人欺騙人類情況的朋友稍微放心一些。

            雖然我們不能肯定的說一個機(jī)器人永遠(yuǎn)都不會意外的對人類造成傷害,但是通過系統(tǒng)和實(shí)驗(yàn)證明至少這些傷害都不是機(jī)器人故意的行為。通過觀察機(jī)器人內(nèi)部的編程代碼,我們不僅要評估它們要去做什么,更要評估它們?yōu)楹我@樣做。盡管目前人類對于機(jī)器人和自治系統(tǒng)依然無法完全相信,但是如果了解了系統(tǒng)并不會故意對人類造成欺騙,也許就會讓這些人對機(jī)器人的好感度能夠提升一點(diǎn)。

            目前最主要的問題就是我們要證明的是什么,而不是如何來證明。我們永遠(yuǎn)無法試圖證明一個機(jī)器人會故意選擇傷害人類,但是對于諸如醫(yī)療機(jī)器人或警察機(jī)器人這種特殊行業(yè)的例子來說,也有可能是它們在試圖幫助人類(比如進(jìn)行胸部施壓幫助呼吸)的過程中無意中對人類造成傷害。還有機(jī)器人警察在保護(hù)普通公民的時(shí)候也會對犯罪份子開槍,這雖然傷害了某個人類的個體,但是其實(shí)也是為了保護(hù)大多數(shù)人的安全。

            通過上面的闡述,我們已經(jīng)從技術(shù)、哲理和倫理的角度為未來機(jī)器人更加普及的應(yīng)用進(jìn)行了一些證明。因此如果未來機(jī)器人和自治系統(tǒng)真的試圖在某些領(lǐng)域完全代替人類,我們也要相信它們本身的決策過程都是以獲得最佳結(jié)果為依據(jù)的。



          關(guān)鍵詞: 機(jī)器人 自治系統(tǒng)

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉