算法當?shù)溃槭裁慈祟惡腿斯ぶ悄茉絹碓较瘢?/h1>
編者按:算法告訴我們該如何思考,而這正在改變我們。隨著計算機學會如何模仿,我們是否正開始變得越來越像它們呢?
算法告訴我們該如何思考,而這正在改變我們。隨著計算機學會如何模仿,我們是否正開始變得越來越像它們呢?
本文引用地址:http://cafeforensic.com/article/201901/397078.htm 硅谷正越來越多地預測人們會如何回復電子郵件,會對某人的Instagram照片做出什么樣的反應,越來越多地決定人們有資格享受哪些政府服務,不久以后,即將到來的谷歌語音助理Google
Assistant將能夠為人們實時打電話預約理發(fā)師。
從醫(yī)院到學校,再到法庭,我們幾乎將算法帶到了所有的地方。我們被各種自動化系統(tǒng)所環(huán)繞。幾行代碼即可告訴我們應該看什么媒體內(nèi)容,與誰約會,甚至告訴司法系統(tǒng)應該把誰送進監(jiān)獄。
我們把如此之多的決策權(quán)和控制權(quán)交給這些程序,是對的嗎?
我們之所以癡迷于數(shù)學程序,是因為它們能對一系列錯綜復雜的問題給出快速而準確的答案。機器學習系統(tǒng)已經(jīng)被應用于我們的現(xiàn)代社會的幾乎每一個領域。
算法是如何影響我們的日常生活的?在一個不斷變化的世界里,機器正在快速而出色地學習人類的行為方式,我們喜歡些什么,討厭些什么,以及什么是對我們最好的。我們現(xiàn)在生活在由預測性技術主宰的空間里。
通過分析整理海量的數(shù)據(jù),給我們提供即時且相關的結(jié)果,算法極大地改變了我們的生活。多年來,我們讓公司們收集了大量的數(shù)據(jù),讓公司變得能夠給我們提供各種建議,能夠決定什么是對我們最有利的。
谷歌母公司Alphabet或亞馬遜等公司一直在為各自的算法灌輸從我們身上收集到的數(shù)據(jù),并指導人工智能利用收集到的信息來適應我們的需求,變得更像我們。然而,隨著我們習慣了這些便捷的功能以后,我們的說話和行為方式是否會變得更像一臺計算機呢?
“算法本身并不公平,因為構(gòu)建模型的人定義了成功?!薄獢?shù)據(jù)科學家凱茜·奧尼爾(Cathy O’Neil)
按照當前這樣的技術發(fā)展速度,我們不可能不去想象在不久的將來,我們的行為會變得由算法引導或支配。事實上,這已經(jīng)在發(fā)生了。
去年10月,谷歌為旗下郵箱服務Gmail推出了名為“Smart
Reply”的智能回復功能,意在幫助你編寫回信或者快速回復。此后,該助理功能在互聯(lián)網(wǎng)上掀起了一場風暴,很多人都批評它,稱其量身定制的建議具有侵害性,讓人看起來像機器,甚至有人認為,它的回復最終可能會影響我們的交流方式,甚至可能改變電子郵件的規(guī)范。
算法的主要問題在于,隨著它們變得如此巨大而復雜,它們會開始給我們當前的社會帶來負面影響,會危及民主。隨著機器學習系統(tǒng)在社會的許多領域變得越來越普遍,算法會統(tǒng)治世界,接管我們的思想嗎?
現(xiàn)在,讓我們來看看Facebook的做法。早在2015年,他們的新版News
Feed信息流的設計初衷就是篩選用戶的訂閱內(nèi)容,使其變成個性化的報紙,讓用戶能夠看到與他們之前曾點贊、分享和評論的內(nèi)容相關的東西。
“個性化”算法的問題在于,它們會將用戶放入“過濾氣泡”或者“回聲室”。在現(xiàn)實生活中,大多數(shù)人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點。就Facebook的算法而言,該公司給予用戶他們想要看到的東西,因此,每個用戶的信息流都變成一個獨特的世界,它們本身就是一個獨特的現(xiàn)實。
過濾氣泡使得公開論證變得越來越困難,因為從系統(tǒng)的視角來看,信息和虛假信息看起來完全一樣。正如羅杰?麥克納米(Roger
McNamee)最近在《時代》(Time)雜志上所寫的那樣,“在Facebook上,事實不是絕對的;它們是一種選擇,最初留給用戶和他們的朋友決定的一種選擇,但隨后被算法放大,以便促進傳播和用戶的互動?!?/p>
過濾氣泡制造了一種錯覺:每個人都相信我們在做著同樣的事情,或者有同樣的習慣。我們已經(jīng)知道,在Facebook上,算法因為加劇了兩極化而讓這一問題進一步惡化,最終損害了民主。有證據(jù)表明,算法可能影響了英國公投或2016年美國總統(tǒng)大選的結(jié)果。
“Facebook的算法推崇極端信息,而非中性信息,這會讓虛假信息凌駕于真實信息之上,讓陰謀論凌駕于事實之上?!薄韫韧顿Y人羅杰·麥克納米(Roger
McNamee)
在無時無刻都充斥著大量信息的當今世界,篩選信息對一些人來說是一個巨大的挑戰(zhàn)。如果使用得當,人工智能可能會增強人們的在線體驗,或幫助人們迅速處理不斷增長的內(nèi)容資訊負荷。然而,要能夠正當運作,算法需要關于真實世界中發(fā)生的事情的準確數(shù)據(jù)。
公司和政府需要確保算法的數(shù)據(jù)不存在偏見,且是準確的。由于沒有什么是完美無瑕的,存在自然偏差的數(shù)據(jù)估計已經(jīng)存在于許多的算法中,這不僅給我們的網(wǎng)絡世界帶來了危險,也給現(xiàn)實世界帶來了危險。
倡導實施更強有力的監(jiān)管框架是必要的,這樣我們就不會陷入技術上的蠻荒。
我們也應該非常謹慎于我們賦予算法的能力。人們正變得越來越擔心算法帶來的透明度問題,算法做出的決策和流程背后的倫理意味,以及影響人們工作生活的社會后果。例如,在法庭上使用人工智能可能會增加偏見,造成對少數(shù)族裔的歧視,因為它會考慮到“風險”因素,比如人們所在的社區(qū)以及與犯罪的關聯(lián)性。這些算法可能會犯下災難性的系統(tǒng)性錯誤,把現(xiàn)實中無辜的人類送進監(jiān)獄。
“我們有失去人性的危險嗎?”
安全專家布魯斯·施奈爾(Bruce Schneier)在他的書《點擊這里殺死所有人》(Click Here to Kill
Everybody)中寫道,“如果我們讓計算機為我們思考,而底層的輸入數(shù)據(jù)是糟糕的,那么它們會進行糟糕的思考,而我們可能永遠都不會察覺?!?/p>
英國倫敦大學學院的數(shù)學家漢娜·弗萊(Hannah
Fry)帶領我們進入了一個計算機可以自由操作的世界。在她的新著作《世界你好:在算法的時代里做個人類》(Hello World: Being Human In
the Age of Algorithms)中,她認為,作為公民,我們應該更多地關注鍵盤后面的人,即那些編寫算法的人。
“我們不必創(chuàng)造一個由機器來告訴我們該做什么或者該如何思考的世界,盡管我們最終很可能會進入這樣一個世界?!彼f道。在整本書中,她多次問道:“我們有失去人性的危險嗎?”
現(xiàn)在,我們還沒有到人類被排除在外的階段。我們在這個世界上的角色還沒有被邊緣化,在很長一段時間內(nèi)都不會。人類和機器可以結(jié)合各自的優(yōu)勢和劣勢一起運作。機器有缺陷,會犯和我們一樣的錯誤。我們應該注意我們交出了多少的信息,放棄了多少的能力,畢竟算法現(xiàn)在是人類固有的一部分,它們不會在短時間內(nèi)消失。
算法告訴我們該如何思考,而這正在改變我們。隨著計算機學會如何模仿,我們是否正開始變得越來越像它們呢?
本文引用地址:http://cafeforensic.com/article/201901/397078.htm硅谷正越來越多地預測人們會如何回復電子郵件,會對某人的Instagram照片做出什么樣的反應,越來越多地決定人們有資格享受哪些政府服務,不久以后,即將到來的谷歌語音助理Google Assistant將能夠為人們實時打電話預約理發(fā)師。
從醫(yī)院到學校,再到法庭,我們幾乎將算法帶到了所有的地方。我們被各種自動化系統(tǒng)所環(huán)繞。幾行代碼即可告訴我們應該看什么媒體內(nèi)容,與誰約會,甚至告訴司法系統(tǒng)應該把誰送進監(jiān)獄。
我們把如此之多的決策權(quán)和控制權(quán)交給這些程序,是對的嗎?
我們之所以癡迷于數(shù)學程序,是因為它們能對一系列錯綜復雜的問題給出快速而準確的答案。機器學習系統(tǒng)已經(jīng)被應用于我們的現(xiàn)代社會的幾乎每一個領域。
算法是如何影響我們的日常生活的?在一個不斷變化的世界里,機器正在快速而出色地學習人類的行為方式,我們喜歡些什么,討厭些什么,以及什么是對我們最好的。我們現(xiàn)在生活在由預測性技術主宰的空間里。
通過分析整理海量的數(shù)據(jù),給我們提供即時且相關的結(jié)果,算法極大地改變了我們的生活。多年來,我們讓公司們收集了大量的數(shù)據(jù),讓公司變得能夠給我們提供各種建議,能夠決定什么是對我們最有利的。
谷歌母公司Alphabet或亞馬遜等公司一直在為各自的算法灌輸從我們身上收集到的數(shù)據(jù),并指導人工智能利用收集到的信息來適應我們的需求,變得更像我們。然而,隨著我們習慣了這些便捷的功能以后,我們的說話和行為方式是否會變得更像一臺計算機呢?
“算法本身并不公平,因為構(gòu)建模型的人定義了成功?!薄獢?shù)據(jù)科學家凱茜·奧尼爾(Cathy O’Neil)
按照當前這樣的技術發(fā)展速度,我們不可能不去想象在不久的將來,我們的行為會變得由算法引導或支配。事實上,這已經(jīng)在發(fā)生了。
去年10月,谷歌為旗下郵箱服務Gmail推出了名為“Smart Reply”的智能回復功能,意在幫助你編寫回信或者快速回復。此后,該助理功能在互聯(lián)網(wǎng)上掀起了一場風暴,很多人都批評它,稱其量身定制的建議具有侵害性,讓人看起來像機器,甚至有人認為,它的回復最終可能會影響我們的交流方式,甚至可能改變電子郵件的規(guī)范。
算法的主要問題在于,隨著它們變得如此巨大而復雜,它們會開始給我們當前的社會帶來負面影響,會危及民主。隨著機器學習系統(tǒng)在社會的許多領域變得越來越普遍,算法會統(tǒng)治世界,接管我們的思想嗎?
現(xiàn)在,讓我們來看看Facebook的做法。早在2015年,他們的新版News Feed信息流的設計初衷就是篩選用戶的訂閱內(nèi)容,使其變成個性化的報紙,讓用戶能夠看到與他們之前曾點贊、分享和評論的內(nèi)容相關的東西。
“個性化”算法的問題在于,它們會將用戶放入“過濾氣泡”或者“回聲室”。在現(xiàn)實生活中,大多數(shù)人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點。就Facebook的算法而言,該公司給予用戶他們想要看到的東西,因此,每個用戶的信息流都變成一個獨特的世界,它們本身就是一個獨特的現(xiàn)實。
過濾氣泡使得公開論證變得越來越困難,因為從系統(tǒng)的視角來看,信息和虛假信息看起來完全一樣。正如羅杰?麥克納米(Roger McNamee)最近在《時代》(Time)雜志上所寫的那樣,“在Facebook上,事實不是絕對的;它們是一種選擇,最初留給用戶和他們的朋友決定的一種選擇,但隨后被算法放大,以便促進傳播和用戶的互動?!?/p>
過濾氣泡制造了一種錯覺:每個人都相信我們在做著同樣的事情,或者有同樣的習慣。我們已經(jīng)知道,在Facebook上,算法因為加劇了兩極化而讓這一問題進一步惡化,最終損害了民主。有證據(jù)表明,算法可能影響了英國公投或2016年美國總統(tǒng)大選的結(jié)果。
“Facebook的算法推崇極端信息,而非中性信息,這會讓虛假信息凌駕于真實信息之上,讓陰謀論凌駕于事實之上?!薄韫韧顿Y人羅杰·麥克納米(Roger McNamee)
在無時無刻都充斥著大量信息的當今世界,篩選信息對一些人來說是一個巨大的挑戰(zhàn)。如果使用得當,人工智能可能會增強人們的在線體驗,或幫助人們迅速處理不斷增長的內(nèi)容資訊負荷。然而,要能夠正當運作,算法需要關于真實世界中發(fā)生的事情的準確數(shù)據(jù)。
公司和政府需要確保算法的數(shù)據(jù)不存在偏見,且是準確的。由于沒有什么是完美無瑕的,存在自然偏差的數(shù)據(jù)估計已經(jīng)存在于許多的算法中,這不僅給我們的網(wǎng)絡世界帶來了危險,也給現(xiàn)實世界帶來了危險。
倡導實施更強有力的監(jiān)管框架是必要的,這樣我們就不會陷入技術上的蠻荒。
我們也應該非常謹慎于我們賦予算法的能力。人們正變得越來越擔心算法帶來的透明度問題,算法做出的決策和流程背后的倫理意味,以及影響人們工作生活的社會后果。例如,在法庭上使用人工智能可能會增加偏見,造成對少數(shù)族裔的歧視,因為它會考慮到“風險”因素,比如人們所在的社區(qū)以及與犯罪的關聯(lián)性。這些算法可能會犯下災難性的系統(tǒng)性錯誤,把現(xiàn)實中無辜的人類送進監(jiān)獄。
“我們有失去人性的危險嗎?”
安全專家布魯斯·施奈爾(Bruce Schneier)在他的書《點擊這里殺死所有人》(Click Here to Kill Everybody)中寫道,“如果我們讓計算機為我們思考,而底層的輸入數(shù)據(jù)是糟糕的,那么它們會進行糟糕的思考,而我們可能永遠都不會察覺?!?/p>
英國倫敦大學學院的數(shù)學家漢娜·弗萊(Hannah Fry)帶領我們進入了一個計算機可以自由操作的世界。在她的新著作《世界你好:在算法的時代里做個人類》(Hello World: Being Human In the Age of Algorithms)中,她認為,作為公民,我們應該更多地關注鍵盤后面的人,即那些編寫算法的人。
“我們不必創(chuàng)造一個由機器來告訴我們該做什么或者該如何思考的世界,盡管我們最終很可能會進入這樣一個世界?!彼f道。在整本書中,她多次問道:“我們有失去人性的危險嗎?”
現(xiàn)在,我們還沒有到人類被排除在外的階段。我們在這個世界上的角色還沒有被邊緣化,在很長一段時間內(nèi)都不會。人類和機器可以結(jié)合各自的優(yōu)勢和劣勢一起運作。機器有缺陷,會犯和我們一樣的錯誤。我們應該注意我們交出了多少的信息,放棄了多少的能力,畢竟算法現(xiàn)在是人類固有的一部分,它們不會在短時間內(nèi)消失。
評論