推特“頭像裁剪”算法更愛(ài)“白幼瘦”!瑞士小哥用StyleGAN2識(shí)破算法癖好,登頂懸賞賽
如今,社交媒體當(dāng)?shù)馈?/p>
相信不少人在首次注冊(cè)社交媒體時(shí),平臺(tái)都會(huì)要你上傳一張照片當(dāng)做頭像。
有人會(huì)選擇喜歡的明星,也有人會(huì)用自己的真實(shí)照片。
但這都不是最關(guān)鍵的,可能你沒(méi)有發(fā)現(xiàn),在上傳頭像照片時(shí),平臺(tái)對(duì)某些照片存在不同程度的偏好。
比如,某些平臺(tái)內(nèi)置的算法會(huì)偏愛(ài)膚色較淺、紋理較光滑且沒(méi)有戴眼鏡的照片,或者是更年輕的面孔:
而這已經(jīng)在推特得到了證實(shí)。
根據(jù)國(guó)外多家媒體報(bào)道,推特的照片裁剪算法存在較大的漏洞,算法在預(yù)覽和聚焦不同照片中的“亮點(diǎn)”時(shí),對(duì)膚色、胖瘦、性別和年齡有不同的優(yōu)先級(jí)。
也就是說(shuō),算法會(huì)更偏好“膚色更淺、更苗條、更年輕”的面孔,而不是“膚色更深、臉型更寬、年紀(jì)更大”的面孔。
對(duì)此,有網(wǎng)友指出,如此看來(lái),算法也稱得上是某種極端主義者了。
用StyleGAN2拆解推特算法的偏好
這個(gè)研究結(jié)果來(lái)自瑞士聯(lián)邦洛桑理工學(xué)院的研究生Bogdan Kulynych。
在推特贊助的“算法漏洞懸賞大賽”中,Kulynych發(fā)現(xiàn),推特的照片裁剪算法對(duì)照片中的特征存在不同程度的偏好。
Kulynych使用StyleGAN2生成了大量逼真的面孔,他根據(jù)膚色、身材、年齡和女性化等標(biāo)簽對(duì)這些面孔進(jìn)行了分類,然后將這些數(shù)據(jù)放入了推特的照片裁剪算法中。
Kulynych發(fā)現(xiàn),推特的算法對(duì)膚色有著最為明顯的偏好趨勢(shì),算法更喜歡那些“苗條、年輕、具有典型女性面部特征”的面孔。
其次便是年齡,該算法對(duì)灰頭發(fā)和白頭發(fā)的用戶存在明顯的歧視行為。緊接著的是圖片中的文字,相較于阿拉伯?dāng)?shù)字,算法會(huì)更喜歡英語(yǔ)。
GitHub鏈接:
https://github.com/bogdan-kulynych/saliency_bias
Kulynych在總結(jié)中補(bǔ)充說(shuō):“當(dāng)應(yīng)用算法時(shí),這些內(nèi)部偏見(jiàn)本質(zhì)上會(huì)轉(zhuǎn)化為代表性不足的危害,從而剔除那些不符合算法對(duì)體重、年齡、膚色偏好的人。”
Kulynych在大賽中獲得了第一名,推特稱Kulynych的發(fā)現(xiàn)“展示了算法模型如何放大現(xiàn)實(shí)世界的偏見(jiàn)和社會(huì)對(duì)美的期望”。
推特不喜歡iPhone?漏洞得到官方承認(rèn)
在更早的時(shí)候,相關(guān)漏洞就已經(jīng)被指出。
去年,一位推特用戶試圖發(fā)布他在Zoom的面部識(shí)別中注意到的一個(gè)問(wèn)題,即在通話中沒(méi)有顯示出一位黑人同事的臉,當(dāng)他發(fā)帖到Twitter上時(shí),他注意到推特同樣更偏向于他的臉而不是黑人同事的臉。
這對(duì)卡通人物同樣適用。
甚至,還有網(wǎng)友發(fā)現(xiàn),與iPhone相比,推特的算法更傾向于顯示微軟已停產(chǎn)Windows手機(jī)。
當(dāng)推特首次上線照片裁剪功能時(shí),研究人員在博客文章中解釋了他們?nèi)绾螐拿娌孔R(shí)別開(kāi)始裁剪圖像,但實(shí)際上,并非所有的圖像都包含人臉。
此外,人臉檢測(cè)器會(huì)經(jīng)常漏掉人臉,也會(huì)在沒(méi)有人臉的情況下錯(cuò)誤地檢測(cè)到人臉。如果沒(méi)有發(fā)現(xiàn)人臉,視角會(huì)自動(dòng)地被聚焦在圖像中心,這可能會(huì)導(dǎo)致尷尬的裁剪圖像。
隨后,推特官方也進(jìn)行了調(diào)查,他們發(fā)現(xiàn):
在男性和女性之間,人口統(tǒng)計(jì)學(xué)上的平等偏向于女性的差異為8%;
在黑人和白人的比較中,白人和黑人的人口比例相差4%;
在黑人女性和白人女性的比較中,白人女性在人口平等方面的差距為7%;
在黑人和白人男性的比較中,白人男性在人口統(tǒng)計(jì)學(xué)上有2%的差異。
同時(shí),推特還通過(guò)隨機(jī)選擇100張男性和女性呈現(xiàn)的圖像來(lái)測(cè)試“男性凝視”,這些圖像在圖像中具有多個(gè)被算法識(shí)別為顯著的區(qū)域,并觀察模型如何選擇裁剪圖像。
他們發(fā)現(xiàn),每組每100張圖像,沒(méi)有裁剪到頭部位置的情況大約3張,在這種情況下,算法會(huì)裁剪圖像的其他特征,例如運(yùn)動(dòng)衫上的字母。
5月,推特下線了圖片裁剪功能,只允許用戶完整地發(fā)布照片,或自己決定如何裁剪照片。
“我們的結(jié)論之一是,并不是推特上的所有東西都適合使用算法,在這種情況下,如何裁剪圖片是一個(gè)最好由人做出的決定?!蓖铺剀浖こ炭偙O(jiān)Rumman Chowdhury在一篇關(guān)于該團(tuán)隊(duì)發(fā)現(xiàn)的博文中寫道。
Chowdhury表示:“當(dāng)我們考慮模型中的偏見(jiàn)時(shí),不僅僅是關(guān)于學(xué)術(shù)或?qū)嶒?yàn),而是它與我們?cè)谏鐣?huì)中思考的方式有關(guān)。”
如何對(duì)待算法偏見(jiàn)?
近年來(lái),隨著人工智能的逐漸發(fā)展,算法偏見(jiàn)也開(kāi)始得到了重視。
對(duì)于此,英國(guó)謝菲爾德大學(xué)計(jì)算機(jī)專家Noel Sharkey表示,應(yīng)該在可能改變生活方式的所有領(lǐng)域中禁止使用算法。
Sharkey對(duì)一系列機(jī)器學(xué)習(xí)系統(tǒng)存在偏見(jiàn)的現(xiàn)象深表?yè)?dān)憂,Sharkey表示:“現(xiàn)在有很多偏見(jiàn)發(fā)生,從工作面試到社會(huì)福利,再到?jīng)Q定誰(shuí)應(yīng)該保釋誰(shuí)應(yīng)該入獄等等,很明顯我們必須停止使用決策算法。我一直對(duì)監(jiān)管非常重視,我認(rèn)為它會(huì)扼殺創(chuàng)新?!?/p>
“但后來(lái)我意識(shí)到,有些創(chuàng)新應(yīng)該被扼殺,或者至少要有所保留。因此應(yīng)該暫停所有影響人們生活的算法,這些算法并沒(méi)有在發(fā)揮實(shí)際用處,反而在加深人們的偏見(jiàn)?!?/p>
Sharkey曾與谷歌和微軟等公司就偏見(jiàn)問(wèn)題進(jìn)行了交談,“他們知道這是一個(gè)問(wèn)題,過(guò)去幾年他們也一直在努力尋找解決方案,但到目前為止還沒(méi)有找到”。
“在實(shí)驗(yàn)室里,系統(tǒng)可以對(duì)白人男性的識(shí)別率達(dá)到98%,但女性的識(shí)別率會(huì)偏低,深色皮膚的人效果會(huì)更下一層樓。在后面兩種情況下,我們都可以說(shuō),系統(tǒng)并不能準(zhǔn)確識(shí)別人臉。”
歸根結(jié)底,算法背后是人,算法偏見(jiàn)背后其實(shí)就是人的偏見(jiàn),算法的選擇也就是在大數(shù)據(jù)處理之后人的選擇。在針對(duì)相關(guān)現(xiàn)象進(jìn)行批評(píng)時(shí),更應(yīng)需要關(guān)注現(xiàn)實(shí)中的偏見(jiàn),保持內(nèi)省。
這對(duì)每個(gè)人來(lái)說(shuō),都極為重要。
相關(guān)報(bào)道:
https://www.dailymail.co.uk/sciencetech/article-9879871/Twitters-photo-cropping-algorithm-favours-young-beautiful-light-skinned-faces-study-confirms.html
https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-image-cropping-algorithm
https://www.theguardian.com/technology/2019/dec/12/ai-end-uk-use-racially-biased-algorithms-noel-sharkey
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。