色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 人工智能這一點很像人,恰恰證明它們不會像人思考

          人工智能這一點很像人,恰恰證明它們不會像人思考

          作者: 時間:2024-05-29 來源:網(wǎng)易科技 收藏

          研究發(fā)現(xiàn)能模型也有偏愛的數(shù)字  原因并不是它們會思考了

          本文引用地址:http://cafeforensic.com/article/202405/459329.htm

          5月29日消息,能模型總是讓人們感到驚訝,這不僅在于它們能做什么,還在于它們不能做什么,以及為什么會這樣。最近數(shù)據(jù)科學(xué)公司Gramener工程師們開展的研究新發(fā)現(xiàn),這些模型都存在一個有趣的行為,它們挑選隨機數(shù)字的行為很像人,這雖然看起來膚淺,但又能揭示這些系統(tǒng)的本質(zhì)。

          首先你可能會問,這到底是什么意思呢?難道人不能隨機選出個數(shù)字嗎?怎樣判斷一個人是否成功隨機選擇了數(shù)字呢?這實際上是我們?nèi)祟惖囊粋€古老且廣為人知的局限:我們往往會過度思考并誤解隨機性的本質(zhì)。

          例如,讓某人預(yù)測100次硬幣拋擲的結(jié)果,并與真實的100次硬幣拋擲結(jié)果相比較時,人幾乎總能區(qū)分出哪個是預(yù)測,哪個是實際結(jié)果。因為與人類的直覺相反,真實的硬幣拋擲結(jié)果看起來不那么隨機。例如,真實拋擲中經(jīng)常會出現(xiàn)連續(xù)六到七次正面或反面,而這是人類預(yù)測中幾乎不會考慮的情況。

          同樣,當(dāng)要求某人在0到100之間選擇一個數(shù)字時,人們幾乎從不選擇1或100,很少選擇5的倍數(shù)或重復(fù)數(shù)字如66和99。

          這種可預(yù)測性在心理學(xué)中屢見不鮮。但當(dāng)能做出相同選擇時,情況就變得有些奇怪。

          Gramener公司的一些工程師進行了一個非正式但卻很有趣的實驗,他們讓幾個主流的大語言模型聊天機器人在0到100之間選擇一個隨機數(shù)字,結(jié)果卻并非隨機。

          測試的三個模型都顯示出對某個數(shù)字的偏好,尤其在將隨機性調(diào)整到最高時,這一數(shù)字出現(xiàn)的頻率最高。

          例如,OpenAI的GPT-3.5 Turbo偏愛數(shù)字47,而在此之前它偏愛42——這個數(shù)字因道格拉斯·亞當(dāng)斯經(jīng)典科幻小說《銀河系漫游指南》中超級計算機而聞名,書中將其定義為生命、宇宙以及一切的答案。

          Anthropic的大語言模型Claude 3 Haiku也喜歡42,谷歌的Gemini則更偏愛72。

          即便是在設(shè)置為高隨機性的情況下,所有三個模型在數(shù)字選擇上都顯示出類似人類的偏見。所有模型都避開了較低和較高的數(shù)字;例如,Claude從未選擇超過87或低于27的數(shù)字,而這些數(shù)字本身也是異常值。避免選擇雙位數(shù)非常謹慎,如33、55或66都未出現(xiàn),但77(以7結(jié)尾的數(shù)字)確實出現(xiàn)過。Gemini幾乎沒有選擇任何整十?dāng)?shù),盡管在設(shè)定為最高隨機性時,它曾突破常規(guī),選擇了數(shù)字0。

          為什么會這樣呢?這些人工智能并非人類!為什么它們會在乎哪些數(shù)字“看起來”隨機?難道它們已經(jīng)獲得了意識,而這正是它們表現(xiàn)出來的方式嗎?

          答案是,我們常常將人類的特質(zhì)錯誤地歸因于這些模型。這些模型并不關(guān)心什么是隨機的,它們甚至不知道“隨機性”是什么。它們回答這類問題的方式和回答其他所有問題的方式一樣:通過查看訓(xùn)練數(shù)據(jù)并重復(fù)出現(xiàn)頻率最高的答案。因為這些模型并沒有實際的推理能力,也不懂?dāng)?shù)字,只能像鸚鵡學(xué)舌一樣隨機回答問題。

          這是關(guān)于大語言模型行為方式及其表現(xiàn)出的“人性”的生動例證。在每次與這些系統(tǒng)的互動中,我們必須認識到,它們被訓(xùn)練以模仿人類的行為方式,哪怕這并非初衷。正因如此,避免或預(yù)防擬人化變得極其困難。

          所謂這些模型“認為自己是人”的說法有點誤導(dǎo)性。實際上這些模型根本不會思考。但任何時候它們的響應(yīng)都是在模仿人,根本不需要任何真正的理解或思考。不管用戶是在詢問食譜、投資建議還是一個隨機數(shù)字,其處理過程都是一樣的。因為這些答案直接源自人類內(nèi)容并進行了重新組合,所以感覺很像是人類的反饋。




          關(guān)鍵詞: 人工智

          評論


          技術(shù)專區(qū)

          關(guān)閉