人類和 AI 能夠“雙向奔赴”嗎? | 近匠(1)
在業(yè)界,每逢技術變革,就離不開技術布道者和科學家的身影,他們普及和闡釋技術,在變革初期便預測未來技術的發(fā)展趨勢。成立于 1993 年的全球軟件及咨詢公司 Thoughtworks,匯聚了這些具有前瞻性眼光的人才。
“軟件開發(fā)教父”Martin Fowler 曾在加入 Thoughtworks 后這么評價它:這不是一家軟件開發(fā)公司,而是一場社會實驗。公司創(chuàng)始人 Roy Singham 作為這場實驗的發(fā)起者,試圖挑戰(zhàn)傳統(tǒng)的商業(yè)觀念,他認為一家公司不能完全由高能力的人組成,而是需要有機結合不同能力的人,從而形成多元良性的商業(yè)環(huán)境。
2006 年,墨爾本。Kristan Vingrys 作為測試主管加入 Thoughtworks。在進入管理團隊之前,他花了七年時間通曉「分布式敏捷」的開發(fā)方法,先后奔赴 Thoughtworks 的澳洲和英國擔任高管,并在今年接管了全新啟動的亞太區(qū)業(yè)務,希望通過創(chuàng)新技術實現(xiàn)每一位客戶的使命。
毫無疑問,Kristan 屬于“高能力的人”。時至今日,他已經擁有超過 20 年的技術領導經驗,在歐亞兩洲四處奔波的他擁有多地域的管理開發(fā)經驗,對于全球化團隊的管理得心應手。然而,Kristan 的座右銘卻是“過去的經驗會影響我對任何新事物的第一印象”。
沒有經驗,我們就不能合理判斷一項技術;依賴經驗,我們可能會失去創(chuàng)新的能力。那么,開發(fā)者究竟該如何運用自己的「經驗」?CSDN《近匠》特派記者奔赴 Thoughtworks 國內最大辦公室:古城西安,面對面采訪了時隔 4 年再次來華的 Thoughtworks 亞太區(qū)總裁 Kristan Vingrys,一同領略這位技術預言者的前瞻思維。
用現(xiàn)有的「經驗」 評估 ChatGPT 為時過早
每六個月左右,Thoughtworks 都會發(fā)布一期技術雷達,它記錄了開發(fā)者感興趣的最新技術趨勢和潛在風險。技術雷達涵蓋了前沿的技術,并被分為數(shù)百個條目,Thoughtworks 按照象限和圓環(huán)對條目進行分類(如圖 1 所示)。
圖 1 技術雷達的四種生命周期
象限代表條目的不同種類。圓環(huán)顯示出條目所處在的生命周期:采納、試驗、評估和暫緩。
《新程序員》:技術雷達是怎么做出來的?你們要如何評估這些技術的重要性、潛在影響和風險?
Kristan:新的一期技術雷達來自世界各地的 21 位專家針對每個熱門應用程序中的技術的評估。在小組開會之前,這些專家與當?shù)丶夹g人員舉行會議,以收集不同角度的見解。技術雷達的誕生基于他們的實際經驗和對技術的使用,而不僅僅是閱讀或思考。
《新程序員》:決策由 21 位專家作出,那網絡評論或社會輿論會影響結果嗎?
Kristan:輿論總是會起到影響作用,但最終決定還是由專家小組作出。技術雷達所有的貢獻都來自基層工作者,而專家是最終決策者。
《新程序員》:本期技術雷達加入了最新熱點:ChatGPT(如圖 2 所示)。它在技術雷達中被列為「評估」而不是更為成熟的「試驗」級別。您認為它還面臨著哪些風險和挑戰(zhàn)?
Kristan:與其說風險和挑戰(zhàn),倒不如說全世界目前都缺乏充足的實際應用經驗來對 ChatGPT 進行全面評估。人類從未有過和大語言模型進行對話式交互的體驗,這需要更多的時間觀察。我們的專家團隊使用 ChatGPT 做過許多概念驗證,但在日常生產環(huán)境中的使用還比較有限。
圖 2 技術雷達:ChatGPT
《新程序員》:在技術雷達中,領域特定的大語言模型同樣被列為「評估」級的技術(如圖 3 所示),它是否面臨著與通用語言模型相同的倫理和法律問題?例如,它是否存在對特定社會群體的歧視性?像是把 "doctor" 和 "programmer" 這樣的詞語與男性聯(lián)系在一起,或把 "nurse" 和 "homemaker" 與女性聯(lián)系在一起。
Kristan:我認為任何語言模型、任何代碼都有可能出現(xiàn)偏見。其中一些偏見可能是有意識的,但在大多數(shù)情況下,這些偏見其實是無意識產生的。你提到的例子里,人們無意識地將某個角色與特定性別相關聯(lián),這種偏見會自然地被構建到模型當中。
這是一個需要首先在文本中解決的問題。我們需要有人來質疑那些無意識的偏見,分析和處理帶有偏見的文本資料,因為這些偏見往往是難以察覺的,且不同的人會有不同的無意識偏見。所以,如果工作團隊具備多元化的思想,就更有可能發(fā)現(xiàn)并解決這些特定的偏見。
圖 3 技術雷達:領域特定的大型語言模型
《新程序員》:您對 ChatGPT 的商業(yè)化有哪些看法?GitHub Copilot 會是一個成功案例嗎?
Kristan:這兩者都值得我們的持續(xù)關注。目前可能存在一些過度炒作,但這在新技術出現(xiàn)時是常見的情況?;叵胍荒昵埃芏嗳硕蓟孟脒^谷歌眼鏡會開拓新的數(shù)字宇宙,我們將在智能世界里行走,所有的一切都要依靠谷歌眼鏡來實現(xiàn)。技術趨勢的發(fā)展就是這樣,我們會看到無數(shù)炒作,然后逐漸回歸到現(xiàn)實。
AI 帶來的變革必定會打破現(xiàn)有模式,并改變企業(yè)的解決方案,同時影響我們對代碼和技術問題的思考方式。因此,我們需要持續(xù)關注正在發(fā)生的變化,并繼續(xù)觀察和關注這些技術的發(fā)展。
《新程序員》:但 Copilot 出現(xiàn)過一些嚴重的隱私和安全問題,這是否為 ChatGPT 的商業(yè)化以及你們對它的評估帶來了不小的影響?
Kristan:這也是我們正在重點關注的問題,也是一個需要解決的問題,只有解決了它才能更廣泛地應用這些技術。目前,使用 ChatGPT 生成代碼需要獲得許可。為了解決代碼重復使用、盜用和信息泄露可能帶來的工程和安全威脅問題,微軟正在創(chuàng)建更多的私有實例。
所以,我認識的很多高管都在思考兩件事:如果我不跟隨這場潮流,我會落后嗎?如果我也加入了 AIGC 浪潮,被黑客攻擊了該怎么辦?總之,這些風險問題可能要靠微軟自己解決了。
《新程序員》:只要是真正有用的產品,用戶還是會頂著隱私安全的風險去使用它們。Facebook 和 iPhone 曾遭受過極其嚴重的黑客攻擊,但人們仍然愿意使用它們。
Kristan:人們確實會為真正有用的產品付費,但他們現(xiàn)在使用這些軟件也更加謹慎了。而且,個人信息和企業(yè)信息的性質不同。對于個人用戶來說,他們會評估自己信息被竊取的風險,并更關注實用性。而對于組織來說,發(fā)生入侵事件意味著面臨重大損失,輕則數(shù)百萬美元的損失、停業(yè)等,重則面臨數(shù)十億美元的罰款和訴訟。所以,個人和組織分別存在著不同的風險層級。
《新程序員》:除了技術雷達,你們還考慮過將 ChatGPT 用于其他工作嗎?
Kristan:目前,我們還在努力確保自己對 ChatGPT 有清晰的認識和理解。Thoughtworks 將進行大量的實驗,和客戶合作進行概念驗證和黑客馬拉松等項目。在我們積累了一些實際應用經驗之后,我們可能會在未來的工作計劃中加入更多的人工智能。
我們已經為員工提供了許多關于 ChatGPT 的指導文章,但在我們真正將大模型用于解決客戶的實際商業(yè)問題并投入到實際生產之前,我們將繼續(xù)把 ChatGPT 列為「評估」級別。
《新程序員》:想必 ChatGPT 能對你們的分析工作起到很大幫助。
Kristan:ChatGPT 并不能總是提供正確的信息或答案。它無法確定什么是正確的信息,甚至無法對同一個問題提供穩(wěn)定的答案。因此,數(shù)據(jù)集以及其所經歷的訓練過程對于大語言模型的實際表現(xiàn)非常重要,這也決定了我對 ChatGPT 可靠性的最終評價。當然,ChatGPT 肯定會提高分析工作的效率,因為它能夠更快地提供答案。
我想分享一件在澳大利亞工作群里發(fā)生的趣事:曾有個人詢問 ChatGPT,mayonnaise(蛋黃醬)一詞中有多少個“n”?它回答說,四個(見圖 4)。然后他對著 ChatGPT 繼續(xù)說,你能給我展示 mayonnaise 中四個“n”的位置嗎?結果,ChatGPT 真的回答了 mayonnaise 這個單詞四種不同的拼寫方式。雖然這四個拼寫都是真實存在的,但 ChatGPT 還是弄錯了那個人本來想問的問題——mayonnaise 里面應該有兩個字母“n”。
圖 4 雖未完全復刻,但筆者還是成功讓 ChatGPT 介紹了“蛋黃醬的四種寫法”
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。