GPT-4/文心一言齊發(fā)布,誰(shuí)更強(qiáng)?李開復(fù):AI 2.0 最先應(yīng)用在能容錯(cuò)領(lǐng)域;顏水成加入智源,任訪問(wèn)首席科學(xué)家
本周AI界又有哪些新鮮事?
大模型
史上最強(qiáng)模型 GPT-4 上線,賦能 Office 全家桶本周,OpenAI以迅雷不及掩耳之勢(shì)推出了GPT-4。相較于ChatGPT,GPT-4的更強(qiáng)性能表現(xiàn)在多模態(tài),可以接受圖像和文本輸入,同時(shí)返回文本輸出。具體強(qiáng)大到什么程度,一個(gè)示例足以證明:
用戶:這幅畫有什么好笑的地方?逐一描述它的板塊。圖片來(lái)源:https://www.reddit.com/r/hmmm/comments/ubab5v/hmmm/GPT-4:圖片顯示的是一個(gè) "Lightning Cable "適配器的包裝,有三個(gè)板塊:板塊1:一部智能手機(jī),VGA 連接器(通常用于電腦顯示器的大型藍(lán)色 15 針連接器)插在其充電端口。
板塊2:"Lightning Cable "適配器的包裝上有一張 VGA 接口的圖片。板塊3:VGA 連接器的特寫,末端是一個(gè)小的 Lightning 連接器(用于為 iPhone 和其他蘋果設(shè)備充電)。這張圖片的幽默感來(lái)自于將一個(gè)大的、過(guò)時(shí)的 VGA 連接器插入一個(gè)小的、現(xiàn)代的智能手機(jī)充電端口的荒謬性。除了具備超強(qiáng)的判斷和輸出能力外,GPT-4的理解能力也相當(dāng)驚人,據(jù)OpenAI的官網(wǎng)透露,在模擬律師的考試中,GPT-4的分?jǐn)?shù)達(dá)到應(yīng)試者前10%,較上一個(gè)版本GPT-3.5倒數(shù)10%的得分有了跨越式提升。而據(jù)最新消息,繼將 GPT-4 引入搜索引擎之后,微軟再出“殺手锏”,重磅宣布由 AI 驅(qū)動(dòng)的 Microsoft 365 Copilot ,它將大模型(LLM)與 Microsoft Graph 和 Microsoft 365 應(yīng)用中的數(shù)據(jù)相結(jié)合,打破了傳統(tǒng)辦公軟件的方式,能自動(dòng)生成文檔、電子郵件、PPT,讓W(xué)ord、Excel、PowerPoint、Outlook、Teams 等辦公軟件的效率提升多倍。頂住壓力,百度文心一言正式亮相蓄勢(shì)了一個(gè)多月,承載著無(wú)數(shù)人或期盼或好奇的目光,“國(guó)產(chǎn)版 ChatGPT” 文心一言本周終于正式亮相!在發(fā)布會(huì)伊始,對(duì)于外界頻頻問(wèn)及的“為什么現(xiàn)在發(fā)布,百度是否真做好了準(zhǔn)備”等疑問(wèn),百度 CEO 李彥宏在開場(chǎng)進(jìn)行了回應(yīng):
“過(guò)去多年,百度一直在進(jìn)行 AI 技術(shù)的研究與研發(fā)。文心大模型首個(gè)版本在 2019 年便已發(fā)布,文心一言只是過(guò)去多年研發(fā)成果的延續(xù)。之所以現(xiàn)在發(fā)布,是因?yàn)楝F(xiàn)在市場(chǎng)有強(qiáng)烈的需求,包括百度從搜索、智能云到自動(dòng)駕駛,再到客戶、用戶,都需要這樣的技術(shù)。同時(shí),大模型只有發(fā)布了,才會(huì)有用戶反饋,只有通過(guò)不斷地反饋,才能加速模型自身的迭代。”在文心一言的產(chǎn)品性能上,據(jù)李彥宏介紹,包括多模態(tài)生成、數(shù)理推算、文學(xué)創(chuàng)作、中文理解,以及商業(yè)文案創(chuàng)作等。另?yè)?jù)百度 CTO 王海峰表示,“文心一言是新一代知識(shí)增強(qiáng)大語(yǔ)言模型,是在 ERNIE 及 PLATO 系列模型的基礎(chǔ)上研發(fā)的?!?/span>在未來(lái)產(chǎn)業(yè)落地上,主要有三大機(jī)會(huì)預(yù)測(cè):新型云計(jì)算公司、行業(yè)模型精調(diào)公司,以及基于大模型底座進(jìn)行應(yīng)用開發(fā)的公司。GPT-4 VS 文心一言對(duì)比測(cè)試:文心一言 vs ChatGPT!相同 10 問(wèn),結(jié)果出乎意料
當(dāng)整個(gè)科技圈都在為 GPT-4 的強(qiáng)悍而震驚時(shí),無(wú)人在意的角落,谷歌正在努力追趕 OpenAI :日前,谷歌官方宣布,正式開放其 PaLM 大型語(yǔ)言模型 API,并將在 Gmail、Docs 等中陸續(xù)提供 AI 功能,幫助企業(yè)“從簡(jiǎn)單的自然語(yǔ)言提示中生成文本、圖像、代碼、視頻、音頻等”。好在,盡管大多人的目光都聚焦在 GPT-4 上,但仍有不少網(wǎng)友發(fā)現(xiàn)了谷歌的動(dòng)作:據(jù)官方介紹,本次谷歌開放的 PaLM API,是其大型語(yǔ)言模型的入口,可用于各種應(yīng)用程序。不僅可為開發(fā)者提供針對(duì)內(nèi)容生成和聊天功能優(yōu)化的模型,擅長(zhǎng)匯總、分類等任務(wù)的通用模型也不在話下。在博文中,谷歌表示:“PaLM API 是一個(gè)面向開發(fā)者的新產(chǎn)品,可輕松安全地試驗(yàn)谷歌大型語(yǔ)言模型?!敝档靡惶岬氖牵瑸榱朔奖汩_發(fā)者使用 PaLM API,谷歌還發(fā)布了一個(gè)名為 MakerSuite 的工具。事實(shí)上,近年來(lái)谷歌一直在構(gòu)建和部署大型語(yǔ)言模型時(shí)發(fā)現(xiàn),生成式 AI 開發(fā)的過(guò)程太“碎片化”:不論是制作或迭代提示、生成合成數(shù)據(jù)還是調(diào)整自定義模型,開發(fā)者都必須要用不同的工具來(lái)完成。李開復(fù):AI 2.0會(huì)最先應(yīng)用在能容錯(cuò)的領(lǐng)域在3月14日創(chuàng)新工場(chǎng)舉辦的現(xiàn)場(chǎng)討論會(huì)上,董事長(zhǎng)兼CEO李開復(fù)對(duì)AI的2.0時(shí)代提出了自己的見解。在看他看來(lái):“AI 2.0 是絕對(duì)不能錯(cuò)過(guò)的一次革命,它會(huì)是一個(gè)平臺(tái)級(jí)別的趨勢(shì),超過(guò)移動(dòng)互聯(lián)網(wǎng)十倍。”早在去年末ChatGPT橫空出世之前,李開復(fù)便用一個(gè)比喻來(lái)形容現(xiàn)今人工智能的發(fā)展?jié)摿Γ骸?span style="margin: 0px; padding: 0px; outline: 0px; max-width: 100%; visibility: visible; font-family: arial; text-decoration-style: solid; text-decoration-color: rgb(51, 51, 51); box-sizing: border-box !important; overflow-wrap: break-word !important;">全球人工智能商業(yè)化還在籃球比賽第一節(jié),我們用深度學(xué)習(xí)投中了一個(gè)三分球,用卷積神經(jīng)網(wǎng)絡(luò)和自監(jiān)督學(xué)習(xí)投中了兩個(gè)二分球,而整個(gè)比賽可能剛打了兩分鐘。”
AI人物
據(jù)北京智源人工智能研究院官網(wǎng)發(fā)布,計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)領(lǐng)域?qū)<翌佀杉尤胫窃囱芯吭?,任訪問(wèn)首席科學(xué)家。顏水成教授是新加坡工程院院士、AAAI、ACM、IEEE 和 IAPR 會(huì)士。此前曾任智源學(xué)者-機(jī)器學(xué)習(xí)方向首席科學(xué)家,Sea集團(tuán)首席科學(xué)家。他的研究領(lǐng)域包括計(jì)算機(jī)視覺(jué)、機(jī)器學(xué)習(xí)和多模態(tài)分析等。迄今為止,顏水成的 H-index 高達(dá) 130+,八次被評(píng)為年度全球“高被引科學(xué)家”。此外,顏水成的團(tuán)隊(duì)曾在兩項(xiàng)核心競(jìng)賽 Pascal VOC 和 ImageNet (ILSVRC) 中獲得十次冠軍和榮譽(yù)獎(jiǎng),在多模態(tài)頂級(jí)會(huì)議 ACM 上拿下3次最佳論文獎(jiǎng),2次最佳學(xué)生論文獎(jiǎng)和1次最佳演示獎(jiǎng)。何愷明MIT求職演講成追星現(xiàn)場(chǎng)百度百科關(guān)于何愷明的評(píng)價(jià)是這樣的:“提到何愷明,很多學(xué)術(shù)界的人都將其視為天才型人物。從高考滿分狀元,到CVPR最佳論文獎(jiǎng)首位華人得主,再到震驚學(xué)界的深度殘差網(wǎng)絡(luò),這位80后青年才俊有著諸多傳奇故事。”近日,這位天才人物去到MIT進(jìn)行求職演講,雖然不知道能否在學(xué)術(shù)圣地繼續(xù)續(xù)寫傳奇,但天才的光環(huán)效應(yīng)著實(shí)拉滿。據(jù)現(xiàn)場(chǎng)參會(huì)者傳出消息,有人為了聽他的演講,提前3小時(shí)在教室門口排隊(duì),而到演講前半個(gè)小時(shí),門口的隊(duì)伍都拐了幾個(gè)彎。據(jù)了解,何愷明為此次演講準(zhǔn)備了129頁(yè)P(yáng)PT,回顧了他在計(jì)算機(jī)視覺(jué)領(lǐng)域所做的研究工作,涵蓋ResNet、Faster RCNN、Mask RCNN、MoCO和MAE。對(duì)于未來(lái)的工作規(guī)劃,他定位為“AI for Science”。如果何愷明成功加入MIT,他將成為該校論文被引數(shù)量最高的人,其目前被引次數(shù)高達(dá)40萬(wàn)+。
AI工具
PyTorch官網(wǎng)正式發(fā)布PyTorch 2.03月15日,PyTorch官網(wǎng)正式發(fā)布PyTorch 2.0。相較1.0版本,2.0版本有了較大改進(jìn),包括:圖片來(lái)源:PyTorch官網(wǎng)PyTorch 2.0的主要API torch.compile,具備100%向后兼容性;配置Nvidia和AMD GPU,以及依靠OpenAI Triton深度學(xué)習(xí)編譯器的TorchInductor,可生成高性能代碼,同時(shí)隱藏低級(jí)別的硬件細(xì)節(jié);
加速變形器引入了對(duì)訓(xùn)練和推理的高性能支持,可以使用一個(gè)定制的內(nèi)核架構(gòu)來(lái)實(shí)現(xiàn)縮放點(diǎn)積關(guān)注(SPDA);
金屬性能著色器(MPS)后端在Mac平臺(tái)上提供GPU加速的PyTorch訓(xùn)練,增加了對(duì)最常用的60個(gè)操作的支持,覆蓋范圍可達(dá)到300多個(gè)操作;
與之前版本相比,PyTorch 2.0提高了Graviton上的推理性能,包括對(duì)Resnet50和Bert的改進(jìn);
跨越TensorParallel、DTensor、2D parallel、TorchDynamo、AOTAutograd、PrimTorch和TorchInductor的新原型功能和技術(shù)。
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。