色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁 > 博客 > ICLR2023 | 阿卜杜拉國王科技大學(xué)最新發(fā)布,3D表示新網(wǎng)絡(luò):多視圖+點(diǎn)云!(2)

          ICLR2023 | 阿卜杜拉國王科技大學(xué)最新發(fā)布,3D表示新網(wǎng)絡(luò):多視圖+點(diǎn)云!(2)

          發(fā)布人:計(jì)算機(jī)視覺工坊 時(shí)間:2023-08-22 來源:工程師 發(fā)布文章
          引言

          3D 計(jì)算機(jī)視覺和計(jì)算機(jī)圖形學(xué)的一個(gè)基本問題是如何表示 3D 數(shù)據(jù)。鑒于深度學(xué)習(xí)在 2D 計(jì)算機(jī)視覺領(lǐng)域的成功推動(dòng)了深度學(xué)習(xí)在 3D 視覺和圖形領(lǐng)域的廣泛采用,這個(gè)問題變得尤為重要。

          事實(shí)上,深度網(wǎng)絡(luò)已經(jīng)在 3D 分類、3D 分割、3D 檢測(cè)、3D 重建和新穎的視圖合成。計(jì)算機(jī)視覺網(wǎng)絡(luò)依賴于直接 3D 表示、圖像上的間接 2D 投影或兩者的混合。

          • 直接方法對(duì)通常以點(diǎn)云、網(wǎng)格或體素表示的 3D 數(shù)據(jù)進(jìn)行操作。
          • 相比之下,間接方法通常渲染對(duì)象或場(chǎng)景的多個(gè) 2D 視圖,并使用傳統(tǒng)的基于 2D 圖像的架構(gòu)處理每個(gè)圖像。人類視覺系統(tǒng)更接近這種用于 3D 理解的多視圖間接方法,因?yàn)樗邮珍秩緢D像流而不是顯式 3D 數(shù)據(jù)。

          使用間接方法處理 3D 視覺任務(wù)具有三個(gè)主要優(yōu)勢(shì):

          • (i) 成熟且可遷移的 2D 計(jì)算機(jī)視覺模型(CNN、Transformers 等);
          • (ii) 用于預(yù)訓(xùn)練的大型和多樣化標(biāo)記圖像數(shù)據(jù)集(例如 ImageNet);
          • (iii) 多視圖圖像根據(jù)視角提供豐富的上下文特征,這與幾何 3D 鄰域特征不同。

          多視圖方法在 3D 形狀分類和分割方面取得了令人印象深刻的性能。然而,多視圖表示(尤其是密集預(yù)測(cè))的挑戰(zhàn)在于將每個(gè)視圖的特征與 3D 點(diǎn)云正確聚合。需要進(jìn)行適當(dāng)?shù)木酆弦垣@得具有代表性的 3D 點(diǎn)云,每個(gè)點(diǎn)具有適用于典型點(diǎn)云處理管道的單個(gè)特征。

          以前的多視圖工作依賴于將像素映射到點(diǎn)后的啟發(fā)式方法(例如平均或標(biāo)簽?zāi)J匠鼗蚺c體素的多視圖融合。由于某些原因,此類設(shè)置可能不是最佳設(shè)置。

          • (i) 這種啟發(fā)式方法可能會(huì)匯總從中獲得的誤導(dǎo)性預(yù)測(cè)信息任意觀點(diǎn)。例如,從底部看一個(gè)對(duì)象并獨(dú)立處理該視圖,當(dāng)與其他視圖結(jié)合時(shí),可能會(huì)攜帶有關(guān)該對(duì)象內(nèi)容的錯(cuò)誤信息。
          • (ii) 視圖缺少幾何 3D 信息。

          為此,本文提出了一種新的混合 3D 數(shù)據(jù)結(jié)構(gòu),它繼承了點(diǎn)云的優(yōu)點(diǎn)(即緊湊性、靈活性和 3D 描述性),并利用了多視圖投影豐富的感知特征的優(yōu)勢(shì)。將這種新表示稱為多視圖點(diǎn)云(或 Voint cloud),并在圖 1 中進(jìn)行了說明。

          Voint cloud是一組 Voint,其中每個(gè) Voint 是一組與視圖相關(guān)的特征(視圖特征),對(duì)應(yīng)于3D 點(diǎn)云中的相同點(diǎn)。這些視圖特征的基數(shù)可能因一個(gè) Voint 而異。在表1 中,比較了一些廣泛使用的 3D 表示和我們的 Voint cloud表示。

          Voint cloud繼承了顯式 3D 點(diǎn)云的特征,這有助于學(xué)習(xí)用于各種視覺應(yīng)用(例如點(diǎn)云分類和分割)的 Voint 表示。為了在新的 Voint 空間上部署深度學(xué)習(xí),定義了 Voint 上的基本操作,例如池化和卷積。

          基于這些操作,定義了一種構(gòu)建 Voint 神經(jīng)網(wǎng)絡(luò)的實(shí)用方法,稱之為 VointNet

          • VointNet 采用 Voint 云并輸出點(diǎn)云特征以進(jìn)行 3D 點(diǎn)云處理。
          • 本文展示了學(xué)習(xí)這種 Voint 云表示如何在 ScanObjectNN 和 ShapeNet。
          Contributions 主要貢獻(xiàn)

          (i) 本文提出了一種新穎的多視圖3D點(diǎn)云表示方法,稱為Voint cloud。在這種表示方法中,每個(gè)點(diǎn)(即Voint)由來自不同視角的一組特征表示。

          (ii) 本文在Voint級(jí)別定義了池化和卷積運(yùn)算,用于構(gòu)建Voint神經(jīng)網(wǎng)絡(luò)(VointNet )。VointNet 能夠?qū)W習(xí)從Voint空間中的多個(gè)視圖聚合信息。

          (iii) 本文的VointNet 在多個(gè)3D理解任務(wù)上取得了最好的性能,包括3D形狀分類、檢索和穩(wěn)健的部分分割。此外,VointNet 還實(shí)現(xiàn)了對(duì)遮擋和旋轉(zhuǎn)的魯棒性改進(jìn)。通過引入Voint cloud表示和VointNet 網(wǎng)絡(luò),在處理3D點(diǎn)云數(shù)據(jù)時(shí)取得了顯著的改進(jìn),并在多個(gè)任務(wù)中取得了優(yōu)越的性能,提高了對(duì)復(fù)雜3D場(chǎng)景的理解和分析能力。

          相關(guān)背景3D 點(diǎn)云的學(xué)習(xí)

          3D點(diǎn)云學(xué)習(xí)是計(jì)算機(jī)視覺中廣泛應(yīng)用的一種方法,而點(diǎn)云由于其緊湊、靈活性以及可以通過LiDAR和RGB-D相機(jī)等傳感器自然獲取的特點(diǎn),在3D表示中被廣泛使用。

          • PointNet是第一個(gè)能夠直接在3D點(diǎn)云上進(jìn)行深度學(xué)習(xí)的算法,為后續(xù)的研究奠定了基礎(chǔ)。它獨(dú)立地計(jì)算點(diǎn)的特征,并使用順序不變函數(shù)(例如最大池化)對(duì)這些特征進(jìn)行聚合。隨后的研究工作主要集中在尋找點(diǎn)的鄰域來定義點(diǎn)卷積運(yùn)算。
          • 近期的研究工作將點(diǎn)云表示與其他3D模態(tài)進(jìn)行了結(jié)合,例如體素或多視圖圖像。

          在這項(xiàng)研究中,本文提出了一種新穎的表示方法,稱為Voint cloud,用于3D形狀表示,并研究了一種新穎的架構(gòu),用于在3D點(diǎn)級(jí)別聚合視圖相關(guān)的特征。通過引入Voint cloud表示和相關(guān)架構(gòu),對(duì)3D點(diǎn)云的學(xué)習(xí)和表示提出了新的方法,進(jìn)一步推動(dòng)了這一領(lǐng)域的發(fā)展。

          3D 多視圖

          多視圖應(yīng)用最初是于1994年提出的,使用2D圖像來理解3D世界。這種直觀的多視圖方法與MVCNN(Multi-View Convolutional Neural Networks)中的3D理解深度學(xué)習(xí)相結(jié)合。隨后,一系列工作通過改進(jìn)每個(gè)圖像視圖的視圖特征的聚合,繼續(xù)開發(fā)用于分類和檢索的多視圖方法。

          在本文中,將多視圖的概念融合到3D結(jié)構(gòu)本身中,使每個(gè)3D點(diǎn)根據(jù)可用的視點(diǎn)具有一組獨(dú)立的視圖特征。Voints與采樣的3D點(diǎn)云對(duì)齊,提供緊湊的表示形式,既能高效計(jì)算和節(jié)省內(nèi)存,又保持了視圖相關(guān)的組件,促進(jìn)了基于視圖的視覺學(xué)習(xí)。

          3D數(shù)據(jù)的多視圖混合

          在一些3D語義分割任務(wù)中,也有一些方法嘗試采用多視圖方法。然而,當(dāng)組合視圖特征以表示局部點(diǎn)或體素并保留局部幾何特征時(shí),會(huì)遇到問題。這些方法往往會(huì)對(duì)視圖特征進(jìn)行平均、僅標(biāo)簽、從鄰域中的重建點(diǎn)學(xué)習(xí)、對(duì)單個(gè)網(wǎng)格上的點(diǎn)進(jìn)行排序,或?qū)⒍嘁晥D特征與3D體素特征相結(jié)合。

          因此,本文提出的VointNet 在Voint cloud空間中運(yùn)行,同時(shí)保留了原始點(diǎn)云的緊湊性和3D描述性。VointNet 利用多視圖功能的強(qiáng)大能力,并學(xué)習(xí)將視圖特征獨(dú)立應(yīng)用于每個(gè)點(diǎn)并進(jìn)行聚合。這樣的設(shè)計(jì)使得VointNet 在多視圖任務(wù)上取得了良好的性能表現(xiàn)。

          Method 方法Pipeline

          研究工作中的主要假設(shè)是表面 3D 點(diǎn)是球面函數(shù),即它們的表示取決于觀察它們的視角。這種情況與大多數(shù)假設(shè) 3D 點(diǎn)云的視圖獨(dú)立表示的 3D 點(diǎn)云處理Pipeline形成對(duì)比。完整的Pipeline如下圖所示。

          圖片

          圖2:從 Voint cloud中學(xué)習(xí)。

          • 為了構(gòu)建 3D Voint cloud ,渲染器  從視點(diǎn)  渲染點(diǎn)云 ,并通過 2D 主干   從生成的圖像中提取圖像特征。
          • 然后,圖像特征通過   投影到 Voint 云并通過到VointNet 。
          • 為了學(xué)習(xí)  和  ,輸出點(diǎn)上的 3D 損失與  上可選的輔助 2D 損失一起使用。
          從點(diǎn)云到 Voint cloud —— From Point Clouds to Voint clouds

          3D點(diǎn)云是由3D對(duì)象或場(chǎng)景表面上的采樣點(diǎn)組成的緊湊3D表示,可以通過不同的傳感器獲取,如LiDAR或重建結(jié)果。

          • 將曲面  的坐標(biāo)函數(shù)定義為連續(xù)歐氏空間中的符號(hào)距離函數(shù)(SDF),然后將3D等值面定義為滿足   條件的所有點(diǎn)   的集合。
          • 將表面3D點(diǎn)云  定義為一組   個(gè)3D點(diǎn),其中每個(gè)點(diǎn)  由其3D坐標(biāo)  表示,并滿足等值面條件  。

          在本文中,目標(biāo)是將視圖依賴性融合到3D點(diǎn)中。受到NeRFs(Neural Radiance Fields)的啟發(fā),假設(shè)表面點(diǎn)的特征也取決于觀察它們的視角方向。

          • 具體而言,引入一個(gè)連續(xù)的隱式球函數(shù)  ,它根據(jù)視角方向u定義每個(gè)點(diǎn)x的特征。
          • 給定一組M個(gè)視角方向  ,Voint   是一組M個(gè)與視角相關(guān)的特征,用于描述以點(diǎn)x為中心的球體。

          • 點(diǎn)云  表示父點(diǎn)云X中每個(gè)點(diǎn)   的集合。
          • 需要注意的是,通常我們無法直接訪問底層的隱式函數(shù),因此通過以下三個(gè)步驟對(duì)其進(jìn)行近似。
          三步驟   Three steps1、多視投影 ——  Multi-View Projection

          Voint 將同一個(gè) 3D 點(diǎn)的多個(gè)視圖特征結(jié)合在一起。這些視圖特征來自于點(diǎn)云渲染器  對(duì)點(diǎn)云  進(jìn)行多視圖投影的結(jié)果:。

          • 它將來自多個(gè)視點(diǎn)  的點(diǎn)云  渲染為大小為  的  個(gè)圖像,每個(gè)像素包含三維信息。
          • 除了將點(diǎn)云投影到圖像空間,渲染器  還定義了每個(gè)像素與其對(duì)應(yīng)的  個(gè)點(diǎn)和背景之間的索引映射 。

          此外,渲染器 R 還為每個(gè)視圖的每個(gè)點(diǎn)輸出可見性二元矩陣 。

          • 由于像素的離散化,不是所有的點(diǎn)都會(huì)在所有的視圖中出現(xiàn),因此可見性分?jǐn)?shù)  定義了 Voint  在視圖  中是否可見。
          • 矩陣  對(duì)于非投影操作至關(guān)重要,而矩陣  是定義 Voints 上有意義的操作所必需的。
          2、多視特征提取 ——  Multi-View Feature Extraction

          渲染圖像通過函數(shù)  進(jìn)行處理:,提取圖像特征,具體示意如圖2所示。

          • 如果函數(shù)  是恒等函數(shù),那么所有視圖特征通常對(duì)應(yīng)于點(diǎn)的 RGB 值。
          • 然而,函數(shù)  可以是專門針對(duì)下游任務(wù)的2D網(wǎng)絡(luò),它可以提取關(guān)于每個(gè)視圖的有用的全局和局部特征。
          3、多視 Unprojection —— Multi-View Unprojection

          本文提出了一個(gè)模塊 ,用于將每個(gè)像素的2D特征反投影為相應(yīng)點(diǎn)的3D視圖特征。利用由渲染器創(chuàng)建的映射, 形成Voint云特征 。

          總之,輸出的Voint云可以用方程(1)描述,其中   ,當(dāng)  時(shí),特征僅對(duì)Voint  的視圖  定義。

          圖片

          表 1:不同 3D 表示的比較。

          • 將一些廣泛使用的3D 表示與本文提出的 Voint 云進(jìn)行了比較。
          • 請(qǐng)注意, Voint 云共享 NeRF 的視圖依賴性,同時(shí)繼承了 3D 點(diǎn)云的優(yōu)點(diǎn)。
          3D Voint clouds 上的操作  —— Operations on 3D Voint clouds

          在附錄中,展示了一組角度的最大池化單個(gè)視圖特征的函數(shù)形式可以近似球坐標(biāo)中的任何函數(shù)。

          本文提供了一個(gè)定理,該定理擴(kuò)展了 PointNet 的點(diǎn)云函數(shù)組合定理及其對(duì) Voints 基礎(chǔ)球函數(shù)的通用逼近。

          接下來,在 Voint 上定義一組操作作為 Voint 神經(jīng)網(wǎng)絡(luò) (VointNet ) 的構(gòu)建塊。

          池化—— VointMax

          將 VointMax 定義為沿 voint  的視圖維度在可見視圖特征上的最大池化。對(duì)于所有   和 ,


          *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



          關(guān)鍵詞: AI

          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉