色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 進(jìn)階指南 > 用OpenVINO自制簡易控制系統(tǒng)

          用OpenVINO自制簡易控制系統(tǒng)

          作者: 時間:2020-09-18 來源: 收藏

            2006 年 11 月任天堂推出新一代電玩主機(jī)「Wii」,同時搭配具有「重力傳感器(或稱線性加速度計(jì))」的游戲桿,讓玩電動不再只有香菇頭和按鍵,而是可以透過揮動手把來體驗(yàn)更仿真的運(yùn)動類游戲,如網(wǎng)球、桌球等,從此開啟「體感游戲」新世代。
            雖然后續(xù)有更多廠商加入,甚至加入了陀螺儀(或稱角加速度器)來偵測手把轉(zhuǎn)動角度、速度,還有利用地磁傳感器來感知玩家面對的方向使得體感游戲更加逼真,但玩家對于手上握著的那個手把仍感到有些累贅。
            2010 年 11 月微軟為了挽救Xbox360 的銷售業(yè)績推出了「Kinect」,這項(xiàng)劃時代的產(chǎn)品讓玩家從此拋開手把,只需擺動肢體就能操作游戲中的虛擬人物或?qū)ο蟆_@項(xiàng)技術(shù)主要結(jié)合了一個紅外線雷射發(fā)射器(產(chǎn)生光斑)、一個紅外線攝影機(jī)及一個普通的彩色攝影機(jī),經(jīng)過復(fù)雜計(jì)算后就能得出場景中各項(xiàng)對象的深度(距離)信息,進(jìn)而分析出玩家的骨架(頭、手、腳)位置及姿勢,如此即可精準(zhǔn)控制游戲的進(jìn)行。
            也正因有這項(xiàng)便宜又好用的工具誕生,且可同時偵測多人(最多六人)的動作,所以有更多的互動游戲及應(yīng)用裝置產(chǎn)生。雖然后來微軟及其它廠商陸續(xù)推出改良產(chǎn)品,并將市場延伸至簡易型 3D 對象及室內(nèi)環(huán)境掃描用途,隨著風(fēng)潮淡去,2017 年微軟已正式停止生產(chǎn)這項(xiàng)產(chǎn)品。
            好姨說:「為什么?為什么?為什么讓我用到一套這么好用的體感互動工具,以后我用不到怎么辦?」(星爺食神經(jīng)典橋段)。各位看倌請不用擔(dān)心,我?guī)痛蠹艺业搅艘粋€解決方案,只要用使用一組網(wǎng)絡(luò)攝影機(jī)加上 Intel 的 ?開源軟件套件包中的 human-pose-estimation 預(yù)訓(xùn)練模型就可以辦到了。
            星爺說:「只要有 ?,人人都可是互動之神」。對!你沒聽錯,連 Kinect 這樣的深度傳感器都不用,不管你是用 CPU、GPU、VPU(神經(jīng)運(yùn)算棒)都可以一次搞定。

          本文引用地址:http://cafeforensic.com/article/202009/418494.htm


          1600398850534869.jpg

          人體姿態(tài)定義
            當(dāng)然以上是比較搞笑的說法,以 2D 人體姿態(tài)估測是無法完全取代像 Kinect 這類深度傳感器所產(chǎn)生的 3D 骨架(skeleton)分析,不過對大多數(shù)的姿態(tài)估測及互動應(yīng)用應(yīng)該還是游刃有余的,接下來就先幫大家說明一下什么是 2D 姿態(tài)估測及如何應(yīng)用。
            一般來說人的姿態(tài)是包括 3D(上下左右前后)位置信息,但被拍成 2D 照片或視頻后,自然失去深度(前后位置)信息,所以僅能就人的肢體重要關(guān)節(jié)(關(guān)鍵)點(diǎn)位置進(jìn)行分析,進(jìn)而建立人體骨架及姿態(tài)。
            目前最常見的 2D 姿態(tài)估測關(guān)鍵點(diǎn)開放數(shù)據(jù)集包括微軟 COCO(17點(diǎn)),CMU OpenPose(18/25點(diǎn)),MPII(16點(diǎn)),AI Challenge(14點(diǎn)),LSP(14點(diǎn)),F(xiàn)LIC(9點(diǎn)),本次要使用的為卡內(nèi)基梅隆大學(xué)(CMU)感知計(jì)算實(shí)驗(yàn)室所開源的 OpenPose 18 點(diǎn)骨架數(shù)據(jù)格式(如下圖a)。除此之外這個數(shù)據(jù)集還提供另三種輸出格式,用于表示人體骨架(25點(diǎn))、臉部動作(70點(diǎn))及手部動作(22點(diǎn)),如下圖所示。

          1600398850767012.jpg

            OpenPose支持輸出格式,(a)類COCO 18點(diǎn),(b) BODY 25點(diǎn),(c) 臉部70點(diǎn),(d)手部22點(diǎn)
            此次會用到的 OpenPose 18 關(guān)鍵點(diǎn)格式和常用的微軟 COCO 17 關(guān)鍵點(diǎn)格式非常相似,最主要差別是編號序順不同及 OpenPose 多了脖子點(diǎn)作人體中心點(diǎn)。如有需要相互轉(zhuǎn)換時,可自行轉(zhuǎn)換。
          MS COCO:(17點(diǎn))
            0:鼻子、1:左眼、2:右眼、3:左耳、4:右耳、5:左肩、6:右肩、7:左肘、8:右肘、9:左腕、10:右腕、11:左臀(腰)、12:右臀(腰)、13:左膝、14:右膝、15:左踝、16:右踝。
            CMU OpenPose:(18點(diǎn))(如上圖a)
            0:鼻子、1:脖子、2:右肩、3:右肘、4:右腕、5:左肩、6:左肘、7:左腕、8:右臀(腰)、9:右膝、10:右踝、11:左臀(腰)、12:左膝、13:左踝、14:左眼、15:右眼、16:左耳、17:右耳。
          人體姿態(tài)估測實(shí)作
            接下來開始說明如何使用 Intel ?結(jié)合 OpenPose 預(yù)訓(xùn)練模型「human-pose-estimation-0001」來完成「簡易體感控制系統(tǒng)」。這里還是使用Win 10 搭配 OpenVINO? 2019 R2 環(huán)境執(zhí)行,如果需要在 Linux 環(huán)境開發(fā)的,請自行參考官網(wǎng)提供安裝程序。
            首先利用 OpenVINO?工具包的下載工具下載預(yù)訓(xùn)練好的模型「human-pose-estimation-0001」,更進(jìn)一步說明及使用方法可參考官方文件。
            https://docs.openvinotoolkit.org/latest/_demos_human_pose_estimation_demo_README.html
            /* 切換至下載工具路徑 */
            cdC:Program Files(x86)IntelSWToolsopenvino_2019.2.242deployment_toolstoolsmodel_downloader
            /*下載預(yù)訓(xùn)練模型到指定路徑 */
            python3 downloader.py --namehuman-pose-estimation-0001 --output_dir 指定路徑名稱
            完成下載后,會在指定路徑下得到三種格式(INT8、FP16、FP32)已優(yōu)化過 IR 中介檔(bin、xml),可直接給 OpenVINO?的推論引擎(Inference Engine)使用,不須再進(jìn)行模型優(yōu)化器(Model Optimizer)動作,其檔案存放路徑結(jié)構(gòu)如下所示。
            /* 下載至指定路徑下的優(yōu)化模型中介文件存放路徑*/
            指定路徑名稱
            Transportation
            human_pose_estimation
            mobilenet-v1
            dldt
            INT8
            human-pose-estimation-0001.bin (16MB)
            human-pose-estimation-0001.xml (597KB)
            FP16
            human-pose-estimation-0001.bin (8MB)
            human-pose-estimation-0001.xm (65KB)
            FP32
            human-pose-estimation-0001.bin (16MB)
            human-pose-estimation-0001.xm (66KB)
            由于 OpenVINO?在運(yùn)作時要引用很多路徑,所以執(zhí)行編譯及執(zhí)行前要先設(shè)定工作環(huán)境,只需依下列指令操作即可完成工作環(huán)境設(shè)定。
            /* 切換至設(shè)定工作環(huán)境路徑 */
            cd C:Program Files(x86)IntelSWToolsopenvino_2019.2.242bin
            /* 執(zhí)行設(shè)定環(huán)境變量批處理文件 */
            setupvars
            目前 OpenVINO?提供的范例原始碼默認(rèn)會在下列路徑:
            /* 范例程序原始碼路徑 */
            C:Program Files(x86)IntelSWToolsopenvino_2019.2.242deployment_toolsinference_enginedemoshuman_pose_estimation_demo
            本范例為 C++ 程序,這里使用 Visual Studio 2017 進(jìn)行編譯,默認(rèn)所有展示用的程序范例項(xiàng)目文件 Demos.sln 會在下面路徑。
            /* 范例程序Visual Studio項(xiàng)目文件路徑 */
            C:Users使用者名稱DocumentsIntelOpenVINOinference_engine_demos_build
            本項(xiàng)目中共包含 22 個子項(xiàng)目,而 human_pose_estimation_demo 即為本次范例。如果想要修改內(nèi)容時,記得以系統(tǒng)管理員身份執(zhí)行 VS2017,以免因范例程序在 C:Program Files (x86) 下而無法直接編輯。如想直接使用,那進(jìn)行重建(編譯)后即可得到執(zhí)行檔 human_pose_estimation_demo.exe,默認(rèn)會生成在下面路徑。
            /* 執(zhí)行文件生成路徑 */
            C:Users使用者名稱DocumentsIntelOpenVINOinference_engine_demos_buildintel64Release
            /* 執(zhí)行檔操作命令 */
            human_pose_estimation_demo -i 輸入影片文件名 -m 模型優(yōu)化中介文件.xml-d 運(yùn)算裝置名稱
            參數(shù)說明:
            -i 輸入影像方式
            目前這個范例可支持二種視頻輸入方式,一種是直接從網(wǎng)絡(luò)攝影機(jī),直接設(shè)定 -i cam 即可,預(yù)設(shè)為第 0 號攝影機(jī)。另一種為從視頻檔案輸入,由于底層是利用 OpenCV 的 VideoCapture 讀取視頻影像,所以目前能支持的視頻格式不多,主要是以 *.avi, *.mp4 為主,可設(shè)定 -i xxx.mp4。
            -m 模型優(yōu)化中介文件 .xml 所在路徑
            一般來說推論計(jì)算數(shù)值精度可分為 FP32、FP16 及 INT8,而所需運(yùn)算時間也隨精度降低(推論速度提升),但通常推論正確率也會隨之略減。運(yùn)算時 CPU 及 GPU 三種精度都可使用,但 VPU(神經(jīng)運(yùn)算棒 NCS1、NCS2)則能選擇 FP16 格式運(yùn)行,要特別注意不要選錯。設(shè)定時如 -m 用戶指定路徑Transportationhuman_pose_estimationmobilenet-v1dldtFP16human-pose-estimation-0001.xml。
            -d 運(yùn)算裝置名稱
            可設(shè)為 CPU、GPU 和 MYRIAD,而 MYRIAD 就是 VPU,或稱神經(jīng)運(yùn)算棒,不管是 NCS 一代或二代皆設(shè)為 MYRIAD 即可,例如 -d MYRIAD。如果執(zhí)行時未插入神經(jīng)運(yùn)算棒至 USB,則程序會直接中斷。
            實(shí)驗(yàn)結(jié)果
            接下來我們就測試一下這個范例帶來的效果。這里使用四種測試裝置,分別是:
            1.CPU:Intel i7-8950 8GBRAM
            2.GPU:Intel UHD Graphics630
            3.NCS1:Movidius (Intel)Neural Compute Stick(一代)
            4.NCS2:Intel Neural ComputeStick 2(二代)
            首先以視頻影像做為輸入進(jìn)行測試,分別測試不同裝置在不同精度下指令周期及人體姿態(tài)估測結(jié)果。為方便大家測試,我們直接從 YOUTUBE 下載了一段微軟 Kinect Dance 的測試影片(1280×720 30fps),
            https://youtu.be/Y-iKWe-U9bY
            并抽取其中五小段作為此次測試及比較依據(jù),相關(guān)影片可直接到 GITHUB 下載。
            https://github.com/OmniXRI/OpenVINO_human-pose-estimation
            這里利用其中一小段影片測試,結(jié)果如下圖所示。大致上可看出姿態(tài)估測部份幾乎沒差,主要差異在指令周期,這里使用 FPS(每秒多少影格)作為單位,數(shù)值越高表示反應(yīng)速度越快。若能達(dá)到 30 FPS 以上則已達(dá)一般影片播放速度,滿足實(shí)時處理的需求。

          1600398850753580.jpg

            從這些測試結(jié)果來看,目前在 CPU 部份,F(xiàn)P32 及 FP16 指令周期差別不大,表示 CPU 在處理浮點(diǎn)數(shù)上并沒有充份利用硬件特性(可能是軟件函式庫造成),但運(yùn)算數(shù)值精度降至 INT8 時,指令周期明顯提升快一倍。
            而 GPU 部份,可以看出在浮點(diǎn)數(shù)計(jì)算上明顯有差異,所以 FP16 指令周期較 FP32 快了約 50%。奇怪的是 INT8 竟然和 FP32 接近,這是因?yàn)?GPU 本來就不支持整數(shù)運(yùn)算,所以應(yīng)該是函式庫自動把整數(shù)轉(zhuǎn)成 FP32 計(jì)算造成的結(jié)果。
            再來是神經(jīng)運(yùn)算棒部份,NCS2 在硬件規(guī)格上優(yōu)于 NCS1,所以理所當(dāng)然指令周期較快,快了約兩倍。
            再來測試不同影片內(nèi)容指令周期差異,為方便測試起見,這里統(tǒng)一使用 GPU FP16 的條件來對五小段影片進(jìn)行測試,這五段影片有單人、多人、動作簡單、大幅動作、輕微遮蔽及嚴(yán)重遮蔽。測試后發(fā)覺準(zhǔn)確度極高,只有在嚴(yán)重遮蔽或移動速度過快(影像局部模糊)時會有些失誤,大體上來看是非常不錯的。不同影像內(nèi)容在計(jì)算速度上會有些許差異,如下圖所示。
            這里發(fā)現(xiàn)一個有趣的地方,就是影片長度較長(影格數(shù)較多)的,其指令周期會越來越快,不知是否是因影片被緩沖進(jìn)內(nèi)存中,所以減少一些訪問時間?
            不同視頻指令周期比較

          1600398851253267.jpg

            實(shí)際結(jié)果如下

          1600398851162522.jpg

          1600398851723662.jpg

          1600398508592116.gif

          1600398851474755.jpg

          1600398851303500.jpg

            最后是測試網(wǎng)絡(luò)攝影機(jī),這里使用 800×600 的分辨率,分別以 CPU 及 GPU 進(jìn)行測試,測試時故意擺了一樣的姿勢方便比較運(yùn)算差異。這里的指令周期明顯比前面測試快了許多,主要原因是輸入視頻解析圖下降。測試時雖然只有半身,但還是可以很正確判斷出來,由此得知這個預(yù)訓(xùn)練好的模型真的很不錯。

          1600398851807040.jpg

            寫到這里大家應(yīng)該已經(jīng)可以充份感受到 OpenPose 的威力了,只需 OpenVINO?加上一臺網(wǎng)絡(luò)攝影機(jī)就能搞定「簡易體感控制系統(tǒng)」。雖然目前看起來指令周期似乎有點(diǎn)慢,但對于簡單型的應(yīng)用已綽綽有余,只要善用圖像上所提取到的關(guān)節(jié)點(diǎn)坐標(biāo),就可輕松開發(fā)體感游戲及各種人機(jī)互動應(yīng)用了。如果想要更深入了解的朋友,可自行研讀范例源碼。



          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉