国产chinesehdxxxx老太婆,办公室玩弄爆乳女秘hd,扒开腿狂躁女人爽出白浆 ,丁香婷婷激情俺也去俺来也,ww国产内射精品后入国产

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于3D點云針對失真的穩(wěn)健性的系統(tǒng)性研究

新機器視覺 ? 來源:機器之心 ? 作者:機器之心 ? 2022-03-15 11:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來自密歇根大學(xué)等機構(gòu)的研究者提出了一個新穎且全面的數(shù)據(jù)集 ModelNet40-C ,以系統(tǒng)地測試以及進(jìn)一步提高點云識別模型對于失真的穩(wěn)健性。

3D 點云廣泛應(yīng)用于 3D 識別技術(shù)中。一些特別的應(yīng)用領(lǐng)域往往對 3D 點云識別的安全性有更高的要求,如自動駕駛、醫(yī)療圖像處理等。學(xué)界目前對點云安全性的研究集中在對抗攻擊的穩(wěn)健性。與對抗性攻擊相比, 自然的失真和擾動在現(xiàn)實世界中更為常見。然而目前還沒有關(guān)于 3D 點云針對失真的穩(wěn)健性的系統(tǒng)性研究。

abedb79c-965b-11ec-952b-dac502259ad0.png

論文地址: https://arxiv.org/abs/2201.12296

項目主頁: https://sites.google.com/umich.edu/modelnet40c

開源 Github: https://github.com/jiachens/ModelNet40-C

近日,來自密歇根大學(xué)等機構(gòu)的研究者提出了一個新穎且全面的數(shù)據(jù)集 ModelNet40-C ,以系統(tǒng)地測試以及進(jìn)一步提高點云識別模型對于失真的穩(wěn)健性。ModelNet40-C 包含 185000 個點云數(shù)據(jù),它們來自 15 種不同的點云失真類型,且每個類型有 5 種不同的嚴(yán)重程度。這些點云失真分為 3 大類:密度 (density) 失真、噪音 (noise) 失真、以及變換 (transformation) 失真。 實驗表明,目前具有代表性的 3D 點云識別模型(比如:PointNet、PointNet++、DGCNN 以及 PCT)在 ModelNet40-C 上的錯誤率比在原本 ModelNet40 數(shù)據(jù)集上的錯誤率高出超過 3 倍,如下圖 1 所示。這證明了點云深度模型框架仍然非常容易受到常見失真的影響。

ac0541a0-965b-11ec-952b-dac502259ad0.png

圖 1. 深度點云識別代表性模型在 ModelNet40 和 ModelNet40-C 數(shù)據(jù)集上的錯誤率。 根據(jù)這一發(fā)現(xiàn),該研究進(jìn)一步做了大量的測試去探索不同模型架構(gòu),數(shù)據(jù)增強,以及自適應(yīng)方法對于失真穩(wěn)健性的影響。研究者根據(jù)實驗結(jié)果總結(jié)了多個發(fā)現(xiàn)來幫助 3D 點云識別技術(shù)的開發(fā)者們設(shè)計更穩(wěn)健的模型以及訓(xùn)練方案。例如,研究者發(fā)現(xiàn)基于 Transformer 的點云識別架構(gòu)在提高模型對于失真的穩(wěn)健性有很大的優(yōu)勢;不同類型的數(shù)據(jù)增強策略對各種類型的失真有不同的優(yōu)勢;測試時自適應(yīng)方法對一些很嚴(yán)重的失真有很好的穩(wěn)健性,等等。 ModelNet40-C 數(shù)據(jù)集構(gòu)建

ac1bc97a-965b-11ec-952b-dac502259ad0.png

圖 2. ModelNet40-C 數(shù)據(jù)集失真類型圖示。 失真穩(wěn)健性在 2D 圖像上已經(jīng)得到廣泛關(guān)注,其中 CIFAR-C 和 ImageNet-C 通過模擬不同天氣,噪聲,以及模糊來構(gòu)建失真數(shù)據(jù)集。然而該研究的研究者發(fā)現(xiàn) 3D 點云的失真與 2D 圖像有根本的不同,原因在于點云數(shù)據(jù)結(jié)構(gòu)更加靈活且不規(guī)則,例如,一個點云內(nèi)點的數(shù)量是可以改變的,同時 3D 點云位置的改變也很容易影響語義信息。研究者提出 3 點構(gòu)建 ModelNet40-C 的原則:1) 語義不變性、2) 失真切實性、3) 失真多樣性來保證數(shù)據(jù)集的質(zhì)量。 ModelNet40-C 的失真分為密度 (density) 失真,噪音 (noise) 失真,以及變換 (transformation) 失真三類。 密度失真包括 “遮擋”,“激光雷達(dá) (LiDAR)”,“局部密度上升”,“局部密度下降”,以及“局部缺失” 5 種,它們模擬了現(xiàn)實中不同傳感器生成點云密度的不同特征,例如,“遮擋” 模擬了傳感器在掃描 3D 物體時受角度限制只能生成一部分點云。 噪音失真包括 “均勻分布”,“高斯分布”,“脈沖”,“上采樣”,以及“背景” 噪音,他們模擬現(xiàn)實中傳感器生成時以及程序預(yù)處理過程中不可避免的數(shù)字噪聲與誤差。 變換失真包括“旋轉(zhuǎn)”,“錯切”,“自由形變”,“徑向基形變”,以及“反徑向基形變”,前兩種模擬了在處理點云數(shù)據(jù)時非對準(zhǔn)狀態(tài)以及動態(tài)采集數(shù)據(jù)時的失真,后三種則代表了 AR/VR 游戲以及生成模型 (GAN) 產(chǎn)出的點云失真。

ac3c3fd4-965b-11ec-952b-dac502259ad0.png

圖 3. 在 ModelNet40-C 上 6 個模型的平均混淆矩陣。 研究者闡述了這些失真是點云應(yīng)用中非常常見的,并且保證了生成的數(shù)據(jù)集仍然保持了原有的語義,如圖 2 所示。圖 3 展示了在 ModelNet40-C 上 6 個模型的平均混淆矩陣,對角線上的比重依然很高,這同樣交叉驗證了 ModelNet40-C 的語義不變性。 ModelNet40-C 上基準(zhǔn)測試 (Benchmarking) 結(jié)果與分析 在構(gòu)建 ModelNet40-C 之后,該研究進(jìn)行了大批量的基準(zhǔn)測試,包含不同模型架構(gòu)設(shè)計,不同數(shù)據(jù)增強方法,以及不同自適應(yīng)方法的實驗設(shè)置。 不同失真以及模型架構(gòu)設(shè)計對比

ac51f5fe-965b-11ec-952b-dac502259ad0.png

表 1. 在標(biāo)準(zhǔn)訓(xùn)練下不同模型在 ModelNet40-C 上的錯誤率。 如表 1 所示,該研究在 PointNet, PointNet++, DGCNN, RSCNN, PCT, 以及 SimpleView 六個模型上進(jìn)行了基準(zhǔn)測試。研究者總結(jié)了一些發(fā)現(xiàn): 1) “遮擋”和 “激光雷達(dá)” 給點云識別模型造成了極高的錯誤率。2) 小角度的 “旋轉(zhuǎn)” 仍然會很大程度影響點云識別性能。3) “背景”和 “脈沖” 噪聲給大部分模型帶來了意想不到的挑戰(zhàn)。 研究者進(jìn)而這些發(fā)現(xiàn)也可以反映到模型設(shè)計上。1) PointNet 對密度失真較為穩(wěn)健,但是整體上缺表現(xiàn)不佳。這是因為 PointNet 只編碼全局特征而沒有局部特征,這種特性一直以來被認(rèn)為是 PointNet 的主要缺點。但是密度失真是局部特征損失,這反而對 PointNet 的影響有限,但是這種機制確實導(dǎo)致 PointNet 對其他的失真類型非常敏感。研究者建議今后對 PointNet 的使用應(yīng)該考慮應(yīng)用場景。 2) 球查詢 (ball query) 的聚類方法對 “背景” 和“脈沖”噪聲更加穩(wěn)健。這是因為球聚類相對于 kNN 聚類限定了最大聚類半徑,這樣的設(shè)計有助于幫助模型去除相差很遠(yuǎn)的異常值的影響。 3) 基于 Transformer 的點云識別模型對變換失真更加穩(wěn)健,這是因為自注意力 (self-attention) 機制能夠使得模型能夠?qū)W習(xí)到更穩(wěn)健以及全面的全局特征,而且 Transformer 架構(gòu)也實現(xiàn)了更大的模型容量,使得其對于全局的形變失真更穩(wěn)健。 不同數(shù)據(jù)增強方法對比

ac687af4-965b-11ec-952b-dac502259ad0.png

表 2. 在標(biāo)準(zhǔn)訓(xùn)練下不同模型在 ModelNet40-C 上的錯誤率。 如表 2 所示,該研究采用 PointCutMix-R, PointCutMix-K, PointMixup, RSMix, 以及對抗訓(xùn)練 (Adversarial Training) 作為 5 種數(shù)據(jù)增強的訓(xùn)練方式。研究者發(fā)現(xiàn): 1) 這些數(shù)據(jù)增強的方案雖然對于干凈數(shù)據(jù)集上對模型性能的提升有限,但是都顯而易見地提高了模型在點云失真場景下的穩(wěn)健性。2) 沒有一種數(shù)據(jù)增強方案可以主宰所有的失真類型。 PointCutMix-R 對于噪音失真的穩(wěn)健性很好因為它隨機采樣兩個不同類別的點云并直接合成,所以生成的點云是兩個已有點云降采樣的“重疊”,以至于每個降采樣的點云對于另一半來說都相當(dāng)于噪音失真。所以這樣的數(shù)據(jù)增強模式可以極大地提高噪音失真的穩(wěn)健性。 PointMixup 對變換失真的表現(xiàn)較好因為 PointMixup 是對兩個不同類別的點云做最小距離配對并“插值” 采樣,所以生成的點云的形狀介于兩種種類之間,這種于變換失真中的整體形變接近,所以其對變換失真更為穩(wěn)健。 RSMix 則對密度失真穩(wěn)健,雖然 RSMix 整體思路與 PointCutMix 接近,但其嚴(yán)格規(guī)定剛性合成,即兩個不同類別的點云采樣過后在 3D 空間仍然是獨立的,沒有“疊加”。這樣的合成相當(dāng)于兩個獨立的局部缺失的點云,所以其對密度失真的穩(wěn)健性較好。 不同自適應(yīng)方法對比

ac7c694c-965b-11ec-952b-dac502259ad0.png

表 3. 在標(biāo)準(zhǔn)訓(xùn)練下不同模型在 ModelNet40-C 上的錯誤率。 該研究首次將測試時自適應(yīng)方法應(yīng)用到點云識別的任務(wù)中來。研究者采用 BN 和 TENT 方法去更新模型的批標(biāo)準(zhǔn)化層 (BatchNorm Layer)的參數(shù),他們發(fā)現(xiàn): 1) 測試時自適應(yīng)方法可以穩(wěn)定地提升模型的穩(wěn)健性,但總體上并沒有數(shù)據(jù)增強的效果好;2) 測試自適應(yīng)方法對一些困難的失真類型效果出乎意料的好。 例如,平均而言,TENT 有助于在“遮擋” (錯誤率 = 47.6%),“激光雷達(dá) (錯誤率 = 54.1%), 和“旋轉(zhuǎn)” (錯誤率 = 19.8%) 失真類型下實現(xiàn)最強的穩(wěn)健性,分別比最佳數(shù)據(jù)增強方法高出 6.7%,1.9%,和 7.9%。這證明了自適應(yīng)方法在提高點云識別失真穩(wěn)健性的巨大潛力。 研究者最終將數(shù)據(jù)增強中整體表現(xiàn)最好的 PointCutMix-R 與自適應(yīng)方法 TENT 結(jié)合,發(fā)現(xiàn)基于 Transformer 架構(gòu)的 PCT 模型達(dá)到了目前最好的整體失真穩(wěn)健性 (錯誤率 = 13.9%)。這一發(fā)現(xiàn)同時驗證了 Transformer 在模型穩(wěn)健性的成功,與之前的研究(Bai, Yutong, et al. ,2021)在 Transformer 對 2D 圖像的結(jié)論基本吻合。 總結(jié) 該研究提出了一個新穎并且全面的 3D 點云識別穩(wěn)健性分析數(shù)據(jù)集 ModelNet40-C。研究者提出并構(gòu)建了了 75 種不同的失真類型和程度來模擬真實場景中由于物理限制、傳感器準(zhǔn)確度限制、以及處理過程中造成的點云失真和損壞。ModelNet40-C 包含 185000 個不同的點云數(shù)據(jù)。 實驗表明,目前代表性的模型在 ModelNet40-C 上的錯誤率比在原本 ModelNet40 數(shù)據(jù)集上的錯誤率高出~ 3 倍。該研究通過大量的基準(zhǔn)測試展現(xiàn)了不同模型架構(gòu),不同數(shù)據(jù)增強策略,以及自適應(yīng)方法在 ModelNet40-C 上的性能并總結(jié)了有用的發(fā)現(xiàn)來幫助 3D 點云社區(qū)設(shè)計更穩(wěn)健的識別模型。我們期待著 ModelNet40-C 數(shù)據(jù)集能加速今后更多的點云識別穩(wěn)健性的研究!

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2959

    瀏覽量

    110766
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25447

原文標(biāo)題:3D點云識別安全嗎? 密歇根大學(xué)等提出穩(wěn)健性分析數(shù)據(jù)集應(yīng)對嚴(yán)重失真

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于3D的多任務(wù)模型在板端實現(xiàn)高效部署

    對于自動駕駛應(yīng)用來說,3D 場景感知至關(guān)重要。3D數(shù)據(jù)就是具有3D特征的數(shù)據(jù)。一方面,3D
    的頭像 發(fā)表于 12-28 16:35 ?2119次閱讀
    基于<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>的多任務(wù)模型在板端實現(xiàn)高效部署

    基于深度學(xué)習(xí)的方法在處理3D進(jìn)行缺陷分類應(yīng)用

    背景部分介紹了3D應(yīng)用領(lǐng)域中公開可訪問的數(shù)據(jù)集的重要,這些數(shù)據(jù)集對于分析和比較各種模型至關(guān)重要。研究人員專門設(shè)計了各種數(shù)據(jù)集,包括用于
    的頭像 發(fā)表于 02-22 16:16 ?1914次閱讀
    基于深度學(xué)習(xí)的方法在處理<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>進(jìn)行缺陷分類應(yīng)用

    采用DLP技術(shù)的3D機器視覺參考設(shè)計包括BOM

    3D 。高度差異化 3D 機器視覺系統(tǒng)利用 DLP?(...)主要特色 集成型 API 和針對
    發(fā)表于 10-12 15:33

    如何同時獲取2d圖像序列和相應(yīng)的3d?

    如何同時獲取2d圖像序列和相應(yīng)的3d?以上來自于谷歌翻譯以下為原文How to obtain the sequence of 2d im
    發(fā)表于 11-13 11:25

    Cadence 憑借突破的 Integrity 3D-IC 平臺加速系統(tǒng)創(chuàng)新

    ? 3D-IC 平臺,這是業(yè)界首個綜合、高容量的3D-IC 平臺,將三維 3D 設(shè)計規(guī)劃、實施和系統(tǒng)分析集成在一個統(tǒng)一的座艙中。 Inte
    發(fā)表于 10-14 11:19

    面向3D機器視覺應(yīng)用并采用DLP技術(shù)的精確生成參考設(shè)計

    3D 。高度差異化 3D 機器視覺系統(tǒng)利用 DLP? LightCrafter? 4500 估模塊 (EVM)(采用 DLP? 0.4
    發(fā)表于 09-22 10:20

    3D技術(shù)介紹及其與VR體驗的關(guān)系

    ;x>nkedIn上發(fā)表了一篇跟澳大利亞科技公司優(yōu)立(Euclideon)所使用的數(shù)據(jù)有關(guān)的文章,并在業(yè)內(nèi)引起了一番討論。 1. 的問題
    發(fā)表于 09-15 09:28 ?20次下載

    問題的介紹及3D技術(shù)在VR中的應(yīng)用

    。即便是掃描最小的對象,系統(tǒng)都會創(chuàng)建上百萬這樣的,所以要管理這樣的海量數(shù)據(jù)并不容易。CAD軟件可以連接各個,但這一過程需要大量的計算資源,完善成品模型往往是一個艱苦的過程。 從
    發(fā)表于 09-27 15:27 ?17次下載

    3D 的無監(jiān)督膠囊網(wǎng)絡(luò) 多任務(wù)上實現(xiàn)SOTA

    的數(shù)據(jù)集,而無監(jiān)督方法已經(jīng)消除了對標(biāo)簽的需求。近來,研究人員試圖將這些方法擴展到 3D 問題上,但無監(jiān)督 3D 學(xué)習(xí)領(lǐng)域卻進(jìn)展寥寥。 近
    的頭像 發(fā)表于 01-02 09:39 ?2413次閱讀

    基于層級圖網(wǎng)絡(luò)的圖卷積,用完成3D目標(biāo)檢測

    由于大多數(shù)現(xiàn)有的對象檢測方法不能充分適應(yīng)點的特征(例如稀疏),所以一些關(guān)鍵的語義信息(如物體形狀)不能被很好的捕捉到。本文提出了一種基于層級圖網(wǎng)絡(luò)(HGNet)的圖卷積(GCo
    的頭像 發(fā)表于 12-24 15:25 ?913次閱讀

    何為3D語義分割

    融合標(biāo)注使用的3D標(biāo)注工具仍以3D立體框為主,但在3D數(shù)據(jù)以外,還需要使用2D標(biāo)注工具在
    的頭像 發(fā)表于 07-21 15:52 ?9599次閱讀

    3D數(shù)據(jù)集在3D數(shù)字化技術(shù)中的應(yīng)用

    隨著計算機視覺技術(shù)的不斷發(fā)展,3D 數(shù)字化技術(shù)已經(jīng)成為了當(dāng)今工業(yè)制造領(lǐng)域和三維醫(yī)學(xué)影像領(lǐng)域的關(guān)鍵技術(shù)。然而,構(gòu)建高精度、高分辨率的 3D 數(shù)據(jù)集對于實現(xiàn)這一技術(shù)至關(guān)重要。在這篇文章
    的頭像 發(fā)表于 05-06 16:46 ?1854次閱讀

    自動駕駛3D語義分割數(shù)據(jù)標(biāo)注

    在自動駕駛環(huán)境感知系統(tǒng)中,如何獲取高精度實時路況數(shù)據(jù),是決定自動駕駛系統(tǒng)行車安全的關(guān)鍵。 目前主流的兩種感知技術(shù)路徑“純視覺”與“高精地圖+激光雷達(dá)”中,由于激光雷達(dá)采集的3D
    發(fā)表于 06-06 09:48 ?3次下載
    自動駕駛<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>語義分割數(shù)據(jù)標(biāo)注

    3D目標(biāo)跟蹤中常見的評價指標(biāo)和代碼詳解

    3D目標(biāo)跟蹤的評價指標(biāo),可以根據(jù)跟蹤的目標(biāo)是單個還是多個,分為單目標(biāo)跟蹤(SOT)和多目標(biāo)跟蹤(MOT)兩種。一般來說,SOT的評價指標(biāo)主要關(guān)注跟蹤的準(zhǔn)確和魯棒
    發(fā)表于 08-02 12:38 ?1552次閱讀

    基于深度學(xué)習(xí)的3D實例分割方法

    3D實例分割(3DIS)是3D領(lǐng)域深度學(xué)習(xí)的核心問題。給定由云表示的 3D 場景,我們尋求為每個
    發(fā)表于 11-13 10:34 ?3262次閱讀
    基于深度學(xué)習(xí)的<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>實例分割方法