論文の概要: Multi-View Fusion and Distillation for Subgrade Distresses Detection
based on 3D-GPR
- arxiv url: http://arxiv.org/abs/2308.04779v1
- Date: Wed, 9 Aug 2023 08:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 14:32:04.886028
- Title: Multi-View Fusion and Distillation for Subgrade Distresses Detection
based on 3D-GPR
- Title(参考訳): 3D-GPRに基づく低次距離検出のための多視点核融合と蒸留
- Authors: Chunpeng Zhou, Kangjie Ning, Haishuai Wang, Zhi Yu, Sheng Zhou, Jiajun
Bu
- Abstract要約: 本稿では,3D-GPRデータからの多視点情報を活用することで,下級災害検知タスクの新たな手法を提案する。
マルチビューGPRデータセットを最適に活用するための新しいtextbfMulti-textbfView textbfVusion と textbfDistillation フレームワーク textbfGPR-MVFD を開発した。
- 参考スコア(独自算出の注目度): 19.49863426864145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of 3D ground-penetrating radar (3D-GPR) for subgrade distress
detection has gained widespread popularity. To enhance the efficiency and
accuracy of detection, pioneering studies have attempted to adopt automatic
detection techniques, particularly deep learning. However, existing works
typically rely on traditional 1D A-scan, 2D B-scan or 3D C-scan data of the
GPR, resulting in either insufficient spatial information or high computational
complexity. To address these challenges, we introduce a novel methodology for
the subgrade distress detection task by leveraging the multi-view information
from 3D-GPR data. Moreover, we construct a real multi-view image dataset
derived from the original 3D-GPR data for the detection task, which provides
richer spatial information compared to A-scan and B-scan data, while reducing
computational complexity compared to C-scan data. Subsequently, we develop a
novel \textbf{M}ulti-\textbf{V}iew \textbf{V}usion and \textbf{D}istillation
framework, \textbf{GPR-MVFD}, specifically designed to optimally utilize the
multi-view GPR dataset. This framework ingeniously incorporates multi-view
distillation and attention-based fusion to facilitate significant feature
extraction for subgrade distresses. In addition, a self-adaptive learning
mechanism is adopted to stabilize the model training and prevent performance
degeneration in each branch. Extensive experiments conducted on this new GPR
benchmark demonstrate the effectiveness and efficiency of our proposed
framework. Our framework outperforms not only the existing GPR baselines, but
also the state-of-the-art methods in the fields of multi-view learning,
multi-modal learning, and knowledge distillation. We will release the
constructed multi-view GPR dataset with expert-annotated labels and the source
codes of the proposed framework.
- Abstract(参考訳): 3次元地中レーダ(3D-GPR)のサブグレード災害検出への応用が広く普及している。
検出の効率性と精度を高めるため、先駆的な研究は自動検出技術、特にディープラーニングの採用を試みた。
しかしながら、既存の研究は通常、GPRの従来の1DのAスキャン、2DのBスキャン、または3DのCスキャンデータに依存しており、空間情報不足または高い計算複雑性をもたらす。
これらの課題に対処するために,3D-GPRデータからの多視点情報を活用することで,サブグレードの難読度検出タスクを提案する。
さらに,a-scanデータやb-scanデータよりもリッチな空間情報を提供し,c-scanデータに比べて計算複雑性を低減した,元の3d-gprデータから派生した実際の多視点画像データセットを構築する。
次に,多視点GPRデータセットの最適利用を目的とした,新規な \textbf{M}ulti-\textbf{V}iew \textbf{V}usion と \textbf{D}istillation フレームワークである \textbf{GPR-MVFD} を開発した。
このフレームワークは、多視点蒸留と注意に基づく融合を巧みに取り入れ、サブグレードの苦難に対する重要な特徴抽出を容易にする。
さらに、モデルトレーニングを安定させ、各ブランチのパフォーマンス劣化を防止するために、自己適応学習機構を採用する。
新しいgprベンチマークで実施した広範囲な実験により,提案手法の有効性と有効性が実証された。
我々のフレームワークは、既存のGPRベースラインだけでなく、マルチビューラーニング、マルチモーダルラーニング、知識蒸留の分野で最先端の手法よりも優れています。
提案するフレームワークのソースコードと専門家アノテートラベルによる構築されたマルチビューGPRデータセットをリリースする。
関連論文リスト
- GSPR: Multimodal Place Recognition Using 3D Gaussian Splatting for Autonomous Driving [9.023864430027333]
マルチモーダル位置認識は ユニセンサーシステムの弱点を克服する能力によって 注目を集めています
本稿では,GSPRと呼ばれる3次元ガウス型マルチモーダル位置認識ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-01T00:43:45Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - VirtualPainting: Addressing Sparsity with Virtual Points and
Distance-Aware Data Augmentation for 3D Object Detection [3.5259183508202976]
本稿では,カメラ画像を用いた仮想LiDAR点の生成を含む革新的なアプローチを提案する。
また、画像ベースセグメンテーションネットワークから得られる意味ラベルを用いて、これらの仮想点を強化する。
このアプローチは、様々な3Dフレームワークと2Dセマンティックセグメンテーションメソッドにシームレスに統合できる汎用的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-26T18:03:05Z) - Domain Generalization of 3D Object Detection by Density-Resampling [14.510085711178217]
ポイントクラウドベースの3Dオブジェクト検出は、新しいドメインギャップを持つデータに遭遇する際のパフォーマンス劣化に悩まされる。
対象領域に対する3次元物体検出の一般化性を向上させるためのSDG法を提案する。
本研究では,新しいデータ拡張手法を導入し,その方法論に新しいマルチタスク学習戦略を貢献する。
論文 参考訳(メタデータ) (2023-11-17T20:01:29Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。