論文の概要: Automatic Road Subsurface Distress Recognition from Ground Penetrating Radar Images using Deep Learning-based Cross-verification
- arxiv url: http://arxiv.org/abs/2507.11081v2
- Date: Wed, 05 Nov 2025 09:21:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 20:32:09.395538
- Title: Automatic Road Subsurface Distress Recognition from Ground Penetrating Radar Images using Deep Learning-based Cross-verification
- Title(参考訳): 深層学習を用いた地中レーダ画像からの路面距離の自動認識
- Authors: Chang Peng, Bao Yang, Meiqi Li, Ge Zhang, Hui Sun, Zhenyu Jiang,
- Abstract要約: 地中レーダ (GPR) は、地下災害 (RSD) の検出において、迅速かつ非破壊的な解決策となっている。
ディープラーニングに基づく自動RSD認識は、データの不足と欠陥を認識する能力の不足に悩まされている。
本研究では,2134種類の多種多様なサンプルを含む3次元GPRデータセットをフィールドスキャンにより厳密に検証した。
- 参考スコア(独自算出の注目度): 13.278266503430517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ground penetrating radar (GPR) has become a rapid and non-destructive solution for road subsurface distress (RSD) detection. Deep learning-based automatic RSD recognition, though ameliorating the burden of data processing, suffers from data scarcity and insufficient capability to recognize defects. In this study, a rigorously validated 3D GPR dataset containing 2134 samples of diverse types was constructed through field scanning. A novel cross-verification strategy was proposed to fully exploit the complementary abilities of region proposal networks in object recognition from different views of GPR images. The method achieves outstanding accuracy with a recall over 98.6% in field tests. The approach, integrated into an online RSD detection system, can reduce the human labor of inspection by around 90%.
- Abstract(参考訳): 地中レーダ(GPR)は,道路地下災害(RSD)の迅速かつ非破壊的な解決策となっている。
深層学習に基づく自動RDD認識は、データ処理の負担を軽減するが、データ不足と欠陥を認識する能力の不足に悩まされている。
本研究では,2134種類のサンプルを含む厳密な3次元GPRデータセットをフィールドスキャンにより構築した。
GPR画像の異なる視点からのオブジェクト認識において,領域提案ネットワークの補完能力を完全に活用する新たな相互検証手法が提案された。
この手法は、フィールドテストにおいて98.6%以上のリコールで顕著な精度を達成する。
オンラインのRSD検出システムに統合されたこの手法は、人間の検査の労力を約90%削減することができる。
関連論文リスト
- RAT: Boosting Misclassification Detection Ability without Extra Data [17.800393583230044]
本研究では,逆方向摂動レンズを用いた画像分類モデルの誤分類入力の検出について検討する。
本稿では、信頼度としてロバスト半径を用い、2つの効率的な推定アルゴリズムRR-BSとRR-Fastを誤分類検出に使用することを提案する。
実験では,AURCの最大29.3%,FPR@95TPRの最大21.62%の削減が可能であった。
論文 参考訳(メタデータ) (2025-03-18T23:18:55Z) - FARE: A Deep Learning-Based Framework for Radar-based Face Recognition and Out-of-distribution Detection [0.0]
短距離FMCWレーダを用いた顔認識とアウト・オブ・ディストリビューション検出のための新しいパイプラインを提案する。
提案システムは、レンジドップラーとマイクロレンジドップラー画像を利用する。
本手法は99.30%のID分類精度と96.91%のOOD検出AUROCを実現する。
論文 参考訳(メタデータ) (2025-01-14T21:08:08Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Long-Tailed 3D Detection via Multi-Modal Fusion [47.03801888003686]
本研究では,Long-Tailed 3D Detection (LT3D) の問題点について検討した。
単モードLiDARとRGB検出器を独立に訓練した多モード遅延核融合(MMLF)により,レアクラスの精度が特に向上することが指摘されている。
提案するMMLFアプローチは,従来の作業よりもLT3Dの性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-18T07:14:25Z) - Multi-View Fusion and Distillation for Subgrade Distresses Detection
based on 3D-GPR [19.49863426864145]
本稿では,3D-GPRデータからの多視点情報を活用することで,下級災害検知タスクの新たな手法を提案する。
マルチビューGPRデータセットを最適に活用するための新しいtextbfMulti-textbfView textbfVusion と textbfDistillation フレームワーク textbfGPR-MVFD を開発した。
論文 参考訳(メタデータ) (2023-08-09T08:06:28Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Radar Guided Dynamic Visual Attention for Resource-Efficient RGB Object
Detection [10.983063391496543]
自動運転車の認識品質を向上させるために,RGB画像に対する新しいレーダー誘導空間アテンションを提案する。
提案手法は,RGBモードの物体検出装置では検出されない小型・長距離物体の知覚を改善する。
論文 参考訳(メタデータ) (2022-06-03T18:29:55Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - Outlier-based Autism Detection using Longitudinal Structural MRI [6.311381904410801]
本稿では, 構造的磁気共鳴画像(sMRI)に基づく自閉症スペクトラム障害の診断を, 異常検出手法を用いて提案する。
GAN(Generative Adversarial Network)は、健康な被験者のsMRIスキャンでのみ訓練される。
実験の結果、ASD検出フレームワークは最先端のトレーニングデータと互換性があり、トレーニングデータもはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-02-21T04:37:25Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - Collaborative Training between Region Proposal Localization and
Classification for Domain Adaptive Object Detection [121.28769542994664]
オブジェクト検出のためのドメイン適応は、ラベル付きデータセットからラベル付きデータセットへの検出を適応させようとする。
本稿では,地域提案ネットワーク (RPN) と地域提案分類器 (RPC) が,大きなドメインギャップに直面した場合の転送可能性が大きく異なることを初めて明らかにする。
論文 参考訳(メタデータ) (2020-09-17T07:39:52Z) - UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional
Variational Autoencoders [81.5490760424213]
データラベリングプロセスから学習することで、RGB-Dサリエンシ検出に不確実性を利用するための第1のフレームワーク(UCNet)を提案する。
そこで本研究では,サリエンシデータラベリングにヒントを得て,確率的RGB-Dサリエンシ検出ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-13T04:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。