論文の概要: Multi-visual modality micro drone-based structural damage detection
- arxiv url: http://arxiv.org/abs/2501.08807v1
- Date: Wed, 15 Jan 2025 14:03:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:52:23.042475
- Title: Multi-visual modality micro drone-based structural damage detection
- Title(参考訳): マルチ視覚型マイクロドローンによる構造損傷検出
- Authors: Isaac Osei Agyemanga, Liaoyuan Zeng, Jianwen Chena, Isaac Adjei-Mensah, Daniel Acheampong,
- Abstract要約: DetectorXは、マイクロドローンと組み合わせた構造損傷検出のための堅牢なフレームワークである。
幹ブロックは2つのディープ畳み込みニューラルネットワーク(DCNN)モデルの出力を活用することで動的視覚的モダリティを導入する。
オンライン画像拡張手法であるスパイラルプール技術は,特徴表現の増大によってフレームワークを強化している。
- 参考スコア(独自算出の注目度): 0.3495246564946556
- License:
- Abstract: Accurate detection and resilience of object detectors in structural damage detection are important in ensuring the continuous use of civil infrastructure. However, achieving robustness in object detectors remains a persistent challenge, impacting their ability to generalize effectively. This study proposes DetectorX, a robust framework for structural damage detection coupled with a micro drone. DetectorX addresses the challenges of object detector robustness by incorporating two innovative modules: a stem block and a spiral pooling technique. The stem block introduces a dynamic visual modality by leveraging the outputs of two Deep Convolutional Neural Network (DCNN) models. The framework employs the proposed event-based reward reinforcement learning to constrain the actions of a parent and child DCNN model leading to a reward. This results in the induction of two dynamic visual modalities alongside the Red, Green, and Blue (RGB) data. This enhancement significantly augments DetectorX's perception and adaptability in diverse environmental situations. Further, a spiral pooling technique, an online image augmentation method, strengthens the framework by increasing feature representations by concatenating spiraled and average/max pooled features. In three extensive experiments: (1) comparative and (2) robustness, which use the Pacific Earthquake Engineering Research Hub ImageNet dataset, and (3) field-experiment, DetectorX performed satisfactorily across varying metrics, including precision (0.88), recall (0.84), average precision (0.91), mean average precision (0.76), and mean average recall (0.73), compared to the competing detectors including You Only Look Once X-medium (YOLOX-m) and others. The study's findings indicate that DetectorX can provide satisfactory results and demonstrate resilience in challenging environments.
- Abstract(参考訳): 構造物の損傷検出における物検知器の正確な検出とレジリエンスは, 土木インフラの継続的な利用を保証する上で重要である。
しかし、物体検出器の堅牢性を達成することは依然として永続的な課題であり、それらが効果的に一般化する能力に影響を与える。
本研究では,マイクロドローンと組み合わされた構造損傷検出のためのロバストなフレームワークであるTectorXを提案する。
DetectorXは2つの革新的なモジュール(ステムブロックとスパイラルプール技術)を組み込むことで、オブジェクト検出器の堅牢性の課題に対処する。
幹ブロックは2つのディープ畳み込みニューラルネットワーク(DCNN)モデルの出力を活用することで動的視覚的モダリティを導入する。
このフレームワークは、イベントベースの報酬強化学習を用いて、親と子DCNNモデルの行動が報酬につながることを抑制している。
これにより、赤、緑、青(RGB)データとともに2つの動的視覚モーダルが誘導される。
この強化は、様々な環境状況におけるインテクターXの認識と適応性を著しく増強する。
さらに、オンライン画像拡張手法であるスパイラルプーリング技術は、スパイラル化された特徴と平均/最大の特徴を連結することにより、特徴表現を増大させることにより、その枠組みを強化する。
1) 太平洋地震工学研究ハブ画像Netデータセットを用いたロバストネスと(3) フィールド実験の3つの実験において、ディテクターXは、You Only Look Once X-medium(YOLOX-m)などの競合検出器と比較して、精度(0.88)、リコール(0.84)、平均精度(0.91)、平均精度(0.76)、平均リコール(0.73)など、様々な指標で良好に実行された。
この研究の結果は、DetectorXが良好な結果をもたらし、挑戦的な環境におけるレジリエンスを実証できることを示唆している。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Efficient Meta-Learning Enabled Lightweight Multiscale Few-Shot Object Detection in Remote Sensing Images [15.12889076965307]
YOLOv7ワンステージ検出器は、新しいメタラーニングトレーニングフレームワークが組み込まれている。
この変換により、検出器はFSODのタスクに十分対応できると同時に、その固有の軽量化の利点を活かすことができる。
提案検出器の有効性を検証するため, 現状の検出器と性能比較を行った。
論文 参考訳(メタデータ) (2024-04-29T04:56:52Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Anchor Retouching via Model Interaction for Robust Object Detection in
Aerial Images [15.404024559652534]
本稿では,新しいトレーニングサンプルジェネレータを構築するために,動的拡張アンカー(DEA)ネットワークを提案する。
提案手法は,適度な推論速度とトレーニングの計算オーバーヘッドを伴って,最先端の性能を精度良く達成する。
論文 参考訳(メタデータ) (2021-12-13T14:37:20Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - GEM: Glare or Gloom, I Can Still See You -- End-to-End Multimodal Object
Detector [11.161639542268015]
厳しい照明条件下での2次元物体検出のためのセンサ対応マルチモーダル融合戦略を提案する。
本ネットワークは,各センサモダリティの測定信頼性をスカラーウェイトとマスクの形で推定する。
提案手法はFLIR-Thermalデータセット上で既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-24T14:56:37Z) - Transformer-Encoder Detector Module: Using Context to Improve Robustness
to Adversarial Attacks on Object Detection [12.521662223741673]
本稿では、オブジェクトインスタンスのラベル付けを改善するために、オブジェクト検出器に適用可能な新しいコンテキストモジュールを提案する。
提案モデルは,ベースラインのFaster-RCNN検出器と比較して,mAP,F1スコア,AUC平均スコアを最大13%向上させる。
論文 参考訳(メタデータ) (2020-11-13T15:52:53Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z) - Leveraging Uncertainties for Deep Multi-modal Object Detection in
Autonomous Driving [12.310862288230075]
この研究は、LiDAR点雲とRGBカメラ画像を組み合わせて、堅牢で正確な3Dオブジェクト検出を行う確率論的ディープニューラルネットワークを提案する。
分類および回帰作業における不確実性を明示的にモデル化し、不確実性を活用してサンプリング機構を用いて核融合ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-02-01T14:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。