論文の概要: Multi-visual modality micro drone-based structural damage detection
- arxiv url: http://arxiv.org/abs/2501.08807v1
- Date: Wed, 15 Jan 2025 14:03:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 16:46:28.441695
- Title: Multi-visual modality micro drone-based structural damage detection
- Title(参考訳): マルチ視覚型マイクロドローンによる構造損傷検出
- Authors: Isaac Osei Agyemanga, Liaoyuan Zeng, Jianwen Chena, Isaac Adjei-Mensah, Daniel Acheampong,
- Abstract要約: DetectorXは、マイクロドローンと組み合わせた構造損傷検出のための堅牢なフレームワークである。
幹ブロックは2つのディープ畳み込みニューラルネットワーク(DCNN)モデルの出力を活用することで動的視覚的モダリティを導入する。
オンライン画像拡張手法であるスパイラルプール技術は,特徴表現の増大によってフレームワークを強化している。
- 参考スコア(独自算出の注目度): 0.3495246564946556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate detection and resilience of object detectors in structural damage detection are important in ensuring the continuous use of civil infrastructure. However, achieving robustness in object detectors remains a persistent challenge, impacting their ability to generalize effectively. This study proposes DetectorX, a robust framework for structural damage detection coupled with a micro drone. DetectorX addresses the challenges of object detector robustness by incorporating two innovative modules: a stem block and a spiral pooling technique. The stem block introduces a dynamic visual modality by leveraging the outputs of two Deep Convolutional Neural Network (DCNN) models. The framework employs the proposed event-based reward reinforcement learning to constrain the actions of a parent and child DCNN model leading to a reward. This results in the induction of two dynamic visual modalities alongside the Red, Green, and Blue (RGB) data. This enhancement significantly augments DetectorX's perception and adaptability in diverse environmental situations. Further, a spiral pooling technique, an online image augmentation method, strengthens the framework by increasing feature representations by concatenating spiraled and average/max pooled features. In three extensive experiments: (1) comparative and (2) robustness, which use the Pacific Earthquake Engineering Research Hub ImageNet dataset, and (3) field-experiment, DetectorX performed satisfactorily across varying metrics, including precision (0.88), recall (0.84), average precision (0.91), mean average precision (0.76), and mean average recall (0.73), compared to the competing detectors including You Only Look Once X-medium (YOLOX-m) and others. The study's findings indicate that DetectorX can provide satisfactory results and demonstrate resilience in challenging environments.
- Abstract(参考訳): 構造物の損傷検出における物検知器の正確な検出とレジリエンスは, 土木インフラの継続的な利用を保証する上で重要である。
しかし、物体検出器の堅牢性を達成することは依然として永続的な課題であり、それらが効果的に一般化する能力に影響を与える。
本研究では,マイクロドローンと組み合わされた構造損傷検出のためのロバストなフレームワークであるTectorXを提案する。
DetectorXは2つの革新的なモジュール(ステムブロックとスパイラルプール技術)を組み込むことで、オブジェクト検出器の堅牢性の課題に対処する。
幹ブロックは2つのディープ畳み込みニューラルネットワーク(DCNN)モデルの出力を活用することで動的視覚的モダリティを導入する。
このフレームワークは、イベントベースの報酬強化学習を用いて、親と子DCNNモデルの行動が報酬につながることを抑制している。
これにより、赤、緑、青(RGB)データとともに2つの動的視覚モーダルが誘導される。
この強化は、様々な環境状況におけるインテクターXの認識と適応性を著しく増強する。
さらに、オンライン画像拡張手法であるスパイラルプーリング技術は、スパイラル化された特徴と平均/最大の特徴を連結することにより、特徴表現を増大させることにより、その枠組みを強化する。
1) 太平洋地震工学研究ハブ画像Netデータセットを用いたロバストネスと(3) フィールド実験の3つの実験において、ディテクターXは、You Only Look Once X-medium(YOLOX-m)などの競合検出器と比較して、精度(0.88)、リコール(0.84)、平均精度(0.91)、平均精度(0.76)、平均リコール(0.73)など、様々な指標で良好に実行された。
この研究の結果は、DetectorXが良好な結果をもたらし、挑戦的な環境におけるレジリエンスを実証できることを示唆している。
関連論文リスト
- Zero-shot HOI Detection with MLLM-based Detector-agnostic Interaction Recognition [71.5328300638085]
Zero-shot Human-Object Interaction (HOI) は、画像中の人間と物体を特定し、その相互作用を認識することを目的としている。
2段階法を含む既存の手法は、特定の検出器との相互作用認識を密に結合する。
本稿では、オブジェクト検出をIRから分離し、マルチモーダル大言語モデル(MLLM)をゼロショットIRに活用する分離フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-16T19:01:31Z) - CT Scans As Video: Efficient Intracranial Hemorrhage Detection Using Multi-Object Tracking [0.9332987715848716]
本稿では,2次元検出の効率と3次元コンテキストの必要性を両立させる軽量コンピュータビジョンフレームワークを開発する。
計算コストのごく一部で3Dコンテキスト推論を近似することにより,リアルタイム患者優先化のためのスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2026-01-05T19:49:51Z) - TransBridge: Boost 3D Object Detection by Scene-Level Completion with Transformer Decoder [66.22997415145467]
本稿では,スパース領域における検出機能を改善する共同補完・検出フレームワークを提案する。
具体的には,トランスブリッジ(TransBridge)を提案する。トランスブリッジ(TransBridge)はトランスフォーマーをベースとした新しいアップサンプリングブロックである。
その結果,本フレームワークは,各手法の平均精度(mAP)が0.7から1.5の範囲で,エンドツーエンドの3Dオブジェクト検出を一貫して改善していることがわかった。
論文 参考訳(メタデータ) (2025-12-12T00:08:03Z) - A Multimodal Transformer Approach for UAV Detection and Aerial Object Recognition Using Radar, Audio, and Video Data [0.3093890460224435]
無人航空機(UAV)の検出と航空機の物体認識は、現代の監視とセキュリティにとって重要である。
本研究は、新しいマルチモーダルトランスフォーマーモデルの設計と厳密な評価により、これらの課題に対処する。
レーダー、ビジュアルバンドビデオ(RGB)、赤外線(IR)ビデオ、オーディオといった多様なデータストリームを統合している。
論文 参考訳(メタデータ) (2025-11-19T10:22:29Z) - Diffuse to Detect: A Generalizable Framework for Anomaly Detection with Diffusion Models Applications to UAVs and Beyond [2.4449457537548036]
UAVセンサーの読み取りなどの複雑な高次元データにおける異常検出は、運用上の安全性に不可欠である。
本稿では,拡散モデルを適用して異常検出を行うDiffuse to Detect(DTD)フレームワークを提案する。
DTDは1ステップの拡散プロセスを用いてノイズパターンを予測し、再構成エラーのない異常の迅速かつ正確な同定を可能にする。
論文 参考訳(メタデータ) (2025-10-27T02:08:08Z) - Source-Free Object Detection with Detection Transformer [59.33653163035064]
Source-Free Object Detection (SFOD) は、ソースデータにアクセスすることなく、ソースドメインから教師なしのターゲットドメインへの知識転送を可能にする。
ほとんどの既存のSFODアプローチは、より高速なR-CNNのような従来のオブジェクト検出(OD)モデルに限られるか、新しいODアーキテクチャ、特に検出変換器(DETR)に適合しない一般的なソリューションとして設計されている。
本稿では,DTRのクエリ中心の機能強化を特化して設計された新しいSFODフレームワークであるFeature Reweighting ANd Contrastive Learning NetworK(FRANCK)を紹介する。
論文 参考訳(メタデータ) (2025-10-13T07:35:04Z) - RoHOI: Robustness Benchmark for Human-Object Interaction Detection [84.78366452133514]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - Generative Active Adaptation for Drifting and Imbalanced Network Intrusion Detection [15.146203784334086]
モデルロバスト性を高めつつラベル付けの労力を最小限に抑える生成能動適応フレームワークを提案する。
我々は、シミュレーションIDSデータと実世界のISPデータセットの両方でエンドツーエンドのフレームワークを評価した。
本フレームワークは,ラベリングコストを低減しつつ,レア攻撃検出を効果的に向上させ,実世界の侵入検知のためのスケーラブルで適応的なソリューションである。
論文 参考訳(メタデータ) (2025-03-04T21:49:42Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Efficient Meta-Learning Enabled Lightweight Multiscale Few-Shot Object Detection in Remote Sensing Images [15.12889076965307]
YOLOv7ワンステージ検出器は、新しいメタラーニングトレーニングフレームワークが組み込まれている。
この変換により、検出器はFSODのタスクに十分対応できると同時に、その固有の軽量化の利点を活かすことができる。
提案検出器の有効性を検証するため, 現状の検出器と性能比較を行った。
論文 参考訳(メタデータ) (2024-04-29T04:56:52Z) - X Modality Assisting RGBT Object Tracking [1.730147049648545]
X Modality Assisting Network (X-Net)を導入し、視覚オブジェクト追跡を3つの異なるレベルに分離することで、融合パラダイムの影響を探る。
X-Netは、正確なレートと成功率の平均で0.47%/1.2%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2023-12-27T05:38:54Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Anchor Retouching via Model Interaction for Robust Object Detection in
Aerial Images [15.404024559652534]
本稿では,新しいトレーニングサンプルジェネレータを構築するために,動的拡張アンカー(DEA)ネットワークを提案する。
提案手法は,適度な推論速度とトレーニングの計算オーバーヘッドを伴って,最先端の性能を精度良く達成する。
論文 参考訳(メタデータ) (2021-12-13T14:37:20Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - GEM: Glare or Gloom, I Can Still See You -- End-to-End Multimodal Object
Detector [11.161639542268015]
厳しい照明条件下での2次元物体検出のためのセンサ対応マルチモーダル融合戦略を提案する。
本ネットワークは,各センサモダリティの測定信頼性をスカラーウェイトとマスクの形で推定する。
提案手法はFLIR-Thermalデータセット上で既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-24T14:56:37Z) - Transformer-Encoder Detector Module: Using Context to Improve Robustness
to Adversarial Attacks on Object Detection [12.521662223741673]
本稿では、オブジェクトインスタンスのラベル付けを改善するために、オブジェクト検出器に適用可能な新しいコンテキストモジュールを提案する。
提案モデルは,ベースラインのFaster-RCNN検出器と比較して,mAP,F1スコア,AUC平均スコアを最大13%向上させる。
論文 参考訳(メタデータ) (2020-11-13T15:52:53Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。