論文の概要: Structural damage detection via hierarchical damage information with volumetric assessment
- arxiv url: http://arxiv.org/abs/2407.19694v1
- Date: Mon, 29 Jul 2024 04:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 15:06:20.332789
- Title: Structural damage detection via hierarchical damage information with volumetric assessment
- Title(参考訳): 体積評価を伴う階層的損傷情報による構造的損傷検出
- Authors: Isaac Osei Agyemang, Jianwen Chen, Liaoyuan Zeng, Isaac Adjei-Mensah, Daniel Acheampong, Gordon Owusu Boateng, Adu Asare Baffour,
- Abstract要約: 検出後、検出された損傷のマニュアル評価に依存することが課題である。
Guided-DetNetは、GAM(Generative Attention Module)、階層的除去アルゴリズム(Hierarchical Elimination Algorithm)、VCVA(Volumetric Contour Visual Assessment)によって特徴付けられる。
Guided-DetNetは、トリプル分類タスクにおいて最もよく比較されたモデルよりも3%以下で、メトリクスの異なる二重検出タスクでは2%以下で優れていた。
- 参考スコア(独自算出の注目度): 3.1033928913175766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image environments and noisy labels hinder deep learning-based inference models in structural damage detection. Post-detection, there is the challenge of reliance on manual assessments of detected damages. As a result, Guided-DetNet, characterized by Generative Attention Module (GAM), Hierarchical Elimination Algorithm (HEA), and Volumetric Contour Visual Assessment (VCVA), is proposed to mitigate complex image environments, noisy labeling, and post-detection manual assessment of structural damages. GAM leverages cross-horizontal and cross-vertical patch merging and cross foreground-background feature fusion to generate varied features to mitigate complex image environments. HEA addresses noisy labeling using hierarchical relationships among classes to refine instances given an image by eliminating unlikely class categories. VCVA assesses the severity of detected damages via volumetric representation and quantification leveraging the Dirac delta distribution. A comprehensive quantitative study, two robustness tests, and an application scenario based on the PEER Hub Image-Net dataset substantiate Guided-DetNet's promising performances. Guided-DetNet outperformed the best-compared models in a triple classification task by a difference of not less than 3% and not less than 2% in a dual detection task under varying metrics.
- Abstract(参考訳): 画像環境とノイズラベルは、構造的損傷検出における深層学習に基づく推論モデルを妨げる。
検出後、検出された損傷のマニュアル評価に依存することが課題である。
その結果,GAM(Generative Attention Module),HEA(Hierarchical Elimination Algorithm),VCVA(Volumetric Contour Visual Assessment)を特徴とする Guided-DetNet が提案され,複雑な画像環境,ノイズラベリング,および後手による構造損傷の評価を行う。
GAMは、クロス水平およびクロス垂直のパッチマージとクロスフォアグラウンド・バックグラウンド機能融合を利用して、複雑な画像環境を緩和する様々な特徴を生成する。
HEAは、クラス間の階層的関係を用いたノイズラベリングに対処し、不可能なクラスカテゴリを排除することで、画像のインスタンスを洗練する。
VCVAは、ディラックデルタ分布を利用した体積表現と定量化によって検出された損傷の重症度を評価する。
包括的な定量的研究と2つの堅牢性テスト、PEER Hub Image-Netデータセットに基づくアプリケーションシナリオは、 Guided-DetNetの有望なパフォーマンスを裏付けている。
Guided-DetNetは、トリプル分類タスクにおいて最もよく比較されたモデルよりも3%以下で、メトリクスの異なる二重検出タスクでは2%以下で優れていた。
関連論文リスト
- Dynamic Loss Decay based Robust Oriented Object Detection on Remote Sensing Images with Noisy Labels [17.211935951030114]
本研究では,動的損失減衰(DLD)機構を用いた頑健な指向性リモートセンシングオブジェクト検出手法を提案する。
弊社のソリューションは、2023年のNational Big Data and Computing Intelligence Challengeのノイズの多いラベルで、“サブメーターのリモートセンシング画像に基づくきめ細かいオブジェクト検出”の2位を獲得した。
論文 参考訳(メタデータ) (2024-05-15T01:29:28Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Robust Tiny Object Detection in Aerial Images amidst Label Noise [50.257696872021164]
本研究は,ノイズラベル管理下での微小物体検出の問題に対処する。
本稿では,DN-TOD(Denoising Tiny Object Detector)を提案する。
本手法は,1段と2段の両方のオブジェクト検出パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-01-16T02:14:33Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Evaluation of Data Augmentation and Loss Functions in Semantic Image
Segmentation for Drilling Tool Wear Detection [0.0]
切削挿入の顕微鏡画像上に展開するU-Netに基づくセマンティックイメージセグメンテーションパイプラインを提案する。
摩耗領域は2つの異なるタイプで区別され、結果として多クラス分類の問題が生じる。
最高のパフォーマンスモデルはバイナリモデルであり、適度な拡張とIoUベースの損失関数を持つデータに基づいてトレーニングされている。
論文 参考訳(メタデータ) (2023-02-10T14:21:41Z) - Boosting Few-shot Fine-grained Recognition with Background Suppression
and Foreground Alignment [53.401889855278704]
FS-FGR (Few-shot Fine-fine Recognition) は、限られたサンプルの助けを借りて、新しいきめ細かなカテゴリを認識することを目的としている。
本研究では,背景アクティベーション抑制 (BAS) モジュール,フォアグラウンドオブジェクトアライメント (FOA) モジュール,および局所的局所的(L2L) 類似度測定器からなる2段階の背景アライメントとフォアグラウンドアライメントフレームワークを提案する。
複数のベンチマークで行った実験により,提案手法は既存の最先端技術よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-10-04T07:54:40Z) - A hierarchical semantic segmentation framework for computer vision-based
bridge damage detection [3.7642333932730634]
遠隔カメラと無人航空機(UAV)を用いたコンピュータビジョンによる損傷検出は、効率的で低コストなブリッジの健康モニタリングを可能にする。
本稿では,コンポーネントカテゴリと損傷タイプ間の階層的意味関係を強制するセグメンテーションフレームワークを提案する。
このようにして、損傷検出モデルは、潜在的な損傷領域からのみ学習特徴に焦点をあてることができ、他の無関係領域の影響を避けることができる。
論文 参考訳(メタデータ) (2022-07-18T18:42:54Z) - Deep Learning-Based Defect Classification and Detection in SEM Images [1.9206693386750882]
特に、異なるResNet、VGGNetアーキテクチャをバックボーンとして使用するRetinaNetモデルをトレーニングする。
そこで本研究では,異なるモデルからの出力予測を組み合わせることで,欠陥の分類と検出に優れた性能を実現するための選好に基づくアンサンブル戦略を提案する。
論文 参考訳(メタデータ) (2022-06-20T16:34:11Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。