論文の概要: Joint Attention-Guided Feature Fusion Network for Saliency Detection of
Surface Defects
- arxiv url: http://arxiv.org/abs/2402.02797v1
- Date: Mon, 5 Feb 2024 08:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 17:22:58.580113
- Title: Joint Attention-Guided Feature Fusion Network for Saliency Detection of
Surface Defects
- Title(参考訳): 表面欠陥検出のための合同注意誘導型特徴核融合ネットワーク
- Authors: Xiaoheng Jiang, Feng Yan, Yang Lu, Ke Wang, Shuai Guo, Tianzhu Zhang,
Yanwei Pang, Jianwei Niu, and Mingliang Xu
- Abstract要約: 本稿では,エンコーダ・デコーダネットワークに基づく表面欠陥検出のための共同注意誘導型特徴融合ネットワーク(JAFFNet)を提案する。
JAFFNetは、主にJAFFモジュールをデコードステージに組み込んで、低レベルと高レベルの機能を適応的に融合させる。
SD- Saliency-900, Magnetic tile, and DAGM 2007 で行った実験から,本手法が他の最先端手法と比較して有望な性能を達成できたことが示唆された。
- 参考スコア(独自算出の注目度): 69.39099029406248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surface defect inspection plays an important role in the process of
industrial manufacture and production. Though Convolutional Neural Network
(CNN) based defect inspection methods have made huge leaps, they still confront
a lot of challenges such as defect scale variation, complex background, low
contrast, and so on. To address these issues, we propose a joint
attention-guided feature fusion network (JAFFNet) for saliency detection of
surface defects based on the encoder-decoder network. JAFFNet mainly
incorporates a joint attention-guided feature fusion (JAFF) module into
decoding stages to adaptively fuse low-level and high-level features. The JAFF
module learns to emphasize defect features and suppress background noise during
feature fusion, which is beneficial for detecting low-contrast defects. In
addition, JAFFNet introduces a dense receptive field (DRF) module following the
encoder to capture features with rich context information, which helps detect
defects of different scales. The JAFF module mainly utilizes a learned joint
channel-spatial attention map provided by high-level semantic features to guide
feature fusion. The attention map makes the model pay more attention to defect
features. The DRF module utilizes a sequence of multi-receptive-field (MRF)
units with each taking as inputs all the preceding MRF feature maps and the
original input. The obtained DRF features capture rich context information with
a large range of receptive fields. Extensive experiments conducted on
SD-saliency-900, Magnetic tile, and DAGM 2007 indicate that our method achieves
promising performance in comparison with other state-of-the-art methods.
Meanwhile, our method reaches a real-time defect detection speed of 66 FPS.
- Abstract(参考訳): 表面欠陥検査は工業生産・製造プロセスにおいて重要な役割を果たしている。
畳み込みニューラルネットワーク(CNN)ベースの欠陥検査手法は大きな飛躍を遂げたものの、欠陥スケールの変化、複雑なバックグラウンド、低コントラストなど、多くの課題に直面している。
これらの問題に対処するために,エンコーダ・デコーダネットワークに基づく表面欠陥検出のための共同注意誘導型特徴融合ネットワーク (JAFFNet) を提案する。
JAFFNetは主にJAFFモジュールをデコードステージに組み込み、低レベルと高レベルの機能を適応的に融合させる。
JAFFモジュールは、欠陥の強調と、低コントラスト欠陥の検出に有用な機能融合時のバックグラウンドノイズの抑制を学習する。
さらに、JAFFNetはエンコーダに従って高密度受容野(DRF)モジュールを導入し、リッチなコンテキスト情報によって機能をキャプチャし、異なるスケールの欠陥を検出する。
JAFFモジュールは主に、高レベルの意味的特徴によって提供される学習された共同チャネルと空間の注意マップを利用して特徴融合を誘導する。
注意マップは、モデルが欠陥機能にもっと注意を払うようにします。
DRFモジュールは、先行するMRF特徴マップと元の入力を全て入力として、MRF(Multi-Receptive-field)ユニットのシーケンスを利用する。
得られたDRF機能は、広い範囲の受容場を持つリッチコンテキスト情報をキャプチャする。
SD- Saliency-900, Magnetic tile, および DAGM 2007 で行った実験により, 本手法が他の最先端手法と比較して有望な性能を発揮することが示された。
一方,本手法は66FPSのリアルタイム欠陥検出速度に達する。
関連論文リスト
- Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - CINFormer: Transformer network with multi-stage CNN feature injection
for surface defect segmentation [73.02218479926469]
表面欠陥分割のための多段CNN特徴注入を用いた変圧器ネットワークを提案する。
CINFormerは、入力画像のマルチレベルCNN機能をエンコーダ内のトランスフォーマーネットワークの異なるステージに注入する、シンプルだが効果的な機能統合機構を提供する。
さらに、CINFormerはTop-Kセルフアテンションモジュールを提供し、欠陥に関するより重要な情報を持つトークンにフォーカスする。
論文 参考訳(メタデータ) (2023-09-22T06:12:02Z) - StofNet: Super-resolution Time of Flight Network [8.395656453902685]
Time of Flight (ToF) は、ロボット工学、医用画像、非破壊検査の分野で広く使われている深度検知技術である。
本稿では,様々な環境を学習し,信頼性と高精度なToF検出を実現するための,現代の超解像技術の可能性を明らかにする。
論文 参考訳(メタデータ) (2023-08-23T09:02:01Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - MSFA-Frequency-Aware Transformer for Hyperspectral Images Demosaicing [15.847332787718852]
本稿では,MSFA対応変圧器ネットワーク(FDM-Net)を新たに提案する。
Maformerの利点は、データに存在するMSFA情報と非ローカル依存関係を活用することができることである。
実験の結果、FDM-Netは6dB PSNRで最先端の手法より優れており、高忠実度の詳細を再構築することに成功した。
論文 参考訳(メタデータ) (2023-03-23T16:27:30Z) - LF-YOLO: A Lighter and Faster YOLO for Weld Defect Detection of X-ray
Image [7.970559381165446]
畳み込みニューラルネットワーク(CNN)に基づく溶接欠陥検出手法,すなわちLighter and Faster YOLO(LF-YOLO)を提案する。
検出ネットワークの性能向上のために,効率的な特徴抽出(EFE)モジュールを提案する。
その結果, 溶接欠陥ネットワークは性能と消費のバランスが良好であり, 61.5 FPSの92.9 mAP50に達することがわかった。
論文 参考訳(メタデータ) (2021-10-28T12:19:32Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - Coupled Convolutional Neural Network with Adaptive Response Function
Learning for Unsupervised Hyperspectral Super-Resolution [28.798775822331045]
ハイパースペクトル超解像(Hyperspectral super- resolution)とは、高空間分解能と高スペクトル分解能の両方を持つ画像を生成するためにHSIとMSIを融合させることを指す。
本研究では,従来のPSFやSRF情報を使わずにHSI-MSI融合の問題を解く,教師なし深層学習に基づく融合法HyCoNetを提案する。
論文 参考訳(メタデータ) (2020-07-28T06:17:02Z) - iffDetector: Inference-aware Feature Filtering for Object Detection [70.8678270164057]
Inference-aware Feature Filtering (IFF)モジュールを導入し、現代の検出器と簡単に組み合わせることができる。
IFFは、畳み込み機能を強化するためにハイレベルなセマンティクスを活用することでクローズドループ最適化を行う。
IFFはCNNベースの物体検出器とプラグアンドプレイ方式で融合でき、計算コストのオーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2020-06-23T02:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。