論文の概要: CINFormer: Transformer network with multi-stage CNN feature injection
for surface defect segmentation
- arxiv url: http://arxiv.org/abs/2309.12639v1
- Date: Fri, 22 Sep 2023 06:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 15:53:34.699819
- Title: CINFormer: Transformer network with multi-stage CNN feature injection
for surface defect segmentation
- Title(参考訳): CINFormer:多段CNN機能注入による表面欠陥分割のためのトランスフォーマーネットワーク
- Authors: Xiaoheng Jiang, Kaiyi Guo, Yang Lu, Feng Yan, Hao Liu, Jiale Cao,
Mingliang Xu, and Dacheng Tao
- Abstract要約: 表面欠陥分割のための多段CNN特徴注入を用いた変圧器ネットワークを提案する。
CINFormerは、入力画像のマルチレベルCNN機能をエンコーダ内のトランスフォーマーネットワークの異なるステージに注入する、シンプルだが効果的な機能統合機構を提供する。
さらに、CINFormerはTop-Kセルフアテンションモジュールを提供し、欠陥に関するより重要な情報を持つトークンにフォーカスする。
- 参考スコア(独自算出の注目度): 73.02218479926469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surface defect inspection is of great importance for industrial manufacture
and production. Though defect inspection methods based on deep learning have
made significant progress, there are still some challenges for these methods,
such as indistinguishable weak defects and defect-like interference in the
background. To address these issues, we propose a transformer network with
multi-stage CNN (Convolutional Neural Network) feature injection for surface
defect segmentation, which is a UNet-like structure named CINFormer. CINFormer
presents a simple yet effective feature integration mechanism that injects the
multi-level CNN features of the input image into different stages of the
transformer network in the encoder. This can maintain the merit of CNN
capturing detailed features and that of transformer depressing noises in the
background, which facilitates accurate defect detection. In addition, CINFormer
presents a Top-K self-attention module to focus on tokens with more important
information about the defects, so as to further reduce the impact of the
redundant background. Extensive experiments conducted on the surface defect
datasets DAGM 2007, Magnetic tile, and NEU show that the proposed CINFormer
achieves state-of-the-art performance in defect detection.
- Abstract(参考訳): 表面欠陥検査は工業生産と製造にとって非常に重要である。
深層学習に基づく欠陥検査手法は大きな進歩を遂げているが,その背景には識別不能な欠陥や欠陥のような干渉など,いくつかの課題が残っている。
これらの問題に対処するため,多段CNN (Convolutional Neural Network) 機能注入による表面欠陥分割のためのトランスフォーマネットワークを提案する。
CINFormerは、入力画像のマルチレベルCNN機能をエンコーダ内のトランスフォーマーネットワークの異なるステージに注入する、シンプルだが効果的な機能統合機構を提供する。
これにより、CNNが詳細な特徴を捉え、バックグラウンドでノイズを抑える変換器の利点を維持でき、正確な欠陥検出が容易になる。
さらに、CINFormerはTop-Kセルフアテンションモジュールを提供し、欠陥に関するより重要な情報を持つトークンに焦点を当て、冗長なバックグラウンドの影響をさらに軽減する。
表面欠陥データセット dagm 2007, 磁気タイルおよびneu を用いた広範な実験により, 提案するcinformer は欠陥検出において最先端の性能を達成できた。
関連論文リスト
- Change-Aware Siamese Network for Surface Defects Segmentation under Complex Background [0.6407952035735353]
変更検出フレームワークにおける欠陥セグメント化を解消する変更対応のSiameseネットワークを提案する。
トランスフォーマーベースのエンコーダを導くために,新しいマルチクラスのコントラスト損失を導入した。
距離マップで示される差分は、変更対応デコーダにスキップ接続され、クラス間およびクラス外の両方の欠陥の位置をアシストする。
論文 参考訳(メタデータ) (2024-09-01T02:48:11Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Joint Attention-Guided Feature Fusion Network for Saliency Detection of
Surface Defects [69.39099029406248]
本稿では,エンコーダ・デコーダネットワークに基づく表面欠陥検出のための共同注意誘導型特徴融合ネットワーク(JAFFNet)を提案する。
JAFFNetは、主にJAFFモジュールをデコードステージに組み込んで、低レベルと高レベルの機能を適応的に融合させる。
SD- Saliency-900, Magnetic tile, and DAGM 2007 で行った実験から,本手法が他の最先端手法と比較して有望な性能を達成できたことが示唆された。
論文 参考訳(メタデータ) (2024-02-05T08:10:16Z) - Characterization of Magnetic Labyrinthine Structures Through Junctions and Terminals Detection Using Template Matching and CNN [0.0]
ジャンクションと終端と呼ばれる磁気ラビリンチンパターンの欠陥は、関心のポイントとなる。
本研究では,画像中の多数の小物体を検出するTM-CNNという新しい手法を提案する。
TM-CNNのF1スコアは0.991で、従来のテンプレートマッチングやCNNベースのオブジェクト検出アルゴリズムよりもはるかに優れていた。
論文 参考訳(メタデータ) (2024-01-30T02:23:07Z) - Cal-DETR: Calibrated Detection Transformer [67.75361289429013]
本稿では,Deformable-DETR,UP-DETR,DINOのキャリブレーション検出トランス(Cal-DETR)のメカニズムを提案する。
我々は、不確実性を利用してクラスロジットを変調する不確実性誘導ロジット変調機構を開発する。
その結果、Cal-DETRは、ドメイン内およびドメイン外の両方を校正する競合する列車時間法に対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-11-06T22:13:10Z) - DANet: Enhancing Small Object Detection through an Efficient Deformable
Attention Network [0.0]
我々は,より高速なR-CNNと最先端の手法を併用した包括的戦略を提案する。
より高速なR-CNNとFeature Pyramid Networkを組み合わせることで、製造環境に固有のマルチスケール機能を扱うことができる。
変形可能なネット(Deformable Net)は、欠陥の幾何学的バリエーションを歪曲し、従って、極小および複雑な特徴を検出できる精度をもたらす。
論文 参考訳(メタデータ) (2023-10-09T14:54:37Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - Local Distortion Aware Efficient Transformer Adaptation for Image
Quality Assessment [62.074473976962835]
局所歪み特性を適切に注入することにより、IQAタスクにおいて、より大きな事前訓練および固定された基礎モデルがより優れた性能を発揮することを示す。
具体的には、局所歪み構造と視覚変換器(ViT)の誘導バイアスの欠如に対して、別の事前学習畳み込みニューラルネットワーク(CNN)を用いる。
本研究では, 予め訓練したCNNから局所歪み特徴を得るための局所歪み抽出器と, 局所歪み特徴をViTに注入する局所歪み注入器を提案する。
論文 参考訳(メタデータ) (2023-08-23T08:41:21Z) - A New Knowledge Distillation Network for Incremental Few-Shot Surface
Defect Detection [20.712532953953808]
本稿では,DKAN(Dual Knowledge Align Network)と呼ばれる新しい知識蒸留ネットワークを提案する。
提案したDKAN法は,事前学習型ファインタニング伝達学習パラダイムを踏襲し,ファインタニングのための知識蒸留フレームワークを設計した。
Few-shot NEU-DETデータセットをインクリメンタルに実験した結果、DKANは様々なシーンで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-09-01T15:08:44Z) - Defect Transformer: An Efficient Hybrid Transformer Architecture for
Surface Defect Detection [2.0999222360659604]
表面欠陥検出のための効率的なハイブリッドトランスアーキテクチャであるDefect Transformer (DefT)を提案する。
DefTはCNNとTransformerを統一モデルに組み込んで、局所的および非局所的関係を協調的にキャプチャする。
3つのデータセットの実験は、他のCNNやトランスフォーマーベースのネットワークと比較して、我々の手法の優位性と効率性を実証している。
論文 参考訳(メタデータ) (2022-07-17T23:37:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。