論文の概要: A Feature Memory Rearrangement Network for Visual Inspection of Textured
Surface Defects Toward Edge Intelligent Manufacturing
- arxiv url: http://arxiv.org/abs/2206.10830v1
- Date: Wed, 22 Jun 2022 04:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:09:39.271591
- Title: A Feature Memory Rearrangement Network for Visual Inspection of Textured
Surface Defects Toward Edge Intelligent Manufacturing
- Title(参考訳): エッジインテリジェント製造に向けたテクスチャ表面欠陥の視覚検査のための特徴記憶再構成ネットワーク
- Authors: Haiming Yao, Wenyong Yu, Xue Wang
- Abstract要約: 本稿では,様々なテクスチャ欠陥を同時に検出するための,教師なし機能メモリ再構成ネットワーク(FMR-Net)を提案する。
人工的な人工的な欠陥を用いて、モデルが異常を認識できるようにし、従来の知恵は欠陥のないサンプルにのみ依存する。
FMR-Netは最先端の検査精度を示し、エッジコンピューティング対応のスマート産業で大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 4.33060257697635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in the industrial inspection of textured surfaces-in the form
of visual inspection-have made such inspections possible for efficient,
flexible manufacturing systems. We propose an unsupervised feature memory
rearrangement network (FMR-Net) to accurately detect various textural defects
simultaneously. Consistent with mainstream methods, we adopt the idea of
background reconstruction; however, we innovatively utilize artificial
synthetic defects to enable the model to recognize anomalies, while traditional
wisdom relies only on defect-free samples. First, we employ an encoding module
to obtain multiscale features of the textured surface. Subsequently, a
contrastive-learning-based memory feature module (CMFM) is proposed to obtain
discriminative representations and construct a normal feature memory bank in
the latent space, which can be employed as a substitute for defects and fast
anomaly scores at the patch level. Next, a novel global feature rearrangement
module (GFRM) is proposed to further suppress the reconstruction of residual
defects. Finally, a decoding module utilizes the restored features to
reconstruct the normal texture background. In addition, to improve inspection
performance, a two-phase training strategy is utilized for accurate defect
restoration refinement, and we exploit a multimodal inspection method to
achieve noise-robust defect localization. We verify our method through
extensive experiments and test its practical deployment in collaborative
edge--cloud intelligent manufacturing scenarios by means of a multilevel
detection method, demonstrating that FMR-Net exhibits state-of-the-art
inspection accuracy and shows great potential for use in edge-computing-enabled
smart industries.
- Abstract(参考訳): 近年のテクスチャ表面の産業検査の進歩は、視覚検査という形で、効率的なフレキシブルな製造システムの実現を可能にした。
本稿では,様々なテクスチャ欠陥を同時に検出するための,教師なし機能メモリ再構成ネットワーク(FMR-Net)を提案する。
しかし,従来の知恵は欠陥のないサンプルにのみ依存するのに対し,本研究では,人工的な人工的な欠陥を利用して異常を認識できるようにする。
まず, テクスチャ面のマルチスケール特徴を得るために, 符号化モジュールを用いる。
その後、対比学習に基づくメモリ特徴モジュール(cmfm)が提案され、識別表現を得て、潜在空間に通常の特徴記憶バンクを構築し、パッチレベルでの欠陥や高速な異常スコアの代用として使用できる。
次に, 残差欠陥の再構築をさらに抑制するために, 新たなglobal feature rerangement module (gfrm) を提案する。
最後に、復号モジュールは復元された特徴を利用して通常のテクスチャ背景を再構築する。
さらに, 検査性能を向上させるため, 2段階のトレーニング戦略を高精度な欠陥修復に利用し, マルチモーダル検査手法を用いてノイズロスト欠陥の局所化を実現する。
本稿では,多段階検出手法を用いて,エッジ・クラウド・インテリジェント・マニュファクチャリング・シナリオにおける本手法の実用的展開を検証し,fmr-netが最先端の検査精度を示し,エッジ・コンピューティング対応スマート産業での利用の可能性を示すことを示す。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - YOLO-pdd: A Novel Multi-scale PCB Defect Detection Method Using Deep Representations with Sequential Images [7.368447690189973]
本稿では,CNNに基づくPCB欠陥検出のための高精度で堅牢でリアルタイムなエンドツーエンド手法を提案する。
本稿では, YOLOv5とマルチスケールモジュールを組み合わせた階層的残差接続手法を提案する。
大規模PCBデータセットの実験では、既存の手法と比較して精度、リコール、F1スコアが大幅に改善された。
論文 参考訳(メタデータ) (2024-07-22T07:08:22Z) - Feature Purified Transformer With Cross-level Feature Guiding Decoder For Multi-class OOD and Anomaly Deteciton [22.59400036717643]
本稿では,FPM(Feature Purification Module)とCFGデコーダの2つの革新的なモジュールを組み込んだFUTUREGフレームワークを紹介する。
FPMは、潜在空間内の正規性境界を制約し、異常な特徴を効果的にフィルタリングする。
CFGデコーダは層単位でのエンコーダ表現を使用してフィルタされた特徴の再構築を誘導し、きめ細かい詳細を保存する。
論文 参考訳(メタデータ) (2024-04-30T16:45:51Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Detector-Free Structure from Motion [63.5577809314603]
そこで我々は,非秩序な画像から正確なカメラポーズと点雲を復元する新しい構造抽出フレームワークを提案する。
我々のフレームワークはまず、量子化された検出器レスマッチングから粗いSfMモデルを再構成する。
提案手法が既存の検出器ベースのSfMシステムより優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2023-06-27T17:59:39Z) - Reference-Based Autoencoder for Surface Defect Detection [7.163582730053925]
種々のテクスチャ欠陥を正確に検査するために, RB-AE (unsupervised reference-based autoencoder) を提案する。
モデルが画素レベルの識別能力を得ることができるように、人工欠陥と新たな画素レベルの識別損失関数をトレーニングに活用する。
論文 参考訳(メタデータ) (2022-11-18T07:13:55Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Clear Memory-Augmented Auto-Encoder for Surface Defect Detection [10.829080460965478]
本稿では,異常な前景を修復し,背景を鮮明に保存するメモリ拡張オートエンコーダを提案する。
できるだけ現実的で機能豊富な異常をシミュレートするために, 汎用的な人工異常生成アルゴリズムを提案する。
最後に,欠陥セグメンテーションのための新しいマルチスケール特徴残差検出法を提案する。
論文 参考訳(メタデータ) (2022-08-08T02:39:03Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。