論文の概要: Advancing Metallic Surface Defect Detection via Anomaly-Guided Pretraining on a Large Industrial Dataset
- arxiv url: http://arxiv.org/abs/2509.18919v1
- Date: Tue, 23 Sep 2025 12:35:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.833628
- Title: Advancing Metallic Surface Defect Detection via Anomaly-Guided Pretraining on a Large Industrial Dataset
- Title(参考訳): 大規模産業データを用いた異常誘導プレトレーニングによる金属表面欠陥検出の高速化
- Authors: Chuni Liu, Hongjie Li, Jiaqi Du, Yangyang Hou, Qian Sun, Lei Jin, Ke Xu,
- Abstract要約: AGSSP(Anomaly-Guided Self-Supervised Pretraining)は、異常事前学習を導く新しいパラダイムである。
我々は,高品質な異常マップを生成するための知識向上手法を開発し,12万枚の画像の大規模産業データセットを収集する。
AGSSPは、ImageNetベースのモデルと比較して、mAP@0.5で10%、mAP@0.5:0.95で11.4%改善された。
- 参考スコア(独自算出の注目度): 10.37449551492674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pretraining-finetuning paradigm is a crucial strategy in metallic surface defect detection for mitigating the challenges posed by data scarcity. However, its implementation presents a critical dilemma. Pretraining on natural image datasets such as ImageNet, faces a significant domain gap. Meanwhile, naive self-supervised pretraining on in-domain industrial data is often ineffective due to the inability of existing learning objectives to distinguish subtle defect patterns from complex background noise and textures. To resolve this, we introduce Anomaly-Guided Self-Supervised Pretraining (AGSSP), a novel paradigm that explicitly guides representation learning through anomaly priors. AGSSP employs a two-stage framework: (1) it first pretrains the model's backbone by distilling knowledge from anomaly maps, encouraging the network to capture defect-salient features; (2) it then pretrains the detector using pseudo-defect boxes derived from these maps, aligning it with localization tasks. To enable this, we develop a knowledge-enhanced method to generate high-quality anomaly maps and collect a large-scale industrial dataset of 120,000 images. Additionally, we present two small-scale, pixel-level labeled metallic surface defect datasets for validation. Extensive experiments demonstrate that AGSSP consistently enhances performance across various settings, achieving up to a 10\% improvement in mAP@0.5 and 11.4\% in mAP@0.5:0.95 compared to ImageNet-based models. All code, pretrained models, and datasets are publicly available at https://clovermini.github.io/AGSSP-Dev/.
- Abstract(参考訳): プレトレーニングファインタニングパラダイムは、データ不足による課題を軽減するため、金属表面欠陥検出において重要な戦略である。
しかし、その実装は批判的なジレンマを呈している。
ImageNetのような自然なイメージデータセットを事前トレーニングすることは、大きなドメインギャップに直面します。
一方,既存の学習目的が複雑な背景雑音やテクスチャと微妙な欠陥パターンを区別できないため,ドメイン内産業データに対する自己指導型事前学習は効果がないことが多い。
これを解決するために,AGSSP(Anomaly-Guided Self-Supervised Pretraining)を導入する。
AGSSPは,(1)異常マップからの知識を抽出し,ネットワークに欠陥情報の特徴を捉えるよう促すことにより,まずモデルのバックボーンを事前訓練し,(2)これらのマップから派生した疑似欠陥ボックスを用いて検出器を事前訓練し,局所化タスクと整合させる。
これを実現するために,高品質な異常マップを生成し,12万枚の画像の大規模産業データセットを収集する知識強化手法を開発した。
さらに,2つの小さな画素レベルのラベル付き金属表面欠陥データセットを検証対象とする。
AGSSPは、ImageNetベースのモデルと比較して、mAP@0.5で最大10倍、mAP@0.5:0.95で最大11.4倍の改善を実現している。
すべてのコード、事前訓練されたモデル、データセットはhttps://clovermini.github.io/AGSSP-Dev/で公開されている。
関連論文リスト
- Leveraging Latent Diffusion Models for Training-Free In-Distribution Data Augmentation for Surface Defect Detection [9.784793380119806]
データ拡張のためのトレーニング不要な拡散型In-Distribution Anomaly GenerationパイプラインであるDIAGを紹介する。
従来の画像生成技術とは異なり、我々は、ドメインの専門家がモデルにマルチモーダルガイダンスを提供する、Human-in-the-loopパイプラインを実装している。
我々は、挑戦的なKSDD2データセットに対する最先端データ拡張アプローチに関して、DIAGの有効性と汎用性を実証する。
論文 参考訳(メタデータ) (2024-07-04T14:28:52Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - SPot-the-Difference Self-Supervised Pre-training for Anomaly Detection
and Segmentation [17.954335118363964]
我々は,高解像度カラー画像10,821枚(正常9,621枚,異常1200枚)からなるVisual Anomaly (VisA) データセットを3つの領域で12個のオブジェクトに対してリリースした。
本研究では,SPD(SPot-the-Difference)という自己教師付きフレームワークを提案する。
VisAとMVTec-ADデータセットの実験では、SPDはコントラスト付き事前トレーニングベースラインや教師付き事前トレーニングさえも一貫して改善している。
論文 参考訳(メタデータ) (2022-07-28T18:00:03Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。