論文の概要: ADPretrain: Advancing Industrial Anomaly Detection via Anomaly Representation Pretraining
- arxiv url: http://arxiv.org/abs/2511.05245v1
- Date: Fri, 07 Nov 2025 13:53:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.778975
- Title: ADPretrain: Advancing Industrial Anomaly Detection via Anomaly Representation Pretraining
- Title(参考訳): ADPretrain: Anomaly Representation Pretrainingによる産業異常検出の促進
- Authors: Xincheng Yao, Yan Luo, Zefeng Qian, Chongyang Zhang,
- Abstract要約: 異常検出のための頑健で差別的な事前訓練された表現を学習するために特別に設計された新しいAD表現学習フレームワークを提案する。
本研究では,大規模異常データセットであるRealIADを用いて事前学習を行う。
評価のためには,5つの埋め込み型AD法に基づいて,既存の特徴を事前学習した表現に置き換える。
- 参考スコア(独自算出の注目度): 15.737145287630556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current mainstream and state-of-the-art anomaly detection (AD) methods are substantially established on pretrained feature networks yielded by ImageNet pretraining. However, regardless of supervised or self-supervised pretraining, the pretraining process on ImageNet does not match the goal of anomaly detection (i.e., pretraining in natural images doesn't aim to distinguish between normal and abnormal). Moreover, natural images and industrial image data in AD scenarios typically have the distribution shift. The two issues can cause ImageNet-pretrained features to be suboptimal for AD tasks. To further promote the development of the AD field, pretrained representations specially for AD tasks are eager and very valuable. To this end, we propose a novel AD representation learning framework specially designed for learning robust and discriminative pretrained representations for industrial anomaly detection. Specifically, closely surrounding the goal of anomaly detection (i.e., focus on discrepancies between normals and anomalies), we propose angle- and norm-oriented contrastive losses to maximize the angle size and norm difference between normal and abnormal features simultaneously. To avoid the distribution shift from natural images to AD images, our pretraining is performed on a large-scale AD dataset, RealIAD. To further alleviate the potential shift between pretraining data and downstream AD datasets, we learn the pretrained AD representations based on the class-generalizable representation, residual features. For evaluation, based on five embedding-based AD methods, we simply replace their original features with our pretrained representations. Extensive experiments on five AD datasets and five backbones consistently show the superiority of our pretrained features. The code is available at https://github.com/xcyao00/ADPretrain.
- Abstract(参考訳): 現在の主流と最先端の異常検出(AD)手法は、ImageNet事前学習によって得られる事前訓練された特徴ネットワークに実質的に確立されている。
しかし、教師付きまたは自己指導型事前トレーニングにかかわらず、ImageNetの事前トレーニングプロセスは異常検出の目標と一致しない(すなわち、自然画像における事前トレーニングは、正常と異常を区別するものではない)。
さらに、ADシナリオにおける自然画像と産業画像データは通常、分布シフトを持つ。
この2つの問題は、ImageNetで事前訓練された機能がADタスクのサブ最適化に繋がる可能性がある。
ADフィールドの開発をさらに進めるために、ADタスクに特化して事前訓練された表現は熱心であり、非常に貴重である。
そこで本研究では,産業的異常検出のための頑健かつ差別的な事前学習のための新しいAD表現学習フレームワークを提案する。
具体的には、異常検出の目標(すなわち、正常と異常の相違点に焦点をあてる)を密接に取り、角度と標準指向のコントラスト損失を提案し、標準特徴と異常特徴の標準差を同時に最大化する。
自然画像からAD画像への分布シフトを避けるため,大規模なADデータセットであるRealIAD上で事前学習を行う。
事前学習データと下流ADデータセットの潜在的なシフトを緩和するため、クラス一般化可能な表現、残像に基づいて事前学習したAD表現を学習する。
評価のためには,5つの埋め込み型AD法に基づいて,既存の特徴を事前学習した表現に置き換える。
5つのADデータセットと5つのバックボーンに関する大規模な実験は、トレーニング済みの特徴の優位性を一貫して示しています。
コードはhttps://github.com/xcyao00/ADPretrain.comから入手できる。
関連論文リスト
- Advancing Weakly-Supervised Change Detection in Satellite Images via Adversarial Class Prompting [49.15470825004932]
本稿では,この共起雑音問題に対処するAdvCP法を提案する。
私たちのAdvCPは、追加の推論コストを加えることなく、現在のWSCDメソッドにシームレスに統合できます。
論文 参考訳(メタデータ) (2025-08-24T02:02:16Z) - ReContrast: Domain-Specific Anomaly Detection via Contrastive
Reconstruction [29.370142078092375]
殆どの高度な教師なし異常検出(UAD)手法は、大規模データセットで事前訓練された冷凍エンコーダネットワークの特徴表現をモデル化することに依存している。
本稿では,事前学習した画像領域に対するバイアスを低減するために,ネットワーク全体を最適化する新しい疫学的UAD手法であるReContrastを提案する。
2つの一般的な産業欠陥検出ベンチマークと3つの医用画像UADタスクで実験を行い、現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T05:21:15Z) - Zero-Shot Anomaly Detection via Batch Normalization [58.291409630995744]
多くの安全クリティカルなアプリケーションドメインでは、異常検出が重要な役割を果たす。
異常検出器を正常なデータ分布でドリフトに適応させることの課題は、ゼロショットAD技術の開発に繋がった。
ゼロショットバッチレベルのADに対して,適応中心表現(Adaptive Centered Representation, ACR)と呼ばれるシンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T18:34:15Z) - Prior Knowledge-Guided Attention in Self-Supervised Vision Transformers [79.60022233109397]
本研究では、未ラベル画像データセットにおける一貫した空間的・意味的構造を利用するフレームワークである空間的事前注意(SPAN)を提案する。
SPANは、アテンションマスクを別個のトランスフォーマーヘッドから正規化し、セマンティック領域の様々な先導に従う。
その結果,アテンションマスクは,ドメインに依存しない事前学習から得られるマスクよりも解釈可能であることが判明した。
論文 参考訳(メタデータ) (2022-09-07T02:30:36Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Semantic-aware Dense Representation Learning for Remote Sensing Image
Change Detection [20.761672725633936]
ディープラーニングに基づく変化検出モデルのトレーニングはラベル付きデータに大きく依存する。
最近のトレンドは、リモートセンシング(RS)データを使用して、教師付きまたは自己教師型学習(SSL)を通じてドメイン内表現を取得することである。
複数のクラスバランス点をサンプリングし,RS画像CDに対する意味認識事前学習を提案する。
論文 参考訳(メタデータ) (2022-05-27T06:08:33Z) - Exposing Outlier Exposure: What Can Be Learned From Few, One, and Zero
Outlier Images [26.283734474660484]
専門的なAD学習手法は、実際には多量かつ膨大なデータのコーパスであることを示す。
我々は,この現象を調査し,一級法がトレーニングアウトリージの特定の選択に対してより堅牢であることを明らかにする。
論文 参考訳(メタデータ) (2022-05-23T17:23:15Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Modeling the Distribution of Normal Data in Pre-Trained Deep Features
for Anomaly Detection [2.9864637081333085]
画像中の異常検出(AD)は、標準からかなり逸脱した画像や画像のサブ構造を特定することを指す。
本研究では,大きな自然画像データセット上での識別モデルにより学習された深い特徴表現が,正規性を記述するのに適していることを示す。
論文 参考訳(メタデータ) (2020-05-28T16:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。