論文の概要: A Discrepancy Aware Framework for Robust Anomaly Detection
- arxiv url: http://arxiv.org/abs/2310.07585v1
- Date: Wed, 11 Oct 2023 15:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 22:22:10.386389
- Title: A Discrepancy Aware Framework for Robust Anomaly Detection
- Title(参考訳): ロバスト異常検出のための不一致認識フレームワーク
- Authors: Yuxuan Cai, Dingkang Liang, Dongliang Luo, Xinwei He, Xin Yang, Xiang
Bai
- Abstract要約: 本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
- 参考スコア(独自算出の注目度): 51.710249807397695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Defect detection is a critical research area in artificial intelligence.
Recently, synthetic data-based self-supervised learning has shown great
potential on this task. Although many sophisticated synthesizing strategies
exist, little research has been done to investigate the robustness of models
when faced with different strategies. In this paper, we focus on this issue and
find that existing methods are highly sensitive to them. To alleviate this
issue, we present a Discrepancy Aware Framework (DAF), which demonstrates
robust performance consistently with simple and cheap strategies across
different anomaly detection benchmarks. We hypothesize that the high
sensitivity to synthetic data of existing self-supervised methods arises from
their heavy reliance on the visual appearance of synthetic data during
decoding. In contrast, our method leverages an appearance-agnostic cue to guide
the decoder in identifying defects, thereby alleviating its reliance on
synthetic appearance. To this end, inspired by existing knowledge distillation
methods, we employ a teacher-student network, which is trained based on
synthesized outliers, to compute the discrepancy map as the cue. Extensive
experiments on two challenging datasets prove the robustness of our method.
Under the simple synthesis strategies, it outperforms existing methods by a
large margin. Furthermore, it also achieves the state-of-the-art localization
performance. Code is available at: https://github.com/caiyuxuan1120/DAF.
- Abstract(参考訳): 欠陥検出は人工知能における重要な研究領域である。
近年,合成データに基づく自己教師型学習が大きな可能性を示している。
多くの高度な合成戦略が存在するが、異なる戦略に直面した場合のモデルの堅牢性についての研究はほとんど行われていない。
本稿では,この問題に焦点をあて,既存の手法に非常に敏感であることを示す。
この問題を軽減するため,我々は,異なる異常検出ベンチマークを用いた簡易かつ安価でロバストな性能を示す,daf(disrepancy aware framework)を提案する。
既存の自己教師あり手法の合成データに対する高い感度は、デコード中の合成データの視覚的な外観に依存することから生じると仮定する。
対照的に, 本手法は, デコーダの欠陥同定を導くために, 外観非依存の手がかりを活用し, 合成外観への依存を緩和する。
そこで, 既存の知識蒸留法に触発されて, 合成異常値に基づいて訓練された教師・学生ネットワークを用いて, 離散度マップを手がかりとして計算する。
2つの挑戦的なデータセットに対する大規模な実験は、我々の手法の堅牢性を証明する。
単純な合成戦略の下では、既存の手法を大きく上回っている。
さらに,最先端のローカライズ性能も実現している。
コードはhttps://github.com/caiyuxuan1120/dafで入手できる。
関連論文リスト
- Synthetic Image Learning: Preserving Performance and Preventing Membership Inference Attacks [5.0243930429558885]
本稿では,下流分類器の学習のための合成データの生成と利用を最適化するパイプラインである知識リサイクル(KR)を紹介する。
このパイプラインの核心は生成的知識蒸留(GKD)であり、情報の品質と有用性を大幅に向上させる技術が提案されている。
その結果、実データと合成データでトレーニングされたモデルと、実データでトレーニングされたモデルとの性能差が著しく低下した。
論文 参考訳(メタデータ) (2024-07-22T10:31:07Z) - Unveiling the Flaws: Exploring Imperfections in Synthetic Data and Mitigation Strategies for Large Language Models [89.88010750772413]
大規模言語モデル(LLM)の学習における高品質なデータ不足問題に対する解決法として,合成データを提案する。
我々の研究は、Q-A(Q-A)ペア、一般的な合成データに関連するこれらの特定の欠陥を掘り下げ、これらの欠陥を軽減するための未学習技術に基づく方法を提案する。
我々の研究は、より堅牢で効率的なLLMトレーニングを促進することを目的として、合成データの効果的な利用に関する重要な洞察を得た。
論文 参考訳(メタデータ) (2024-06-18T08:38:59Z) - Curating Naturally Adversarial Datasets for Learning-Enabled Medical
Cyber-Physical Systems [5.349773727704873]
既存の研究は、入力データに知覚不能な摂動を加えて作られた合成敵の例に対する堅牢性に焦点を当てている。
本研究では, モデルロバスト性を評価するために, 自然な逆例からなるデータセットをキュレートする手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T15:52:32Z) - Autoencoder-based Anomaly Detection in Streaming Data with Incremental
Learning and Concept Drift Adaptation [10.41066461952124]
ドリフト検出(strAEm++DD)を用いた自動エンコーダに基づく漸進学習手法を提案する。
提案手法は,逐次学習とドリフト検出の両方の利点を利用する。
我々は,重度あるいは極度のクラス不均衡を持つ実世界のデータセットと合成データセットを用いて実験を行い,StraAEm++DDの実証分析を行った。
論文 参考訳(メタデータ) (2023-05-15T19:40:04Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - A Compact Deep Learning Model for Face Spoofing Detection [4.250231861415827]
プレゼンテーションアタック検出(PAD)は研究コミュニティから大きな注目を集めている。
我々は、統一されたニューラルネットワークアーキテクチャにおいて、幅広い機能と深い機能の両方を融合することで、この問題に対処する。
この手順は、ROSE-Youtu、SiW、NUAA Imposterなどのさまざまなスプーフィングデータセットで行われます。
論文 参考訳(メタデータ) (2021-01-12T21:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。