論文の概要: Mitigating Spurious Negative Pairs for Robust Industrial Anomaly Detection
- arxiv url: http://arxiv.org/abs/2501.15434v1
- Date: Sun, 26 Jan 2025 07:32:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:56:33.227754
- Title: Mitigating Spurious Negative Pairs for Robust Industrial Anomaly Detection
- Title(参考訳): ロバストな産業異常検出のためのスプーラス負のペアの緩和
- Authors: Hossein Mirzaei, Mojtaba Nafez, Jafar Habibi, Mohammad Sabokrou, Mohammad Hossein Rohban,
- Abstract要約: 敵攻撃に対する既存の検出手法の堅牢性は依然として課題であり、自律運転のような現実のアプリケーションにおいて信頼性を損なう。
本稿では,ADにおける対人訓練の理想的目的関数として,正規群から派生した擬似奇形群を提案する。
これらの結果から, 突発性負対が従来のコントラスト損失を損なうことにより, 頑健なADを達成できることが示唆された。
- 参考スコア(独自算出の注目度): 9.93548802132951
- License:
- Abstract: Despite significant progress in Anomaly Detection (AD), the robustness of existing detection methods against adversarial attacks remains a challenge, compromising their reliability in critical real-world applications such as autonomous driving. This issue primarily arises from the AD setup, which assumes that training data is limited to a group of unlabeled normal samples, making the detectors vulnerable to adversarial anomaly samples during testing. Additionally, implementing adversarial training as a safeguard encounters difficulties, such as formulating an effective objective function without access to labels. An ideal objective function for adversarial training in AD should promote strong perturbations both within and between the normal and anomaly groups to maximize margin between normal and anomaly distribution. To address these issues, we first propose crafting a pseudo-anomaly group derived from normal group samples. Then, we demonstrate that adversarial training with contrastive loss could serve as an ideal objective function, as it creates both inter- and intra-group perturbations. However, we notice that spurious negative pairs compromise the conventional contrastive loss to achieve robust AD. Spurious negative pairs are those that should be closely mapped but are erroneously separated. These pairs introduce noise and misguide the direction of inter-group adversarial perturbations. To overcome the effect of spurious negative pairs, we define opposite pairs and adversarially pull them apart to strengthen inter-group perturbations. Experimental results demonstrate our superior performance in both clean and adversarial scenarios, with a 26.1% improvement in robust detection across various challenging benchmark datasets. The implementation of our work is available at: https://github.com/rohban-lab/COBRA.
- Abstract(参考訳): Anomaly Detection (AD) の大幅な進歩にもかかわらず、敵攻撃に対する既存の検出手法の堅牢性は依然として課題であり、自律運転のような重要な現実の応用において信頼性を損なう。
この問題は、ADセットアップで主に発生し、トレーニングデータはラベルのない正常なサンプルのグループに限られていると仮定し、検出器はテスト中に敵の異常なサンプルに弱いと仮定する。
さらに,ラベルへのアクセスなしに効果的な目的関数を定式化するなど,安全ガードとしての対人訓練の実施は困難に直面する。
ADにおける対人訓練の理想的な目的関数は、正常群と異常群の間の強い摂動を促進し、正常群と異常群の間のマージンを最大化することである。
これらの問題に対処するために、我々はまず、正常なグループサンプルから派生した擬似異常群を作成することを提案する。
そして,群内摂動と群内摂動を両立させるため,対照的損失を伴う対人訓練が理想的目的関数として機能することが実証された。
しかし, 突発性負対が従来のコントラスト損失を損なうことにより, 頑健なADが得られることがわかった。
純粋な負対は、密にマッピングされるべきであるが誤って分離されているものである。
これらのペアはノイズを導入し、グループ間対向摂動の方向を誤導する。
突発性負対の効果を克服するため、対向性対を定義し、群間摂動を強化するために逆に引き離す。
実験結果によると、クリーンシナリオと逆シナリオの両方で、さまざまな挑戦的なベンチマークデータセットに対して、堅牢な検出が26.1%向上した。
私たちの作業の実装は、https://github.com/rohban-lab/COBRA.comで公開されています。
関連論文リスト
- Adversarial Robustness of VAEs across Intersectional Subgroups [4.420073761023326]
可変オートエンコーダ (VAEs) は, 決定論的AEよりも逆方向の摂動に強い抵抗を示す。
本研究は,非標的敵攻撃に対するVAEの堅牢性を評価する。
論文 参考訳(メタデータ) (2024-07-04T11:53:51Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Rethinking Invariance Regularization in Adversarial Training to Improve Robustness-Accuracy Trade-off [7.202931445597171]
敵の訓練は、しばしばロバストネスのトレードオフに悩まされ、高いロバストネスを達成することは精度の犠牲となる。
非対称表現正規化逆行訓練(ARAT)を提案する。
ARATは、非対称な不斉損失と停止段階の演算と予測器を組み込み、勾配の衝突を回避し、混合分布問題を解決するためにスプリット・バッチノーム(BN)構造を組み込む。
論文 参考訳(メタデータ) (2024-02-22T15:53:46Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Holistic Approach to Measure Sample-level Adversarial Vulnerability and
its Utility in Building Trustworthy Systems [17.707594255626216]
敵対的攻撃は、知覚不能な雑音を伴うイメージを摂動させ、誤ったモデル予測をもたらす。
本稿では,異なる視点を組み合わせることで,サンプルの敵対的脆弱性を定量化するための総合的アプローチを提案する。
サンプルレベルで確実に敵の脆弱性を推定することにより、信頼できるシステムを開発できることを実証する。
論文 参考訳(メタデータ) (2022-05-05T12:36:17Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Normal vs. Adversarial: Salience-based Analysis of Adversarial Samples
for Relation Extraction [25.869746965410954]
私たちは、サリエンスベースの方法で敵のサンプルを分析するための第一歩を踏み出します。
サリエンストークンは、敵対的な摂動と直接相関があることを観察する。
ある程度、私たちのアプローチは敵対的なサンプルに対するキャラクターを明らかにします。
論文 参考訳(メタデータ) (2021-04-01T07:36:04Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。