論文の概要: PatchGuard: Adversarially Robust Anomaly Detection and Localization through Vision Transformers and Pseudo Anomalies
- arxiv url: http://arxiv.org/abs/2506.09237v1
- Date: Tue, 10 Jun 2025 20:45:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.082021
- Title: PatchGuard: Adversarially Robust Anomaly Detection and Localization through Vision Transformers and Pseudo Anomalies
- Title(参考訳): PatchGuard:視覚変換器と擬似異常による逆ロバスト異常検出と位置決め
- Authors: Mojtaba Nafez, Amirhossein Koochakian, Arad Maleki, Jafar Habibi, Mohammad Hossein Rohban,
- Abstract要約: 本研究では,視覚変換器(ViT)をベースとしたアーキテクチャにおいて,擬似異常を局所化マスクに組み込んだADおよびAL手法であるPatchGuardを紹介する。
高度に確立された産業用および医療用データセットの実験結果から、PatchGuardは対向的な設定で従来の手法を著しく上回っていることが示された。
- 参考スコア(独自算出の注目度): 1.0818620320072674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anomaly Detection (AD) and Anomaly Localization (AL) are crucial in fields that demand high reliability, such as medical imaging and industrial monitoring. However, current AD and AL approaches are often susceptible to adversarial attacks due to limitations in training data, which typically include only normal, unlabeled samples. This study introduces PatchGuard, an adversarially robust AD and AL method that incorporates pseudo anomalies with localization masks within a Vision Transformer (ViT)-based architecture to address these vulnerabilities. We begin by examining the essential properties of pseudo anomalies, and follow it by providing theoretical insights into the attention mechanisms required to enhance the adversarial robustness of AD and AL systems. We then present our approach, which leverages Foreground-Aware Pseudo-Anomalies to overcome the deficiencies of previous anomaly-aware methods. Our method incorporates these crafted pseudo-anomaly samples into a ViT-based framework, with adversarial training guided by a novel loss function designed to improve model robustness, as supported by our theoretical analysis. Experimental results on well-established industrial and medical datasets demonstrate that PatchGuard significantly outperforms previous methods in adversarial settings, achieving performance gains of $53.2\%$ in AD and $68.5\%$ in AL, while also maintaining competitive accuracy in non-adversarial settings. The code repository is available at https://github.com/rohban-lab/PatchGuard .
- Abstract(参考訳): Anomaly Detection (AD) と Anomaly Localization (AL) は、医療画像や産業モニタリングなどの信頼性の高い分野において重要である。
しかしながら、現在のADとALのアプローチは、通常、ラベルなしサンプルのみを含む訓練データに制限があるため、敵攻撃の影響を受けやすいことが多い。
本研究では、視覚変換器(ViT)ベースのアーキテクチャにおいて、擬似異常をローカライズマスクに組み込んだADおよびAL手法であるPatchGuardを紹介する。
まず、疑似異常の本質的性質を調べ、ADおよびALシステムの対角的堅牢性を高めるために必要な注意機構に関する理論的洞察を提供することで、それに従う。
提案手法は,従来の異常認識手法の欠陥を克服するために,フォアグラウンド・アウェア・擬似異常を利用した手法を提案する。
提案手法は, モデルロバスト性向上を目的とした新規な損失関数によって指導された, ViT ベースのフレームワークに擬似アノマリーサンプルを組み込むことにより, モデルロバスト性の向上を図った。
PatchGuardはADで53.2\%、ALで6.8.5\%、非敵の設定で競争精度を保ち、従来の手法よりも大幅に優れていた。
コードリポジトリはhttps://github.com/rohban-lab/PatchGuard で公開されている。
関連論文リスト
- Adversarially Robust AI-Generated Image Detection for Free: An Information Theoretic Perspective [22.514709685678813]
我々は,AIGI検出において,対戦訓練(AT)がパフォーマンスの低下に悩まされていることを示す。
この差に触発されて,情報理論による無トレーニングロバスト検出(TRIM)を提案する。
TRIMは標準検出器上に構築され、予測エントロピーとKL分散を用いて特徴シフトを定量化する。
論文 参考訳(メタデータ) (2025-05-28T17:20:49Z) - Robustness in AI-Generated Detection: Enhancing Resistance to Adversarial Attacks [4.179092469766417]
本稿では,現在のAI生成顔検出システムの脆弱性について検討する。
本稿では, 対人訓練を統合し, 対人訓練の効果を緩和するアプローチを提案する。
我々はまた、AI生成コンテンツの本質的な特徴に関する洞察を提供する、敵対的および良心的な事例の詳細な分析も提供する。
論文 参考訳(メタデータ) (2025-05-06T11:19:01Z) - Robust Distribution Alignment for Industrial Anomaly Detection under Distribution Shift [51.24522135151649]
異常検出は産業アプリケーションの品質管理において重要な役割を担っている。
既存の方法は、一般化可能なモデルをトレーニングすることで、ドメインシフトに対処しようとする。
提案手法は,最先端の異常検出法や領域適応法と比較して,優れた結果を示す。
論文 参考訳(メタデータ) (2025-03-19T05:25:52Z) - ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches [4.4100683691177816]
敵対的攻撃は、機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
パッチベースの敵攻撃に対処するための総合的な防御戦略である外乱検出・次元削減(ODDR)を提案する。
提案手法は,逆パッチに対応する入力特徴を外れ値として同定できるという観測に基づいている。
論文 参考訳(メタデータ) (2023-11-20T11:08:06Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Hierarchical Distribution-Aware Testing of Deep Learning [13.254093944540438]
深層学習(DL)は、安全クリティカルなアプリケーションでますます使われており、信頼性への懸念が高まっている。
逆数例(AEs)として知られる逆数摂動に直面した場合、DLは堅牢性に欠けるよく知られた問題に悩まされる。
本稿では,特徴量分布と画素レベル分布の両方を考慮したAE検出のための新しいロバストネステスト手法を提案する。
論文 参考訳(メタデータ) (2022-05-17T19:13:55Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。