論文の概要: ALMA: Aggregated Lipschitz Maximization Attack on Auto-encoders
- arxiv url: http://arxiv.org/abs/2505.03646v1
- Date: Tue, 06 May 2025 15:52:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.458976
- Title: ALMA: Aggregated Lipschitz Maximization Attack on Auto-encoders
- Title(参考訳): ALMA: 自動エンコーダに対するアグリゲートリプシッツの最大化攻撃
- Authors: Chethan Krishnamurthy Ramanaik, Arjun Roy, Eirini Ntoutsi,
- Abstract要約: 本稿では, レイヤ条件に基づく対向最適化手法を提案し, 対向写像を局所リプシッツ境界領域へ誘導する。
我々は、最先端のAEの実験を通じて、我々の敵の目標がより強力な攻撃をもたらすことを実証し、普遍的なシナリオとサンプル特有のシナリオの両方において既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 4.420073761023326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the extensive use of deep autoencoders (AEs) in critical applications, their adversarial robustness remains relatively underexplored compared to classification models. AE robustness is characterized by the Lipschitz bounds of its components. Existing robustness evaluation frameworks based on white-box attacks do not fully exploit the vulnerabilities of intermediate ill-conditioned layers in AEs. In the context of optimizing imperceptible norm-bounded additive perturbations to maximize output damage, existing methods struggle to effectively propagate adversarial loss gradients throughout the network, often converging to less effective perturbations. To address this, we propose a novel layer-conditioning-based adversarial optimization objective that effectively guides the adversarial map toward regions of local Lipschitz bounds by enhancing loss gradient information propagation during attack optimization. We demonstrate through extensive experiments on state-of-the-art AEs that our adversarial objective results in stronger attacks, outperforming existing methods in both universal and sample-specific scenarios. As a defense method against this attack, we introduce an inference-time adversarially trained defense plugin that mitigates the effects of adversarial examples.
- Abstract(参考訳): 批判的応用において、Deep Autoencoder (AE) が広く使われているにもかかわらず、その逆の堅牢性は分類モデルと比較して比較的未熟である。
AEの堅牢性は、その成分のリプシッツ境界によって特徴づけられる。
ホワイトボックス攻撃に基づく既存のロバストネス評価フレームワークは、AEの中間的不条件層の脆弱性を完全に活用していない。
知覚不能なノルム束縛加法摂動を最適化して出力損傷を最大化する文脈において、既存の手法はネットワーク全体の敵の損失勾配を効果的に伝播させるのに苦労し、しばしば効率の悪い摂動に収束する。
そこで本研究では,攻撃時における損失勾配情報伝達の促進により,リプシッツ境界領域への対向写像を効果的に誘導する,レイヤ条件に基づく対向最適化手法を提案する。
我々は、最先端のAEに関する広範な実験を通じて、我々の敵の目標がより強力な攻撃をもたらすことを実証し、普遍的なシナリオとサンプル特有のシナリオの両方において既存の手法よりも優れていることを示す。
本稿では,この攻撃に対する防御手法として,敵の事例の影響を緩和する予測時間付き防御プラグインを導入する。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - On Minimizing Adversarial Counterfactual Error in Adversarial RL [18.044879441434432]
敵の騒音は、安全クリティカルなシナリオにおいて重大なリスクを生じさせる。
我々は,ACoE(Adversarial Counterfactual Error)と呼ばれる新しい目標を導入する。
本手法は, 対向RL問題に対処するための最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-06-07T08:14:24Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Towards Efficient and Domain-Agnostic Evasion Attack with
High-dimensional Categorical Inputs [33.36532022853583]
本研究の目的は,ドメインに依存しない領域において,高次元のカテゴリー入力を持つ摂動を攻撃可能な逆方向を探索することである。
提案手法は,マルチアームバンディットプログラミングにおいて,各カテゴリ機能の変更を腕を引くものとして扱う。
本研究は,高次元カテゴリ入力を用いた分類システムの逆脆弱性評価におけるFEATの適用性をさらに示唆するものである。
論文 参考訳(メタデータ) (2022-12-13T18:45:00Z) - Unreasonable Effectiveness of Last Hidden Layer Activations [0.5156484100374058]
本研究では, 高い温度値を持つモデルの出力層で広く知られているアクティベーション関数を用いることで, 標的および標的外攻撃事例の勾配をゼロにする効果が示された。
CIFAR10データセットであるMNIST(Digit)に対するアプローチの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2022-02-15T12:02:59Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。