論文の概要: Harmonizing Intra-coherence and Inter-divergence in Ensemble Attacks for Adversarial Transferability
- arxiv url: http://arxiv.org/abs/2505.01168v1
- Date: Fri, 02 May 2025 10:17:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.991921
- Title: Harmonizing Intra-coherence and Inter-divergence in Ensemble Attacks for Adversarial Transferability
- Title(参考訳): 対向移動性に対するアンサンブル攻撃におけるコヒーレンス内調和と分岐間調和
- Authors: Zhaoyang Ma, Zhihao Wu, Wang Lu, Xin Gao, Jinghang Yue, Taolin Zhang, Lipo Wang, Youfang Lin, Jing Wang,
- Abstract要約: 逆変換性(HEAT)のためのハーモナイズド・アンサンブル法を提案する。
Heated Ensemble for Adversarial Transferabilityは、ドメインの一般化を初めて逆例生成に導入する。
実験の結果、HEATはさまざまなデータセットや設定で既存のメソッドを著しく上回ります。
- 参考スコア(独自算出の注目度): 29.69932132116216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of model ensemble attacks has significantly improved the transferability of adversarial examples, but this progress also poses severe threats to the security of deep neural networks. Existing methods, however, face two critical challenges: insufficient capture of shared gradient directions across models and a lack of adaptive weight allocation mechanisms. To address these issues, we propose a novel method Harmonized Ensemble for Adversarial Transferability (HEAT), which introduces domain generalization into adversarial example generation for the first time. HEAT consists of two key modules: Consensus Gradient Direction Synthesizer, which uses Singular Value Decomposition to synthesize shared gradient directions; and Dual-Harmony Weight Orchestrator which dynamically balances intra-domain coherence, stabilizing gradients within individual models, and inter-domain diversity, enhancing transferability across models. Experimental results demonstrate that HEAT significantly outperforms existing methods across various datasets and settings, offering a new perspective and direction for adversarial attack research.
- Abstract(参考訳): モデルアンサンブル攻撃の開発は、敵のサンプルの転送可能性を大幅に向上させたが、この進歩はディープニューラルネットワークのセキュリティに深刻な脅威をもたらしている。
しかし、既存の手法では、モデル間の共有勾配方向の捕捉が不十分であり、適応重み付け機構の欠如という2つの重要な課題に直面している。
これらの問題に対処するために, ドメインの一般化を初めて逆の例生成に導入する, HEAT(Harmonized Ensemble for Adversarial Transferability)を提案する。
Consensus Gradient Direction Synthesizerは共有勾配方向の合成にSingular Value Decompositionを使用し、Dual-Harmony Weight Orchestratorはドメイン内のコヒーレンスを動的にバランスさせ、個々のモデルの勾配を安定化させ、ドメイン間の多様性を高め、モデル間の転送可能性を高める。
実験の結果、HEATは様々なデータセットや設定で既存の手法を著しく上回り、敵攻撃研究の新たな視点と方向性を提供することが示された。
関連論文リスト
- Aligning Foundation Model Priors and Diffusion-Based Hand Interactions for Occlusion-Resistant Two-Hand Reconstruction [50.952228546326516]
単眼画像からの両手再建は、複雑でダイナミックな手の位置や閉塞が原因で、永続的な課題に直面している。
既存のアプローチはそのようなアライメントの問題に悩まされ、しばしば不整合と侵入の成果物をもたらす。
本研究では,基礎モデルに基づく2次元先行モデルと拡散に基づく相互作用改善を組み込むことにより,手振りとインタラクションを正確に整合させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-22T14:42:27Z) - Boosting Adversarial Transferability with Spatial Adversarial Alignment [30.343721474168635]
ディープニューラルネットワークは、様々なモデルにまたがる転送可能性を示す敵の例に対して脆弱である。
本稿では,アライメント損失を利用してサロゲートモデルを微調整する手法を提案する。
ImageNet上の様々なアーキテクチャの実験では、SAAに基づくアライメントされたサロゲートモデルにより、より高い転送可能な逆の例が得られることが示されている。
論文 参考訳(メタデータ) (2025-01-02T02:35:47Z) - PB-UAP: Hybrid Universal Adversarial Attack For Image Segmentation [15.702469692874816]
セグメンテーションモデル用に設計された新しいユニバーサル逆攻撃法を提案する。
提案手法は,最先端の手法よりも高い攻撃成功率を達成し,異なるモデル間で強い伝達性を示す。
論文 参考訳(メタデータ) (2024-12-21T14:46:01Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Ensemble Adversarial Defense via Integration of Multiple Dispersed Low Curvature Models [7.8245455684263545]
本研究では,攻撃伝達性を低減し,アンサンブルの多様性を高めることを目的とする。
損失曲率を表す2階勾配を, 対向的強靭性の重要な要因として同定する。
本稿では,複数変数の低曲率ネットワークモデルをトレーニングするための新しい正規化器を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:44:36Z) - Safety-compliant Generative Adversarial Networks for Human Trajectory
Forecasting [95.82600221180415]
群衆における人間予測は、社会的相互作用をモデル化し、衝突のないマルチモーダル分布を出力するという課題を提示する。
SGANv2は、動き時間相互作用モデリングと変圧器に基づく識別器設計を備えた安全に配慮したSGANアーキテクチャである。
論文 参考訳(メタデータ) (2022-09-25T15:18:56Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。