論文の概要: Boosting Adversarial Transferability with Low-Cost Optimization via Maximin Expected Flatness
- arxiv url: http://arxiv.org/abs/2405.16181v2
- Date: Fri, 01 Aug 2025 04:16:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.381994
- Title: Boosting Adversarial Transferability with Low-Cost Optimization via Maximin Expected Flatness
- Title(参考訳): Maximinが期待する平坦性による低コスト最適化による逆変換性の向上
- Authors: Chunlin Qiu, Ang Li, Yiheng Duan, Shenyi Zhang, Yuanjie Zhang, Lingchen Zhao, Qian Wang,
- Abstract要約: トランスファーベースの攻撃は、サロゲートモデルの敵例を作成し、ブラックボックスターゲットモデルに対してそれらをデプロイし、モデルに依存しない、クエリフリーな脅威シナリオを提供する。
平坦性向上手法が最近出現し転送性の向上が図られているが、その異なる平坦性定義と攻撃設計は、未検討の最適化の制限と理論的基礎の欠如に悩まされている。
この研究は、平坦度最適化における厳密な不均衡なエクスプロレーション探索のダイナミクスを明らかにし、平坦度に基づく転送可能性に関する最初の理論的基礎を確立した。
- 参考スコア(独自算出の注目度): 12.70766510980057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer-based attacks craft adversarial examples on white-box surrogate models and directly deploy them against black-box target models, offering model-agnostic and query-free threat scenarios. While flatness-enhanced methods have recently emerged to improve transferability by enhancing the loss surface flatness of adversarial examples, their divergent flatness definitions and heuristic attack designs suffer from unexamined optimization limitations and missing theoretical foundation, thus constraining their effectiveness and efficiency. This work exposes the severely imbalanced exploitation-exploration dynamics in flatness optimization, establishing the first theoretical foundation for flatness-based transferability and proposing a principled framework to overcome these optimization pitfalls. Specifically, we systematically unify fragmented flatness definitions across existing methods, revealing their imbalanced optimization limitations in over-exploration of sensitivity peaks or over-exploitation of local plateaus. To resolve these issues, we rigorously formalize average-case flatness and transferability gaps, proving that enhancing zeroth-order average-case flatness minimizes cross-model discrepancies. Building on this theory, we design a Maximin Expected Flatness (MEF) attack that enhances zeroth-order average-case flatness while balancing flatness exploration and exploitation. Extensive evaluations across 22 models and 24 current transfer-based attacks demonstrate MEF's superiority: it surpasses the state-of-the-art PGN attack by 4% in attack success rate at half the computational cost and achieves 8% higher success rate under the same budget. When combined with input augmentation, MEF attains 15% additional gains against defense-equipped models, establishing new robustness benchmarks. Our code is available at https://github.com/SignedQiu/MEFAttack.
- Abstract(参考訳): トランスファーベースの攻撃は、ホワイトボックスサロゲートモデルの敵例を作成し、ブラックボックスターゲットモデルに対して直接デプロイし、モデルに依存しない、クエリフリーな脅威シナリオを提供する。
近年, 反対例の損失面平坦性を高めて伝達性を向上させるための平坦性向上手法が出現しているが, 異なる平坦性定義とヒューリスティック攻撃設計は, 未検討の最適化限界と理論的基礎の欠如に悩まされており, 有効性と効率が制限されている。
この研究は、平坦度最適化における非常に不均衡なエクスプロレーション探索のダイナミクスを明らかにし、平坦度に基づく転送可能性に関する最初の理論的基礎を確立し、これらの最適化の落とし穴を克服するための原則的枠組みを提案する。
具体的には,既存手法間で断片的平坦性の定義を体系的に統一し,過度な感度ピークの探索や局地的な高原の過度探索における不均衡な最適化の限界を明らかにする。
これらの問題を解決するため、平均ケース平坦性と伝達可能性ギャップを厳格に定式化し、ゼロ階平均ケース平坦性の向上がモデル間の相違を最小化することを示した。
この理論に基づいて、平坦度探索とエクスプロイトのバランスを保ちながら、ゼロ階平均ケース平坦度を高めるMaximin expecteded Flatness (MEF) 攻撃を設計する。
現行のPGN攻撃は、計算コストの半分の攻撃成功率で4%を超え、同じ予算で8%高い成功率を達成した。
入力拡張と組み合わせると、MEFは防衛装備モデルに対して15%追加利得を獲得し、新しい堅牢性ベンチマークを確立する。
私たちのコードはhttps://github.com/SignedQiu/MEFAttack.comで利用可能です。
関連論文リスト
- Divergence Minimization Preference Optimization for Diffusion Model Alignment [58.651951388346525]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
その結果,DMPOで微調整した拡散モデルは,既存の手法よりも常に優れるか,一致しているかが示唆された。
DMPOは、優先順位調整のための堅牢でエレガントな経路を解き、拡散モデルにおいて実用的な性能を持つ原理的理論をブリッジする。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Seeking Flat Minima over Diverse Surrogates for Improved Adversarial Transferability: A Theoretical Framework and Algorithmic Instantiation [38.12499933796839]
本稿では, 対向転送可能性の証明可能な保証を提供する新しい転送可能性バウンダリを提案する。
以上の結果から,AEsをSurrogateモデル集合上の平らな最小値に最適化すると同時に,Surrogate-Targetモデルシフトを逆モデル不一致で制御することにより,AEの転送性に対する包括的保証が得られることが示唆された。
論文 参考訳(メタデータ) (2025-04-23T07:33:45Z) - Understanding Flatness in Generative Models: Its Role and Benefits [9.775257597631244]
教師付き学習における堅牢性を高めることが知られているフラット・ミニマは、生成モデルにおいてほとんど探索されていない。
より平坦なミニマは、対象の事前分布における摂動に対する頑健性を改善するという理論的主張を確立する。
拡散モデルにおける平坦なミニマは、生成性能だけでなく、頑健性も向上することを示した。
論文 参考訳(メタデータ) (2025-03-14T04:38:53Z) - Byzantine-Resilient Federated Learning via Distributed Optimization [3.2075234058213757]
ビザンティン攻撃は連邦学習(FL)に重大な課題をもたらす
従来のFLフレームワークは、モデル更新のための集約ベースのプロトコルに依存しており、高度な敵戦略に弱いままである。
本研究は, プリマル・デュアル・マルチプライヤ法(PDMM)が本質的にビザンチンの影響を軽減し, 耐故障性を考慮したコンセンサス機構を生かしていることを示す。
論文 参考訳(メタデータ) (2025-03-13T18:34:42Z) - Improving the Transferability of Adversarial Attacks by an Input Transpose [13.029909541428767]
本研究では, 計算コストをほとんど必要とせず, 既存の敵戦略の転送性を大幅に向上させることができる入力変換手法を提案する。
我々の調査では、特定のデータセットでは、わずか1円の左回転か右回転で、ほとんどの敵対的な例が目に見えないモデルを欺くのに十分であることがわかった。
論文 参考訳(メタデータ) (2025-03-02T15:13:41Z) - Improving Transferable Targeted Attacks with Feature Tuning Mixup [12.707753562907534]
ディープニューラルネットワークは、異なるモデル間で転送可能な例に脆弱性を示す。
ターゲットの攻撃伝達性を高めるために,FTM(Feature Tuning Mixup)を提案する。
提案手法は,計算コストを低く抑えつつ,最先端の手法よりも大幅に向上する。
論文 参考訳(メタデータ) (2024-11-23T13:18:25Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Improving Transferability of Adversarial Examples via Bayesian Attacks [84.90830931076901]
モデル入力にベイズ定式化を組み込むことにより,モデル入力とモデルパラメータの共分散を可能にする新しい拡張を導入する。
提案手法は,トランスファーベース攻撃に対する新たな最先端技術を実現し,ImageNetとCIFAR-10の平均成功率をそれぞれ19.14%,2.08%向上させる。
論文 参考訳(メタデータ) (2023-07-21T03:43:07Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Improving Adversarial Transferability with Scheduled Step Size and Dual
Example [33.00528131208799]
反復型高速勾配符号法により生じる逆例の転送性は,反復数の増加に伴って低下傾向を示すことを示す。
本稿では,スケジューリングステップサイズとデュアルサンプル(SD)を用いて,良性サンプル近傍の対角情報を完全に活用する新しい戦略を提案する。
提案手法は,既存の対向攻撃手法と容易に統合でき,対向移動性が向上する。
論文 参考訳(メタデータ) (2023-01-30T15:13:46Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - TRS: Transferability Reduced Ensemble via Encouraging Gradient Diversity
and Model Smoothness [14.342349428248887]
逆転性(Adversarial Transferability)は、逆転性(adversarial)の例の興味深い特性である。
本稿では,モデル間の移動性に関する十分な条件を理論的に解析する。
本稿では,そのロバスト性を改善するために,アンサンブル内の転送性を低減するための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-01T17:58:35Z) - Defense-guided Transferable Adversarial Attacks [5.2206166148727835]
敵の例は未知のモデルに 移行するのは困難です
我々は、敵攻撃と防御の両方に有効な入力変換にインスパイアされた最大限のフレームワークを設計する。
本手法は,深層モデルの堅牢性を評価するためのベンチマークとして期待されている。
論文 参考訳(メタデータ) (2020-10-22T08:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。