論文の概要: Beyond Deceptive Flatness: Dual-Order Solution for Strengthening Adversarial Transferability
- arxiv url: http://arxiv.org/abs/2511.01240v1
- Date: Mon, 03 Nov 2025 05:26:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.127262
- Title: Beyond Deceptive Flatness: Dual-Order Solution for Strengthening Adversarial Transferability
- Title(参考訳): 知覚的平坦性を超えて: 対向移動性を高める2次解法
- Authors: Zhixuan Zhang, Pingyu Wang, Xingjian Zheng, Linbo Qing, Qi Liu,
- Abstract要約: 転送可能な攻撃は、未知の犠牲者モデルを騙すために代理モデルの敵例を生成する。
最近の研究は、いまだに最も近い地域、特に、偽りの平坦性(deceptive flatness)と呼ばれるフラットイットシャープ地域に分類されている。
本稿では,2次情報の観点から,ブラックボックス勾配に基づく新たなトランスファタブルアタックを提案する。
- 参考スコア(独自算出の注目度): 15.709841683184415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transferable attacks generate adversarial examples on surrogate models to fool unknown victim models, posing real-world threats and growing research interest. Despite focusing on flat losses for transferable adversarial examples, recent studies still fall into suboptimal regions, especially the flat-yet-sharp areas, termed as deceptive flatness. In this paper, we introduce a novel black-box gradient-based transferable attack from a perspective of dual-order information. Specifically, we feasibly propose Adversarial Flatness (AF) to the deceptive flatness problem and a theoretical assurance for adversarial transferability. Based on this, using an efficient approximation of our objective, we instantiate our attack as Adversarial Flatness Attack (AFA), addressing the altered gradient sign issue. Additionally, to further improve the attack ability, we devise MonteCarlo Adversarial Sampling (MCAS) by enhancing the inner-loop sampling efficiency. The comprehensive results on ImageNet-compatible dataset demonstrate superiority over six baselines, generating adversarial examples in flatter regions and boosting transferability across model architectures. When tested on input transformation attacks or the Baidu Cloud API, our method outperforms baselines.
- Abstract(参考訳): トランスファー可能な攻撃は、サロゲートモデルに対する敵対的な例を生成し、未知の犠牲者モデルを騙し、現実世界の脅威を装い、研究の関心を増す。
移動可能な敵の例に対する平坦な損失に焦点が当てられているが、最近の研究は、いまだに最適下限の領域、特に知覚的平坦性(deceptive flatness)と呼ばれるフラットイットシャープ領域に落ちている。
本稿では,2次情報の観点から,新しいブラックボックス勾配を用いたトランスファタブルアタックを提案する。
具体的には, 擬似平坦性問題に対して, 対向平坦性 (AF) を提案し, 対向伝達可能性の理論的保証を図った。
これに基づいて、我々の目的の効率的な近似を用いて、変化した勾配標識問題に対処するため、我々の攻撃をAFA (Adversarial Flatness Attack) としてインスタンス化する。
さらに,攻撃能力の向上を目的として,インナーループサンプリング効率を向上し,MCAS(MonteCarlo Adversarial Sampling)を考案した。
ImageNet互換データセットの包括的な結果は、6つのベースラインよりも優れていることを示し、フラットな領域での逆例を生成し、モデルアーキテクチャ間の転送可能性を高める。
インプットトランスフォーメーションアタックやBaidu Cloud APIでテストした場合、私たちのメソッドはベースラインよりも優れています。
関連論文リスト
- Improving Adversarial Transferability with Neighbourhood Gradient Information [20.55829486744819]
ディープニューラルネットワーク(DNN)は、敵の例に影響を受けやすいため、パフォーマンスが著しく低下する。
本研究は、この性能ギャップを狭めるために、敵の例の転送可能性を高めることに焦点を当てる。
事例追跡と多重マスク戦略を取り入れたNGI-Attackを提案する。
論文 参考訳(メタデータ) (2024-08-11T10:46:49Z) - Transferability Bound Theory: Exploring Relationship between Adversarial Transferability and Flatness [40.873711834682055]
一般的な信念は、対向例の平坦度が高ければ高いほど、モデル間移動性が向上するということである。
そこで本研究では, クラフト逆数例に対する導出のサロゲートを最適化する, 理論的に予測可能な攻撃であるTPAを提案する。
論文 参考訳(メタデータ) (2023-11-10T23:10:21Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - StyLess: Boosting the Transferability of Adversarial Examples [10.607781970035083]
敵対的攻撃は、良心的な例に知覚できない摂動を加えることによって、ディープニューラルネットワーク(DNN)を誤解させる可能性がある。
本研究では,攻撃伝達性を向上させるために,スタイルレス摂動(StyLess)と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-04-23T08:23:48Z) - Boosting the Transferability of Adversarial Attacks with Reverse
Adversarial Perturbation [32.81400759291457]
逆の例は、知覚不能な摂動を注入することで誤った予測を生じさせる。
本研究では,現実の応用への脅威から,敵対的事例の伝達可能性について検討する。
逆対向摂動(RAP)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-12T07:17:33Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。