論文の概要: Dual-Flow: Transferable Multi-Target, Instance-Agnostic Attacks via In-the-wild Cascading Flow Optimization
- arxiv url: http://arxiv.org/abs/2502.02096v2
- Date: Wed, 05 Feb 2025 13:38:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:21:16.503624
- Title: Dual-Flow: Transferable Multi-Target, Instance-Agnostic Attacks via In-the-wild Cascading Flow Optimization
- Title(参考訳): Dual-Flow:Fild Cascading Flow最適化によるトランスファー可能なマルチターゲット,インスタンス非依存攻撃
- Authors: Yixiao Chen, Shikun Sun, Jianshu Li, Ruoyu Li, Zhe Li, Junliang Xing,
- Abstract要約: 本稿では,マルチターゲットのインスタンス非依存型対向攻撃のための新しいDual-Flowフレームワークを提案する。
本手法は,対戦訓練モデルなどの防御機構に対する強い強靭性を示す。
- 参考スコア(独自算出の注目度): 16.665274423480973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks are widely used to evaluate model robustness, and in black-box scenarios, the transferability of these attacks becomes crucial. Existing generator-based attacks have excellent generalization and transferability due to their instance-agnostic nature. However, when training generators for multi-target tasks, the success rate of transfer attacks is relatively low due to the limitations of the model's capacity. To address these challenges, we propose a novel Dual-Flow framework for multi-target instance-agnostic adversarial attacks, utilizing Cascading Distribution Shift Training to develop an adversarial velocity function. Extensive experiments demonstrate that Dual-Flow significantly improves transferability over previous multi-target generative attacks. For example, it increases the success rate from Inception-v3 to ResNet-152 by 34.58%. Furthermore, our attack method shows substantially stronger robustness against defense mechanisms, such as adversarially trained models.
- Abstract(参考訳): 敵攻撃はモデルロバスト性を評価するために広く用いられており、ブラックボックスのシナリオではこれらの攻撃の伝達性が重要となる。
既存のジェネレータベースの攻撃は、インスタンスに依存しない性質のため、優れた一般化と転送性を持つ。
しかし、マルチターゲットタスクのためのジェネレータを訓練する場合、モデル容量の制限のため、転送攻撃の成功率は比較的低い。
これらの課題に対処するために,カスケーディング分散シフトトレーニングを用いて,複数ターゲットのインスタンスに依存しない対向攻撃のための新しいDual-Flowフレームワークを提案する。
大規模な実験により、Dual-Flowは過去のマルチターゲット生成攻撃よりも転送可能性を大幅に改善することが示された。
例えば、Inception-v3からResNet-152への成功率を34.58%向上させる。
さらに, 本手法は, 敵に訓練されたモデルなど, 防御機構に対する強い強靭性を示す。
関連論文リスト
- FFCBA: Feature-based Full-target Clean-label Backdoor Attacks [10.650796825194337]
バックドア攻撃はディープニューラルネットワークに重大な脅威をもたらす。
汚染されたサンプルのラベルの変更を避けるため、クリーンラベル攻撃はよりステルス性が高い。
FFCBA(Full-target Clean-label Backdoor Attacks)を提案する。
論文 参考訳(メタデータ) (2025-04-29T05:49:42Z) - Boosting the Targeted Transferability of Adversarial Examples via Salient Region & Weighted Feature Drop [2.176586063731861]
敵攻撃に対する一般的なアプローチは、敵の例の転送可能性に依存する。
SWFD(Salient Region & Weighted Feature Drop)をベースとした新しいフレームワークは,敵対的事例のターゲット転送可能性を高める。
論文 参考訳(メタデータ) (2024-11-11T08:23:37Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Bag of Tricks to Boost Adversarial Transferability [5.803095119348021]
ホワイトボックス設定で生成された逆例は、しばしば異なるモデル間で低い転送可能性を示す。
そこで本研究では,既存の敵攻撃の微妙な変化が攻撃性能に大きく影響することを発見した。
既存の敵攻撃の綿密な研究に基づいて、敵の移動性を高めるためのトリックの袋を提案する。
論文 参考訳(メタデータ) (2024-01-16T17:42:36Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Diversifying the High-level Features for better Adversarial
Transferability [21.545976132427747]
本稿では,高次特徴量(DHF)の多角化を提案する。
DHFは、ハイレベルな特徴をランダムに変換し、良質なサンプルの特徴と混ぜることで、ハイレベルな特徴を摂動させる。
ImageNetデータセットの実証的な評価は、DHFが既存のモーメントベースの攻撃の転送性を効果的に改善できることを示している。
論文 参考訳(メタデータ) (2023-04-20T07:44:59Z) - How to choose your best allies for a transferable attack? [26.669765474142995]
敵対的な例の転送可能性は、ディープニューラルネットワークのセキュリティにおいて重要な問題である。
新たなツールは、攻撃者がソースモデルをランダムに選択した場合、転送可能な攻撃はブラックボックス攻撃よりもはるかに悪い可能性があることを示している。
FiTは複数のシナリオで最適なソースモデルを選択するのに非常に効果的です。
論文 参考訳(メタデータ) (2023-04-05T09:08:02Z) - Fuzziness-tuned: Improving the Transferability of Adversarial Examples [18.880398046794138]
敵対的な例は、ディープニューラルネットワークにおけるトレーニングモデルの堅牢性を高めるために広く使用されている。
代理モデルに対するトランスファーベース攻撃の攻撃成功率は、低攻撃強度下の犠牲者モデルよりもはるかに高い。
ファジィ領域から効果的に外れるようにファジィ調整法が提案されている。
論文 参考訳(メタデータ) (2023-03-17T16:00:18Z) - Rethinking Model Ensemble in Transfer-based Adversarial Attacks [46.82830479910875]
転送可能性を改善する効果的な戦略は、モデルのアンサンブルを攻撃することである。
これまでの作業は、単に異なるモデルの出力を平均化するだけであった。
我々は、より移動可能な敵の例を生成するために、CWA(Common Weakness Attack)を提案する。
論文 参考訳(メタデータ) (2023-03-16T06:37:16Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z) - Transferable Adversarial Examples with Bayes Approach [15.35252941167733]
ブラックボックスの敵攻撃は、信頼できるAIにおいて最も熱いトピックの1つである。
本稿では,ベイズ的アプローチのレンズを用いた逆例の転送可能性について検討する。
実験は、より移動可能な敵の例を作る上で、BayAtkの有意義な効果を示す。
論文 参考訳(メタデータ) (2022-08-13T01:20:39Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。