論文の概要: CLIP-Guided Networks for Transferable Targeted Attacks
- arxiv url: http://arxiv.org/abs/2407.10179v1
- Date: Sun, 14 Jul 2024 12:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 19:09:07.224197
- Title: CLIP-Guided Networks for Transferable Targeted Attacks
- Title(参考訳): CLIP-Guided Networks for Transferable Targeted Attacks (特集:情報ネットワーク)
- Authors: Hao Fang, Jiawei Kong, Bin Chen, Tao Dai, Hao Wu, Shu-Tao Xia,
- Abstract要約: トランスファー可能な敵攻撃は、ブラックボックスのシナリオで敵が特定した予測を出力するモデルを誤解させることを目的としている。
textitsingle-target 生成攻撃は、高い転送可能な摂動を生成するために、各ターゲットクラスのジェネレータを訓練する。
textbfCLIP-guided textbfGenerative textbfNetwork with textbfCross-attention module (CGNC) to enhance multi-target attack。
- 参考スコア(独自算出の注目度): 52.29186466633699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transferable targeted adversarial attacks aim to mislead models into outputting adversary-specified predictions in black-box scenarios. Recent studies have introduced \textit{single-target} generative attacks that train a generator for each target class to generate highly transferable perturbations, resulting in substantial computational overhead when handling multiple classes. \textit{Multi-target} attacks address this by training only one class-conditional generator for multiple classes. However, the generator simply uses class labels as conditions, failing to leverage the rich semantic information of the target class. To this end, we design a \textbf{C}LIP-guided \textbf{G}enerative \textbf{N}etwork with \textbf{C}ross-attention modules (CGNC) to enhance multi-target attacks by incorporating textual knowledge of CLIP into the generator. Extensive experiments demonstrate that CGNC yields significant improvements over previous multi-target generative attacks, e.g., a 21.46\% improvement in success rate from ResNet-152 to DenseNet-121. Moreover, we propose a masked fine-tuning mechanism to further strengthen our method in attacking a single class, which surpasses existing single-target methods.
- Abstract(参考訳): トランスファー可能な敵攻撃は、ブラックボックスのシナリオで敵が特定した予測を出力するモデルを誤解させることを目的としている。
近年の研究では、ターゲットクラスごとにジェネレータを訓練し、高度に転送可能な摂動を発生させることで、複数のクラスを扱う場合の計算オーバーヘッドを大幅に増加させる、‘textit{single-target} 生成攻撃が導入された。
\textit{Multi-target} 攻撃は、複数のクラスに対して1つのクラス条件ジェネレータをトレーニングすることで、この問題に対処する。
しかし、ジェネレータは単にクラスラベルを条件として使うだけで、ターゲットクラスのリッチなセマンティック情報を活用できない。
この目的のために、我々は、CLIPのテキスト知識をジェネレータに組み込んでマルチターゲット攻撃を強化するために、 \textbf{C}LIP-guided \textbf{G}enerative \textbf{N}etwork with \textbf{C}ross-attention Module (CGNC)を設計する。
CGNCは、例えば、ResNet-152 から DenseNet-121 への成功率を 21.46 % 改善した。
さらに,既存の単一ターゲットメソッドを超越した単一クラス攻撃において,我々の手法をさらに強化するためのマスク付き微調整機構を提案する。
関連論文リスト
- MALT Powers Up Adversarial Attacks [11.713127192480101]
我々は,中規模ニアリニア性仮定に基づく新しい対向的ターゲット手法,textitMALT - メソスコピックニアリニアリティターゲティングを提案する。
我々の攻撃は、標準ベンチマークデータセットCIFAR-100とImageNetにおけるAutoAttackの現在の状況に勝っている。
論文 参考訳(メタデータ) (2024-07-02T13:02:12Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Learning diverse attacks on large language models for robust red-teaming and safety tuning [126.32539952157083]
レッドチーム、あるいは有害な応答を誘発するプロンプトの特定は、大きな言語モデルの安全なデプロイを保証するための重要なステップである。
新規性と多様性を優先する明確な規則化であっても、既存のアプローチはモード崩壊または効果的な攻撃を発生させることができないことを示す。
我々は,GFlowNetの微調整と二次平滑化フェーズを用いて,多種多様な効果的な攻撃プロンプトを生成するために攻撃モデルを訓練することを提案する。
論文 参考訳(メタデータ) (2024-05-28T19:16:17Z) - Vision-LLMs Can Fool Themselves with Self-Generated Typographic Attacks [62.34019142949628]
誤読テキストを画像に貼り付けるタイポグラフィーアタックは、CLIPのようなビジョンランゲージモデルの性能を損なうことが知られている。
我々は、LVLMが自身に対する攻撃を発生させる2つの新しい、より効果的なTextitSelf-Generated攻撃を導入する。
ベンチマークにより,自己生成攻撃が重大な脅威となり,LVLM(s)分類性能が最大33%低下することが判明した。
論文 参考訳(メタデータ) (2024-02-01T14:41:20Z) - Enhancing targeted transferability via feature space fine-tuning [21.131915084053894]
アドリラルな例(AE)は、プライバシ保護と堅牢なニューラルネットワークを刺激する可能性のために、広く研究されている。
既存の単純な反復攻撃によって作られたAEを微調整し、未知のモデル間で転送できるようにする。
論文 参考訳(メタデータ) (2024-01-05T09:46:42Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - GAMA: Generative Adversarial Multi-Object Scene Attacks [48.33120361498787]
本稿では,多目的シーンに対する敵攻撃に対する生成モデルを用いた最初のアプローチを提案する。
我々はこの攻撃アプローチをGAMA(Generative Adversarial Multi-Object scene Attacks)と呼ぶ。
論文 参考訳(メタデータ) (2022-09-20T06:40:54Z) - On Generating Transferable Targeted Perturbations [102.3506210331038]
伝達性の高い標的摂動に対する新しい生成的アプローチを提案する。
私たちのアプローチは、ターゲットクラスの「乱れた画像分布」にマッチし、高いターゲット転送率につながります。
論文 参考訳(メタデータ) (2021-03-26T17:55:28Z) - AI-GAN: Attack-Inspired Generation of Adversarial Examples [14.709927651682783]
ディープニューラルネットワーク(DNN)は、入力に知覚不可能な摂動を加えることで構築された敵の例に対して脆弱である。
近年、様々な攻撃や戦略が提案されているが、現実的かつ効率的に敵の例を生成する方法は未解決のままである。
本稿では、ジェネレータ、識別器、攻撃者が共同で訓練されるAI-GAN(Attack-Inspired GAN)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T10:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。