論文の概要: GADT: Enhancing Transferable Adversarial Attacks through Gradient-guided Adversarial Data Transformation
- arxiv url: http://arxiv.org/abs/2410.18648v1
- Date: Thu, 24 Oct 2024 11:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 16:43:43.781541
- Title: GADT: Enhancing Transferable Adversarial Attacks through Gradient-guided Adversarial Data Transformation
- Title(参考訳): GADT: グラディエント誘導型逆データ変換によるトランスファー可能な逆データアタックの強化
- Authors: Yating Ma, Xiaogang Xu, Liming Fang, Zhe Liu,
- Abstract要約: 本稿では,DA に基づく攻撃アルゴリズム GADT を提案する。これは反復的アンタゴニズムにより適切な DA パラメータを識別し,これらのパラメータに基づいて後続推定を用いて AN を更新する。
GADTは、クエリベースの攻撃など、他のブラックボックス攻撃シナリオで利用することができ、現実世界のAIアプリケーションに対する攻撃を強化する新たな手段を提供する。
- 参考スコア(独自算出の注目度): 17.391427373945803
- License:
- Abstract: Current Transferable Adversarial Examples (TAE) are primarily generated by adding Adversarial Noise (AN). Recent studies emphasize the importance of optimizing Data Augmentation (DA) parameters along with AN, which poses a greater threat to real-world AI applications. However, existing DA-based strategies often struggle to find optimal solutions due to the challenging DA search procedure without proper guidance. In this work, we propose a novel DA-based attack algorithm, GADT. GADT identifies suitable DA parameters through iterative antagonism and uses posterior estimates to update AN based on these parameters. We uniquely employ a differentiable DA operation library to identify adversarial DA parameters and introduce a new loss function as a metric during DA optimization. This loss term enhances adversarial effects while preserving the original image content, maintaining attack crypticity. Extensive experiments on public datasets with various networks demonstrate that GADT can be integrated with existing transferable attack methods, updating their DA parameters effectively while retaining their AN formulation strategies. Furthermore, GADT can be utilized in other black-box attack scenarios, e.g., query-based attacks, offering a new avenue to enhance attacks on real-world AI applications in both research and industrial contexts.
- Abstract(参考訳): 電流伝達可能な逆数例(TAE)は、主に逆数ノイズ(AN)を付加することによって生成される。
最近の研究は、ANとともにデータ拡張(DA)パラメータを最適化することの重要性を強調している。
しかし,既存の DA ベースの戦略は,適切なガイダンスのない DA 探索手順が難しいため,最適解を見つけるのに苦慮することが多い。
本研究では,新しいDAベースの攻撃アルゴリズムGADTを提案する。
GADTは反復的アンタゴニズムにより適切なDAパラメータを特定し、これらのパラメータに基づいて後続推定を用いてANを更新する。
我々は,DAパラメータの識別に微分可能なDA演算ライブラリを独自に使用し,DA最適化時にメトリクスとして新たな損失関数を導入する。
この損失項は、元の画像コンテンツを保持しながら、攻撃の秘密性を維持しながら、敵の効果を高める。
各種ネットワークを用いた公開データセットの大規模な実験により、GADTは既存の転送可能な攻撃手法と統合でき、ANの定式化戦略を維持しながら、DAパラメータを効果的に更新できることが示された。
さらに、GADTは、クエリベースの攻撃など、他のブラックボックス攻撃シナリオで利用することができ、研究と産業の両方の状況において、現実世界のAIアプリケーションに対する攻撃を強化するための新たな手段を提供する。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - Adversarial and Random Transformations for Robust Domain Adaptation and
Generalization [9.995765847080596]
ランダムデータ拡張による整合性トレーニングを単純に適用することで、ドメイン適応(DA)と一般化(DG)の最先端結果が得られることを示す。
逆変換とランダム変換を組み合わせた手法は、複数のDAおよびDGベンチマークデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-11-13T02:10:13Z) - Universal Adaptive Data Augmentation [30.83891617679216]
UADA(Universal Adaptive Data Augmentation)は、新しいデータ拡張戦略である。
トレーニング中のデータバッチ毎に,DA操作のタイプとサイズをランダムに決定します。
UADAはターゲットモデルの勾配情報に従ってDAのパラメータを適応的に更新する。
論文 参考訳(メタデータ) (2022-07-14T05:05:43Z) - Revisiting Deep Subspace Alignment for Unsupervised Domain Adaptation [42.16718847243166]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送と適応を目的としている。
伝統的に、部分空間に基づく手法はこの問題に対する重要な解のクラスを形成する。
本稿では,UDAにおける部分空間アライメントの利用を再検討し,一貫した一般化をもたらす新しい適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-05T20:16:38Z) - Dynamic Domain Adaptation for Efficient Inference [12.713628738434881]
ドメイン適応(DA)は、ラベル付きソースドメインからラベルなしターゲットドメインへの知識転送を可能にする。
以前のdaアプローチのほとんどは、適応能力を改善するために複雑で強力なディープニューラルネットワークを活用する。
低リソースシナリオにおいて効率的なターゲット推論を同時に実現できる動的ドメイン適応(DDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-26T08:53:16Z) - Unsupervised and self-adaptative techniques for cross-domain person
re-identification [82.54691433502335]
非重複カメラにおける人物再識別(ReID)は難しい課題である。
Unsupervised Domain Adaptation(UDA)は、ソースで訓練されたモデルから、IDラベルアノテーションなしでターゲットドメインへの機能学習適応を実行するため、有望な代替手段です。
本稿では,新しいオフライン戦略によって生成されたサンプルのトリプレットを利用する,UDAベースのReID手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:58:39Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。