論文の概要: S$^4$ST: A Strong, Self-transferable, faSt, and Simple Scale Transformation for Transferable Targeted Attack
- arxiv url: http://arxiv.org/abs/2410.13891v2
- Date: Tue, 25 Feb 2025 10:11:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:18:44.684792
- Title: S$^4$ST: A Strong, Self-transferable, faSt, and Simple Scale Transformation for Transferable Targeted Attack
- Title(参考訳): S$4$ST:転送可能なターゲット攻撃のための強力で自己伝達可能なfaStと簡易なスケール変換
- Authors: Yongxiang Liu, Bowen Peng, Li Liu, Xiang Li,
- Abstract要約: Transferable Targeted Attacks (TTA) は、ブラックボックスモデルから特定の誤ラベルを予測することを目的としている。
既存のメソッドは大規模な追加データに大きく依存している。
本研究では,基本変換の有効性と相関性を分析するために,自己アライメントと自己伝達性という2つの盲目尺度を導入する。
- 参考スコア(独自算出の注目度): 15.32139337298543
- License:
- Abstract: Transferable Targeted Attacks (TTAs), which aim to deceive black-box models into predicting specific erroneous labels, face significant challenges due to severe overfitting to surrogate models. Although modifying image features to generate robust semantic patterns of the target class is a promising approach, existing methods heavily rely on large-scale additional data. This dependence undermines the fair evaluation of TTA threats, potentially leading to a false sense of security or unnecessary overreactions. In this paper, we introduce two blind measures, surrogate self-alignment and self-transferability, to analyze the effectiveness and correlations of basic transformations, to enhance data-free attacks under strict black-box constraints. Our findings challenge conventional assumptions: (1) Attacking simple scaling transformations uniquely enhances targeted transferability, outperforming other basic transformations and rivaling leading complex methods; (2) Geometric and color transformations exhibit high internal redundancy despite weak inter-category correlations. These insights drive the design and tuning of S4ST (Strong, Self-transferable, faSt, Simple Scale Transformation), which integrates dimensionally consistent scaling, complementary low-redundancy transformations, and block-wise operations. Extensive experiments on the ImageNet-Compatible dataset demonstrate that S4ST achieves a 77.7% average targeted success rate (tSuc), surpassing existing transformations (+17.2% over H-Aug with only 26% computational time) and SOTA TTA solutions (+6.2% over SASD-WS with 1.2M samples for post-training). Notably, it attains 69.6% and 55.3% average tSuc against three commercial APIs and vision-language models, respectively. This work establishes a new SOTA for TTAs, highlights their potential threats, and calls for a reevaluation of the data dependency in achieving targeted transferability.
- Abstract(参考訳): トランスファーブル・ターゲット・アタック(TTA)は、ブラックボックスのモデルを騙して特定の誤ラベルを予測することを目的としており、モデルを代理する過度なオーバーフィッティングのために重大な課題に直面している。
ターゲットクラスのロバストなセマンティックパターンを生成するためにイメージ機能を変更することは、有望なアプローチであるが、既存のメソッドは大規模な追加データに大きく依存している。
この依存は、TTA脅威の公正な評価を損なうものであり、セキュリティの誤った感覚や不必要な過剰反応につながる可能性がある。
本稿では, 基本変換の有効性と相関を解析し, 厳格なブラックボックス制約下でのデータフリー攻撃を強化するために, 自己アライメントと自己伝達性という2つの盲目対策を導入する。
その結果,(1)単純なスケーリング変換の攻撃は,目的の転送可能性を一意に向上させ,他の基本的な変換に勝り,先行する複雑な手法に対抗し,(2)分類間の相関が弱いにもかかわらず,幾何学的および色変換は高い内部冗長性を示すという従来の仮定に挑戦した。
これらの洞察はS4ST(Strong, Self-transferable, faSt, Simple Scale Transformation)の設計とチューニングを促進する。
ImageNet-Compatibleデータセットの大規模な実験では、S4STが77.7%の平均目標成功率(tSuc)を達成し、既存の変換(H-Augで26%の計算時間で+17.2%)とSOTA TTAソリューション(SASD-WSで+6.2%、後トレーニングで1.2Mのサンプルで+6.2%)を上回った。
特に、3つの商用APIとビジョン言語モデルに対して、平均tSucは69.6%と55.3%に達した。
この作業は、TTAのための新しいSOTAを確立し、潜在的な脅威を強調し、ターゲットの転送可能性を達成するためのデータ依存の再評価を要求する。
関連論文リスト
- Enhancing Transferability of Targeted Adversarial Examples: A Self-Universal Perspective [13.557972227440832]
ブラックボックスディープニューラルネットワーク(DNN)に対するトランスファーベースの敵攻撃は、未ターゲットの攻撃よりもはるかに難しいことが証明されている。
生成方法である現在のSOTAの印象的な転送性は、大量の追加データを必要とするコストと、ターゲットラベルごとに時間のかかるトレーニングが伴う。
私たちは、この目標を追求する際の入力変換の大きな可能性を明らかにする、自己普遍的な視点を提供します。
論文 参考訳(メタデータ) (2024-07-22T14:51:28Z) - Bag of Tricks to Boost Adversarial Transferability [5.803095119348021]
ホワイトボックス設定で生成された逆例は、しばしば異なるモデル間で低い転送可能性を示す。
そこで本研究では,既存の敵攻撃の微妙な変化が攻撃性能に大きく影響することを発見した。
既存の敵攻撃の綿密な研究に基づいて、敵の移動性を高めるためのトリックの袋を提案する。
論文 参考訳(メタデータ) (2024-01-16T17:42:36Z) - AutoAugment Input Transformation for Highly Transferable Targeted
Attacks [9.970326131028159]
我々は,AutoAugment Input Transformation (AAIT) と呼ばれる新たな敵攻撃を提案する。
AAITは、様々な操作からなる変換空間から最適な変換ポリシーを探索する。
検出された最適な変換ポリシーを使用して敵の例を作成し、標的攻撃における敵の移動可能性を高める。
論文 参考訳(メタデータ) (2023-12-21T12:49:36Z) - Transferable Adversarial Attacks on Vision Transformers with Token
Gradient Regularization [32.908816911260615]
ビジョントランス (ViT) は様々なコンピュータビジョンタスクにうまく展開されているが、それでも敵のサンプルには弱い。
転送ベースの攻撃は、ローカルモデルを使用して敵のサンプルを生成し、ターゲットのブラックボックスモデルを攻撃するために直接転送する。
本稿では,既存のアプローチの欠点を克服するために,Token Gradient Regularization (TGR)法を提案する。
論文 参考訳(メタデータ) (2023-03-28T06:23:17Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Frustratingly Easy Transferability Estimation [64.42879325144439]
本稿では,TransRate という,シンプルで効率的かつ効果的な転送可能性尺度を提案する。
TransRateは、事前訓練されたモデルによって抽出された対象サンプルの特徴とそれらのラベルとの間の相互情報として、転送可能性を測定する。
10行のコードで並外れた単純さにもかかわらず、TransRateは、22の事前訓練されたモデルと16のダウンストリームタスクに対する広範囲な評価において、非常にうまく機能している。
論文 参考訳(メタデータ) (2021-06-17T10:27:52Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。