論文の概要: Improving the Transferability of Adversarial Attacks by an Input Transpose
- arxiv url: http://arxiv.org/abs/2503.00932v1
- Date: Sun, 02 Mar 2025 15:13:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:27:03.085103
- Title: Improving the Transferability of Adversarial Attacks by an Input Transpose
- Title(参考訳): 入力変換による敵攻撃の伝達性の向上
- Authors: Qing Wan, Shilong Deng, Xun Wang,
- Abstract要約: 本研究では, 計算コストをほとんど必要とせず, 既存の敵戦略の転送性を大幅に向上させることができる入力変換手法を提案する。
我々の調査では、特定のデータセットでは、わずか1円の左回転か右回転で、ほとんどの敵対的な例が目に見えないモデルを欺くのに十分であることがわかった。
- 参考スコア(独自算出の注目度): 13.029909541428767
- License:
- Abstract: Deep neural networks (DNNs) are highly susceptible to adversarial examples--subtle perturbations applied to inputs that are often imperceptible to humans yet lead to incorrect model predictions. In black-box scenarios, however, existing adversarial examples exhibit limited transferability and struggle to effectively compromise multiple unseen DNN models. Previous strategies enhance the cross-model generalization of adversarial examples by introducing versatility into adversarial perturbations, thereby improving transferability. However, further refining perturbation versatility often demands intricate algorithm development and substantial computation consumption. In this work, we propose an input transpose method that requires almost no additional labor and computation costs but can significantly improve the transferability of existing adversarial strategies. Even without adding adversarial perturbations, our method demonstrates considerable effectiveness in cross-model attacks. Our exploration finds that on specific datasets, a mere $1^\circ$ left or right rotation might be sufficient for most adversarial examples to deceive unseen models. Our further analysis suggests that this transferability improvement triggered by rotating only $1^\circ$ may stem from visible pattern shifts in the DNN's low-level feature maps. Moreover, this transferability exhibits optimal angles that, when identified under unrestricted query conditions, could potentially yield even greater performance.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵対的な例に対して非常に感受性が高い - 入力に適用されるサブトル摂動は、しばしば人間には認識できないが、誤ったモデル予測につながる。
しかし、ブラックボックスのシナリオでは、既存の敵の例は、限られた転送可能性を示し、複数の見えないDNNモデルを効果的に妥協するのに苦労している。
従来の戦略は、対向摂動に万能性を導入することにより、対向例のクロスモデル一般化を強化し、転送性を向上させる。
しかし、摂動の汎用性をさらに改善するためには、複雑なアルゴリズムの開発と相当な計算量を必要とすることが多い。
本研究では, 計算コストをほとんど必要とせず, 既存の敵戦略の転送性を大幅に向上させることができる入力変換手法を提案する。
本手法は, 対向的摂動を加味することなく, クロスモデルアタックにおいてかなりの有効性を示す。
我々の調査では、特定のデータセットでは、わずか1^\circ$ または右回転だけで、ほとんどの逆例が目に見えないモデルを欺くのに十分であることがわかった。
さらに分析したところ、DNNの低レベル特徴写像におけるパターンシフトから、1^\circ$を回転させることによって引き起こされるこの伝達可能性の向上が示唆された。
さらに、この転送性は、制限のないクエリ条件下で識別された場合、さらにパフォーマンスが向上する可能性のある最適角度を示す。
関連論文リスト
- Bag of Tricks to Boost Adversarial Transferability [5.803095119348021]
ホワイトボックス設定で生成された逆例は、しばしば異なるモデル間で低い転送可能性を示す。
そこで本研究では,既存の敵攻撃の微妙な変化が攻撃性能に大きく影響することを発見した。
既存の敵攻撃の綿密な研究に基づいて、敵の移動性を高めるためのトリックの袋を提案する。
論文 参考訳(メタデータ) (2024-01-16T17:42:36Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Improving Adversarial Transferability with Scheduled Step Size and Dual
Example [33.00528131208799]
反復型高速勾配符号法により生じる逆例の転送性は,反復数の増加に伴って低下傾向を示すことを示す。
本稿では,スケジューリングステップサイズとデュアルサンプル(SD)を用いて,良性サンプル近傍の対角情報を完全に活用する新しい戦略を提案する。
提案手法は,既存の対向攻撃手法と容易に統合でき,対向移動性が向上する。
論文 参考訳(メタデータ) (2023-01-30T15:13:46Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Comment on Transferability and Input Transformation with Additive Noise [6.168976174718275]
加算雑音による伝達性と入力変換の関係を解析する。
良心的な例に小さな摂動を加えることで、敵対的な攻撃は、ディープラーニングモデルの誤分類につながる敵の例をうまく生成する。
論文 参考訳(メタデータ) (2022-06-18T00:52:27Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Improving Robustness of Adversarial Attacks Using an Affine-Invariant
Gradient Estimator [15.863109283735625]
敵対的な例は、知覚不能な摂動で応答を著しく変化させることで、ディープニューラルネットワーク(DNN)を欺くことができる。
既存の敵の例のほとんどは、結果の例にアフィン変換を適用すると、悪意のある機能を維持できない。
本稿では,アフィン変換の分布に対して頑健な逆数例を一貫して構築できるアフィン不変逆数攻撃を提案する。
論文 参考訳(メタデータ) (2021-09-13T09:43:17Z) - Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy [52.153866313879924]
敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
論文 参考訳(メタデータ) (2021-08-16T11:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。