論文の概要: On Success and Simplicity: A Second Look at Transferable Targeted
Attacks
- arxiv url: http://arxiv.org/abs/2012.11207v2
- Date: Sat, 6 Feb 2021 15:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:40:57.516985
- Title: On Success and Simplicity: A Second Look at Transferable Targeted
Attacks
- Title(参考訳): 成功と単純さについて: 転送可能なターゲット攻撃を第二に見る
- Authors: Zhengyu Zhao, Zhuoran Liu, Martha Larson
- Abstract要約: 転送可能なターゲットアタックは、最適な転送可能性にゆっくりと収束し、より多くのイテレーションが与えられると大幅に改善されることを示す。
単にターゲットのロギットを最大化する攻撃は驚くほどうまく機能し、より複雑な損失を克服し、芸術の状態に匹敵するパフォーマンスを達成さえします。
- 参考スコア(独自算出の注目度): 6.276791657895803
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: There is broad consensus among researchers studying adversarial examples that
it is extremely difficult to achieve transferable targeted attacks. Currently,
existing research strives for transferable targeted attacks by resorting to
complex losses and even massive training. In this paper, we take a second look
at transferable targeted attacks and show that their difficulty has been
overestimated due to a blind spot in the conventional evaluation procedures.
Specifically, current work has unreasonably restricted attack optimization to a
few iterations. Here, we show that targeted attacks converge slowly to optimal
transferability and improve considerably when given more iterations. We also
demonstrate that an attack that simply maximizes the target logit performs
surprisingly well, remarkably surpassing more complex losses and even achieving
performance comparable to the state of the art, which requires massive training
with a sophisticated multi-term loss. We provide further validation of our
logit attack in a realistic ensemble setting and in a real-world attack against
the Google Cloud Vision API. The logit attack produces perturbations that
reflect the target semantics, which we demonstrate allows us to create targeted
universal adversarial perturbations without additional training images.
- Abstract(参考訳): 攻撃例を研究する研究者の間では、移動可能な標的攻撃を達成することが極めて難しいという広い一致がある。
現在、既存の研究は複雑な損失や大規模な訓練を頼りに、移動可能な標的攻撃を試みている。
本稿では,移動可能な標的攻撃を第二に検討し,その難易度が従来の評価手法の盲点により過大評価されていることを示す。
特に、現在の作業では、いくつかのイテレーションにアタック最適化を不当に制限しています。
ここでは,対象とする攻撃が最適な移動可能性に緩やかに収束し,より多くのイテレーションが与えられると大幅に改善することを示す。
また,目標のロジットを最大化する攻撃は驚くほどうまく動作し,より複雑な損失を著しく上回り,高度な複数項の損失を伴う大規模トレーニングを必要とする最先端技術に匹敵するパフォーマンスを達成することも実証する。
Google Cloud Vision APIに対する現実的なアンサンブル設定と現実的な攻撃において、ロジット攻撃のさらなる検証を提供します。
ロジット攻撃は標的のセマンティクスを反映した摂動を発生させるので、訓練画像を追加せずに汎用的な摂動を生成できる。
関連論文リスト
- Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Reward Delay Attacks on Deep Reinforcement Learning [26.563537078924835]
本稿では,この仮定に係わる脆弱性を利用したQ-ラーニングを対象とする新たな攻撃手法を提案する。
我々は,標的政策の学習を目的とした標的攻撃と,報酬の低い政策の誘導を目的とした未目標攻撃の2つのタイプの攻撃目標を検討する。
論文 参考訳(メタデータ) (2022-09-08T02:40:44Z) - Understanding Adversarial Attacks on Observations in Deep Reinforcement
Learning [32.12283927682007]
深層強化学習モデルは、観測を操作することで被害者の総報酬を減少させる敵攻撃に対して脆弱である。
関数空間における逆攻撃の問題を修正し、以前の勾配に基づく攻撃をいくつかの部分空間に分割する。
第一段階では、環境をハックして偽装ポリシーを訓練し、最下位の報酬にルーティングするトラジェクトリのセットを発見する。
本手法は,攻撃エージェントの性能に対して,既存の手法よりも厳密な理論上界を提供する。
論文 参考訳(メタデータ) (2021-06-30T07:41:51Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Learning to Attack with Fewer Pixels: A Probabilistic Post-hoc Framework
for Refining Arbitrary Dense Adversarial Attacks [21.349059923635515]
敵対的回避攻撃は ディープニューラルネットワーク画像分類器に 影響を受けやすいと報告されている
本稿では,乱れ画素数を著しく減少させることで,高密度攻撃を抑える確率的ポストホックフレームワークを提案する。
我々のフレームワークは、既存のスパース攻撃よりもはるかに高速に敵攻撃を行う。
論文 参考訳(メタデータ) (2020-10-13T02:51:10Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。