論文の概要: Transferability Ranking of Adversarial Examples
- arxiv url: http://arxiv.org/abs/2208.10878v2
- Date: Thu, 18 Apr 2024 16:41:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 14:48:42.443120
- Title: Transferability Ranking of Adversarial Examples
- Title(参考訳): 逆例の転送可能性ランキング
- Authors: Mosh Levy, Guy Amit, Yuval Elovici, Yisroel Mirsky,
- Abstract要約: 本稿では,転送攻撃処理を洗練させるランキング戦略を提案する。
多様な代理モデルの集合を利用することで, 逆例の転送可能性を予測することができる。
提案手法を用いて, 対向例の移動率を, ランダムな選択から, ほぼ上界レベルまで20%に引き上げることができた。
- 参考スコア(独自算出の注目度): 20.41013432717447
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial transferability in black-box scenarios presents a unique challenge: while attackers can employ surrogate models to craft adversarial examples, they lack assurance on whether these examples will successfully compromise the target model. Until now, the prevalent method to ascertain success has been trial and error-testing crafted samples directly on the victim model. This approach, however, risks detection with every attempt, forcing attackers to either perfect their first try or face exposure. Our paper introduces a ranking strategy that refines the transfer attack process, enabling the attacker to estimate the likelihood of success without repeated trials on the victim's system. By leveraging a set of diverse surrogate models, our method can predict transferability of adversarial examples. This strategy can be used to either select the best sample to use in an attack or the best perturbation to apply to a specific sample. Using our strategy, we were able to raise the transferability of adversarial examples from a mere 20% - akin to random selection-up to near upper-bound levels, with some scenarios even witnessing a 100% success rate. This substantial improvement not only sheds light on the shared susceptibilities across diverse architectures but also demonstrates that attackers can forego the detectable trial-and-error tactics raising increasing the threat of surrogate-based attacks.
- Abstract(参考訳): ブラックボックスシナリオの逆転可能性にはユニークな課題がある:攻撃者は代理モデルを使って敵の例を作ることができるが、これらの例がターゲットモデルに悪影響を及ぼすかどうかの保証は欠如している。
これまでのところ、成功を確かめるための一般的な方法は、被害者モデル上で直接、試行錯誤されたサンプルである。
しかし、このアプローチはあらゆる試みで検出を危険にさらすため、攻撃者は最初の試みを完璧にするか、露出に直面しなければならない。
本報告では,移動攻撃プロセスの高度化を図り,被害者のシステム上で繰り返し試行を行うことなく,攻撃者が成功の可能性を推定できるランキング戦略を提案する。
多様な代理モデルの集合を利用することで, 逆例の転送可能性を予測することができる。
この戦略は、攻撃で使用する最適なサンプルを選択するか、特定のサンプルに適用する最適な摂動を選択するために使用できる。
私たちの戦略を使って、敵のサンプルの転送可能性を高めることができました - ランダムな選択から、上位レベルに近いレベルまで、100%の成功率を示すシナリオもあります。
この大幅な改善は、様々なアーキテクチャで共有される感受性に光を当てるだけでなく、攻撃者が検出可能な試行錯誤戦術を予見し、代理ベースの攻撃の脅威を増大させることも示している。
関連論文リスト
- PEAS: A Strategy for Crafting Transferable Adversarial Examples [2.9815109163161204]
ブラックボックス攻撃は、機械学習システムに重大な脅威をもたらす。
代用モデルで生成された逆例は、しばしばターゲットモデルへの限定的な転送可能性に悩まされる。
我々は,既存のブラックボックス攻撃の転送可能性を高める新しい戦略PEASを提案する。
論文 参考訳(メタデータ) (2024-10-20T14:55:08Z) - A Generative Approach to Surrogate-based Black-box Attacks [18.37537526008645]
最先端のサロゲートベースの攻撃では、ターゲットの出力を模倣する差別的なサロゲートを訓練する。
本稿では,対象決定境界付近のサンプルの分布を学習する生成的サロゲートを提案する。
提案した生成的アプローチは、様々なターゲットやデータセットに対する攻撃成功率の高い攻撃をもたらす。
論文 参考訳(メタデータ) (2024-02-05T05:22:58Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Generalizable Black-Box Adversarial Attack with Meta Learning [54.196613395045595]
ブラックボックス攻撃では、ターゲットモデルのパラメータが不明であり、攻撃者はクエリのフィードバックに基づいて、クエリの予算に基づいて摂動を成功させることを目指している。
本稿では,実例レベルの逆転可能性という,過去の攻撃に対するフィードバック情報を活用することを提案する。
この2種類の逆転送性を持つフレームワークは,市販のクエリベースのアタック手法と自然に組み合わせて性能を向上させることができる。
論文 参考訳(メタデータ) (2023-01-01T07:24:12Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Direction-Aggregated Attack for Transferable Adversarial Examples [10.208465711975242]
深層ニューラルネットワークは、入力に知覚不可能な変化を課すことによって作られる敵の例に弱い。
逆例は、モデルとそのパラメータが利用可能なホワイトボックス設定で最も成功した。
我々は,移動可能な攻撃事例を提供する方向集約型攻撃を提案する。
論文 参考訳(メタデータ) (2021-04-19T09:54:56Z) - Are Adversarial Examples Created Equal? A Learnable Weighted Minimax
Risk for Robustness under Non-uniform Attacks [70.11599738647963]
敵の訓練は、強力な攻撃に耐える数少ない防衛の1つである。
従来の防御機構は、基礎となるデータ分布に従って、サンプルに対する均一な攻撃を前提とします。
非一様攻撃に対して重み付けされたミニマックスリスク最適化を提案する。
論文 参考訳(メタデータ) (2020-10-24T21:20:35Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。