論文の概要: Transferability Ranking of Adversarial Examples
- arxiv url: http://arxiv.org/abs/2208.10878v1
- Date: Tue, 23 Aug 2022 11:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 14:02:16.718247
- Title: Transferability Ranking of Adversarial Examples
- Title(参考訳): 逆例の転送可能性ランキング
- Authors: Mosh Levy, Yuval Elovici, Yisroel Mirsky
- Abstract要約: 敵対的な例は、モデルの予測を悪質かつ隠蔽的に変更するために使用することができる。
これは、攻撃者がブラックボックス方式でシステムをターゲットできることを意味するため、大きな脅威となる。
本稿では,被害者のモデルにアクセスすることなく,敵のサンプルの転送可能性を評価する手法を提案する。
- 参考スコア(独自算出の注目度): 40.52854197326305
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial examples can be used to maliciously and covertly change a model's
prediction. It is known that an adversarial example designed for one model can
transfer to other models as well. This poses a major threat because it means
that attackers can target systems in a blackbox manner.
In the domain of transferability, researchers have proposed ways to make
attacks more transferable and to make models more robust to transferred
examples. However, to the best of our knowledge, there are no works which
propose a means for ranking the transferability of an adversarial example in
the perspective of a blackbox attacker. This is an important task because an
attacker is likely to use only a select set of examples, and therefore will
want to select the samples which are most likely to transfer.
In this paper we suggest a method for ranking the transferability of
adversarial examples without access to the victim's model. To accomplish this,
we define and estimate the expected transferability of a sample given limited
information about the victim. We also explore practical scenarios: where the
adversary can select the best sample to attack and where the adversary must use
a specific sample but can choose different perturbations. Through our
experiments, we found that our ranking method can increase an attacker's
success rate by up to 80% compared to the baseline (random selection without
ranking).
- Abstract(参考訳): 悪意のある例を使って、モデルの予測を暗黙的に変更することができる。
1つのモデル用に設計された敵対的な例は、他のモデルにも転送できることが知られている。
これは、攻撃者がブラックボックス方式でシステムをターゲットできることを意味するため、大きな脅威となる。
転送可能性の分野では、研究者は攻撃をより転送しやすくし、モデルをより堅牢にする方法を提案している。
しかし,我々の知る限りでは,ブラックボックス攻撃者の視点からは,敵の事例の転送可能性のランキング付け方法を提案する研究は存在しない。
これは重要なタスクであり、攻撃者は特定のサンプルセットのみを使用する可能性が高いため、最も転送される可能性が高いサンプルを選択したいためである。
本稿では,被害者のモデルにアクセスすることなく,敵のサンプルの転送可能性を評価する手法を提案する。
これを達成するために,被害者に関する限られた情報からサンプルの転送可能性を定義し,推定する。
敵が攻撃に最適なサンプルを選択できる場合と、敵が特定のサンプルを使わなければならない場合、異なる摂動を選択する場合である。
実験の結果,本手法は攻撃者の成功率をベースライン(ランキングなしのランダム選択)と比較して最大80%向上させることができることがわかった。
関連論文リスト
- PEAS: A Strategy for Crafting Transferable Adversarial Examples [2.9815109163161204]
ブラックボックス攻撃は、機械学習システムに重大な脅威をもたらす。
代用モデルで生成された逆例は、しばしばターゲットモデルへの限定的な転送可能性に悩まされる。
我々は,既存のブラックボックス攻撃の転送可能性を高める新しい戦略PEASを提案する。
論文 参考訳(メタデータ) (2024-10-20T14:55:08Z) - A Generative Approach to Surrogate-based Black-box Attacks [18.37537526008645]
最先端のサロゲートベースの攻撃では、ターゲットの出力を模倣する差別的なサロゲートを訓練する。
本稿では,対象決定境界付近のサンプルの分布を学習する生成的サロゲートを提案する。
提案した生成的アプローチは、様々なターゲットやデータセットに対する攻撃成功率の高い攻撃をもたらす。
論文 参考訳(メタデータ) (2024-02-05T05:22:58Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Generalizable Black-Box Adversarial Attack with Meta Learning [54.196613395045595]
ブラックボックス攻撃では、ターゲットモデルのパラメータが不明であり、攻撃者はクエリのフィードバックに基づいて、クエリの予算に基づいて摂動を成功させることを目指している。
本稿では,実例レベルの逆転可能性という,過去の攻撃に対するフィードバック情報を活用することを提案する。
この2種類の逆転送性を持つフレームワークは,市販のクエリベースのアタック手法と自然に組み合わせて性能を向上させることができる。
論文 参考訳(メタデータ) (2023-01-01T07:24:12Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Direction-Aggregated Attack for Transferable Adversarial Examples [10.208465711975242]
深層ニューラルネットワークは、入力に知覚不可能な変化を課すことによって作られる敵の例に弱い。
逆例は、モデルとそのパラメータが利用可能なホワイトボックス設定で最も成功した。
我々は,移動可能な攻撃事例を提供する方向集約型攻撃を提案する。
論文 参考訳(メタデータ) (2021-04-19T09:54:56Z) - Are Adversarial Examples Created Equal? A Learnable Weighted Minimax
Risk for Robustness under Non-uniform Attacks [70.11599738647963]
敵の訓練は、強力な攻撃に耐える数少ない防衛の1つである。
従来の防御機構は、基礎となるデータ分布に従って、サンプルに対する均一な攻撃を前提とします。
非一様攻撃に対して重み付けされたミニマックスリスク最適化を提案する。
論文 参考訳(メタデータ) (2020-10-24T21:20:35Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。