論文の概要: Leveraging Extracted Model Adversaries for Improved Black Box Attacks
- arxiv url: http://arxiv.org/abs/2010.16336v2
- Date: Mon, 2 Nov 2020 16:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 15:51:42.117744
- Title: Leveraging Extracted Model Adversaries for Improved Black Box Attacks
- Title(参考訳): ブラックボックス攻撃改善のための抽出モデルアドバナリーの活用
- Authors: Naveen Jafer Nizar, Ari Kobren
- Abstract要約: モデル抽出により被害者のブラックボックスモデルを近似する。
第二に、私たちは、近似モデルが失敗する入力摂動を生成するために、独自のホワイトボックスメソッドを使用します。
これらの混乱した入力は被害者に対して使用される。
- 参考スコア(独自算出の注目度): 7.133577456263053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for adversarial input generation against black box models
for reading comprehension based question answering. Our approach is composed of
two steps. First, we approximate a victim black box model via model extraction
(Krishna et al., 2020). Second, we use our own white box method to generate
input perturbations that cause the approximate model to fail. These perturbed
inputs are used against the victim. In experiments we find that our method
improves on the efficacy of the AddAny---a white box attack---performed on the
approximate model by 25% F1, and the AddSent attack---a black box attack---by
11% F1 (Jia and Liang, 2017).
- Abstract(参考訳): 本稿では,ブラックボックスモデルに対する逆入力生成手法を提案する。
私たちのアプローチは2つのステップで構成されています。
まず,被害者のブラックボックスモデルをモデル抽出により近似する(krishna et al., 2020)。
第二に、近似モデルに失敗する入力摂動を生成するのに、独自のホワイトボックス法を用いる。
これらの混乱した入力は被害者に対して使用される。
実験では,アダニー攻撃(White box attack)とアダセント攻撃(AddSent attack--------------- ブラックボックス攻撃(Jia and Liang, 2017)の有効性を改善した。
関連論文リスト
- Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Scoring Black-Box Models for Adversarial Robustness [4.416484585765028]
敵の攻撃に対する モデルの堅牢性が分析されました
逆入力に対する頑健性を示すブラックボックスモデルの簡易スコアリング法を提案する。
論文 参考訳(メタデータ) (2022-10-31T08:41:44Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - Output Randomization: A Novel Defense for both White-box and Black-box
Adversarial Models [8.189696720657247]
敵対的な例は、さまざまなシナリオでディープニューラルネットワークモデルに脅威をもたらす。
ブラックボックスモデルとホワイトボックスモデルの両方における攻撃に対する防御手段としての出力ランダム化の利用について検討する。
論文 参考訳(メタデータ) (2021-07-08T12:27:19Z) - Adversarial Eigen Attack on Black-Box Models [23.624958605512365]
ブラックボックスの敵攻撃は、AIの安全性を実践するために多くの研究の関心を集めている。
攻撃効率を改善する一般的な方法は、事前訓練された転送可能なホワイトボックスモデルからサポートを引き出すことである。
本稿では,移動可能なブラックボックス攻撃の新たな設定を提案する。攻撃者は,ネットワークパラメータが利用可能な事前学習モデルから外部情報を利用することができる。
論文 参考訳(メタデータ) (2020-08-27T07:37:43Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z) - Using an ensemble color space model to tackle adversarial examples [22.732023268348787]
このような攻撃を防御する3段階の手法を提案する。
まず,統計的手法を用いて画像の識別を行う。
第二に、同じモデルに複数の色空間を採用することは、これらの敵対的攻撃と戦うのに役立ちます。
論文 参考訳(メタデータ) (2020-03-10T21:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。