論文の概要: Meta-Learning the Search Distribution of Black-Box Random Search Based
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2111.01714v1
- Date: Tue, 2 Nov 2021 16:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 12:42:37.188452
- Title: Meta-Learning the Search Distribution of Black-Box Random Search Based
Adversarial Attacks
- Title(参考訳): ブラックボックスランダム検索に基づく逆攻撃の探索分布のメタラーニング
- Authors: Maksym Yatsura, Jan Hendrik Metzen, Matthias Hein
- Abstract要約: ランダム化探索方式に基づく敵攻撃は,ブラックボックスのロバスト性評価において最先端の結果を得た。
本研究では,攻撃時に得られた情報に基づいて提案分布をオンラインに適応させることにより,この問題に対処する方法について検討する。
- 参考スコア(独自算出の注目度): 62.769451246845065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks based on randomized search schemes have obtained
state-of-the-art results in black-box robustness evaluation recently. However,
as we demonstrate in this work, their efficiency in different query budget
regimes depends on manual design and heuristic tuning of the underlying
proposal distributions. We study how this issue can be addressed by adapting
the proposal distribution online based on the information obtained during the
attack. We consider Square Attack, which is a state-of-the-art score-based
black-box attack, and demonstrate how its performance can be improved by a
learned controller that adjusts the parameters of the proposal distribution
online during the attack. We train the controller using gradient-based
end-to-end training on a CIFAR10 model with white box access. We demonstrate
that plugging the learned controller into the attack consistently improves its
black-box robustness estimate in different query regimes by up to 20% for a
wide range of different models with black-box access. We further show that the
learned adaptation principle transfers well to the other data distributions
such as CIFAR100 or ImageNet and to the targeted attack setting.
- Abstract(参考訳): ランダム化探索方式に基づく敵攻撃は,最近,ブラックボックスのロバスト性評価において最先端の結果を得た。
しかし、本研究で示すように、異なるクエリ予算方式における効率性は、基礎となる提案分布のマニュアル設計とヒューリスティックチューニングに依存する。
本研究では,攻撃時に得られた情報に基づいて提案分布をオンラインに適応させることにより,この問題に対処する方法について検討する。
現状のスコアベースのブラックボックス攻撃であるスクエアアタックについて検討し、攻撃中に提案分布のパラメータをオンラインで調整する学習コントローラにより、その性能をいかに改善できるかを示す。
我々は、ホワイトボックスアクセスを持つCIFAR10モデル上で、勾配に基づくエンドツーエンドトレーニングを用いてコントローラを訓練する。
我々は、学習したコントローラを攻撃に接続することで、ブラックボックスアクセスを持つさまざまなモデルに対して、異なるクエリレシシでブラックボックスロバストネスの推定を最大20%改善できることを実証した。
さらに,学習した適応原則がcifar100やimagenetなどの他のデータディストリビューションやターゲット攻撃設定によく変換されることを示す。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - AttackBench: Evaluating Gradient-based Attacks for Adversarial Examples [26.37278338032268]
アドリシャルな例は、通常、勾配ベースの攻撃に最適化される。
それぞれ異なる実験装置を用いて前任者を上回る性能を発揮する。
これは過度に最適化され、偏見のある評価を提供する。
論文 参考訳(メタデータ) (2024-04-30T11:19:05Z) - Hard-label based Small Query Black-box Adversarial Attack [2.041108289731398]
本稿では,事前訓練したサロゲートモデルによって誘導される最適化プロセスを用いて,ハードラベルに基づく攻撃の実用的設定を提案する。
提案手法は,ベンチマークの約5倍の攻撃成功率を達成する。
論文 参考訳(メタデータ) (2024-03-09T21:26:22Z) - Breaking the Black-Box: Confidence-Guided Model Inversion Attack for
Distribution Shift [0.46040036610482665]
モデル反転攻撃(MIA)は、ターゲットクラスの特性を反映した合成画像を生成することにより、ターゲット分類器のプライベートトレーニングデータを推論しようとする。
これまでの研究はターゲットモデルへの完全なアクセスに依存してきたが、現実のシナリオでは実用的ではない。
本稿では,CG-MIと呼ばれるtextbfConfidence-textbfGuided textbfModel textbfInversion攻撃法を提案する。
論文 参考訳(メタデータ) (2024-02-28T03:47:17Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z) - Diversity can be Transferred: Output Diversification for White- and
Black-box Attacks [89.92353493977173]
アドリア攻撃は、例えば最適化ベースのホワイトボックス攻撃を初期化したり、ブラックボックス攻撃で更新方向を生成するために、均一あるいはガウス分布から引き出された入力のランダムな摂動を伴うことが多い。
本稿では,対象モデルの出力の多様性を最大化するための新しいサンプリング手法である出力分散サンプリング(ODS)を提案する。
ODSは、既存のホワイトボックス攻撃とブラックボックス攻撃のパフォーマンスを大幅に改善する。
特に、ODSはImageNetに対する最先端のブラックボックス攻撃に必要なクエリ数を2倍に削減する。
論文 参考訳(メタデータ) (2020-03-15T17:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。