論文の概要: Investigating Top-$k$ White-Box and Transferable Black-box Attack
- arxiv url: http://arxiv.org/abs/2204.00089v1
- Date: Wed, 30 Mar 2022 15:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 03:41:31.528144
- Title: Investigating Top-$k$ White-Box and Transferable Black-box Attack
- Title(参考訳): ホワイトボックスとトランスファー可能なブラックボックス攻撃を調査
- Authors: Chaoning Zhang, Philipp Benz, Adil Karjauv, Jae Won Cho, Kang Zhang,
In So Kweon
- Abstract要約: 攻撃後の利子階級ランク (ICR) で示されるASRの上位100ドルに対して, より強い攻撃が実際より優れていることを示す。
そこで本稿では,ロジットの更新を暗黙的に最大化するために,新たな正規化CE損失を提案する。
- 参考スコア(独自算出の注目度): 75.13902066331356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing works have identified the limitation of top-$1$ attack success rate
(ASR) as a metric to evaluate the attack strength but exclusively investigated
it in the white-box setting, while our work extends it to a more practical
black-box setting: transferable attack. It is widely reported that stronger
I-FGSM transfers worse than simple FGSM, leading to a popular belief that
transferability is at odds with the white-box attack strength. Our work
challenges this belief with empirical finding that stronger attack actually
transfers better for the general top-$k$ ASR indicated by the interest class
rank (ICR) after attack. For increasing the attack strength, with an intuitive
interpretation of the logit gradient from the geometric perspective, we
identify that the weakness of the commonly used losses lie in prioritizing the
speed to fool the network instead of maximizing its strength. To this end, we
propose a new normalized CE loss that guides the logit to be updated in the
direction of implicitly maximizing its rank distance from the ground-truth
class. Extensive results in various settings have verified that our proposed
new loss is simple yet effective for top-$k$ attack. Code is available at:
\url{https://bit.ly/3uCiomP}
- Abstract(参考訳): 既存の研究では、攻撃強度を評価する指標として1ドル超の攻撃成功率(ASR)の限界が特定されているが、ホワイトボックス設定では排他的に検討されている。
強いI-FGSMは単純なFGSMよりも悪いことが広く報告されており、転送性はホワイトボックス攻撃強度に反するという考えが一般的である。
我々の研究は、強い攻撃が攻撃後の利子階級階級(ICR)によって示される一般のトップ$k$ASRに対して実際によりよい転送を行うという経験的発見によってこの信念に挑戦する。
攻撃強度を高めるために,幾何的な観点からロジット勾配を直感的に解釈することで,一般的に使用される損失の弱点はネットワークの強度を最大化するのではなく,ネットワークを騙す速度を優先することにあることが分かる。
そこで本研究では,接地クラスからのランク距離を暗黙的に最大化する方向で更新されるロジットを誘導する新しい正規化ce損失を提案する。
さまざまな環境での広範な結果から,提案する新たな損失が,最大$k$攻撃に有効であることを確認した。
コードは: \url{https://bit.ly/3uCiomP}で利用可能である。
関連論文リスト
- Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Universal Black-Box Reward Poisoning Attack against Offline Reinforcement Learning [4.629358641630161]
ニューラルネットワークを用いた汎用オフライン強化学習に対する汎用的ブラックボックス型報酬中毒攻撃の問題点について検討する。
一般オフラインRL設定において,最初の汎用ブラックボックス報酬中毒攻撃を提案する。
論文 参考訳(メタデータ) (2024-02-15T04:08:49Z) - Improving transferability of 3D adversarial attacks with scale and shear
transformations [34.07511992559102]
本稿では,強い伝達性を持つ3次元逆転例を生成するためのスケール・アンド・シーア・アタックを提案する。
具体的には、入力ポイントクラウドをランダムにスケールまたはせん断し、攻撃がホワイトボックスモデルに合わないようにします。
実験により、SS攻撃は既存のSOTA(State-of-the-art)3Dポイント・クラウド攻撃手法とシームレスに組み合わせられることが示された。
論文 参考訳(メタデータ) (2022-11-02T13:09:38Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - Constrained Gradient Descent: A Powerful and Principled Evasion Attack
Against Neural Networks [19.443306494201334]
我々は,攻撃者の目的の直感に従って,攻撃対象のホワイトボックスを攻撃対象とするいくつかのイノベーションを紹介した。
まず,ターゲット攻撃の目的を明確に把握する新たな損失関数を提案する。
第2に,誤分類対象と$L_infty$距離制限の両方を捉えた損失関数のさらなる改良版を用いた新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-12-28T17:36:58Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - Switching Transferable Gradient Directions for Query-Efficient Black-Box
Adversarial Attacks [38.91061792696202]
SWITCH という,単純でクエリ効率のよいブラックボックス攻撃を提案する。
SWITCHは、サロゲートモデルの勾配を非常に効率的かつ効果的に利用している。
CIFAR-10, CIFAR-100, TinyImageNetで行った実験の結果, SWITCHは良好な攻撃成功率を示した。
論文 参考訳(メタデータ) (2020-09-15T15:55:08Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。