論文の概要: GSBAK$^K$: $top$-$K$ Geometric Score-based Black-box Attack
- arxiv url: http://arxiv.org/abs/2503.12827v1
- Date: Mon, 17 Mar 2025 05:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:41.835912
- Title: GSBAK$^K$: $top$-$K$ Geometric Score-based Black-box Attack
- Title(参考訳): GSBAK$^K$:$top$-$K$ Geometric Scoreベースのブラックボックス攻撃
- Authors: Md Farhamdur Reza, Richeng Jin, Tianfu Wu, Huaiyu Dai,
- Abstract要約: そこで本稿では,非標的攻撃と標的攻撃の両方に対して,b 点b 点b 点b 点b 点b 点b 点b 点b 点(GSBAK$K$)というフリースコアベース攻撃を提案する。
GSBAK$K$は、$top$-$K$マルチラベル学習による分類子に対する攻撃に使用できる。
- 参考スコア(独自算出の注目度): 35.50056034977821
- License:
- Abstract: Existing score-based adversarial attacks mainly focus on crafting $top$-1 adversarial examples against classifiers with single-label classification. Their attack success rate and query efficiency are often less than satisfactory, particularly under small perturbation requirements; moreover, the vulnerability of classifiers with multi-label learning is yet to be studied. In this paper, we propose a comprehensive surrogate free score-based attack, named \b geometric \b score-based \b black-box \b attack (GSBAK$^K$), to craft adversarial examples in an aggressive $top$-$K$ setting for both untargeted and targeted attacks, where the goal is to change the $top$-$K$ predictions of the target classifier. We introduce novel gradient-based methods to find a good initial boundary point to attack. Our iterative method employs novel gradient estimation techniques, particularly effective in $top$-$K$ setting, on the decision boundary to effectively exploit the geometry of the decision boundary. Additionally, GSBAK$^K$ can be used to attack against classifiers with $top$-$K$ multi-label learning. Extensive experimental results on ImageNet and PASCAL VOC datasets validate the effectiveness of GSBAK$^K$ in crafting $top$-$K$ adversarial examples.
- Abstract(参考訳): 既存のスコアベースの敵攻撃は主に、シングルラベル分類を持つ分類器に対して$top$-1の敵例を作成することに焦点を当てている。
彼らの攻撃成功率とクエリ効率は、特に小さな摂動条件下では満足できないことが多いが、さらに、マルチラベル学習による分類器の脆弱性についてはまだ研究されていない。
本稿では、ターゲット分類器の$top$-$K$の予測値を変更することを目的として、ターゲット分類器の$top$-$K$のアグレッシブな$top$-$K$の設定において、攻撃的な$top$-$K$の対向的な例を作成するために、b 幾何学的 \b score-based \b black-box \b attack (GSBAK$^K$) と呼ばれる包括的サロゲートフリースコアベース攻撃を提案する。
攻撃に最適な初期境界点を見つけるための新しい勾配法を提案する。
特に$top$-$K$の設定において、決定境界の幾何学を効果的に活用するために、新しい勾配推定手法を用いる。
さらにGSBAK$^K$は、$top$-$K$マルチラベル学習による分類子に対する攻撃に使用できる。
ImageNet と PASCAL VOC データセットの大規模な実験結果から, GSBAK$^K$ が$top$-$K$ に対して有効であることを示す。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - QuadAttack: A Quadratic Programming Approach to Ordered Top-K Attacks [8.826642352173035]
ディープニューラルネットワーク(DNN)の敵対的脆弱性は広く知られ、広く懸念されている。
本稿は、攻撃的な最上位の$K$攻撃を学習することで、この懸念がはるかに深刻であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:08:45Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - T$_k$ML-AP: Adversarial Attacks to Top-$k$ Multi-Label Learning [36.33146863659193]
我々は,複数ラベルの学習に基づく画像アノテーションシステムにおいて,トップ$kの攻撃に使用できる逆摂動を生成する手法を開発した。
本手法は,標的外攻撃と攻撃対象攻撃の両条件で,最先端のトップレベルk$マルチラベル学習手法の性能を低下させる。
論文 参考訳(メタデータ) (2021-07-31T04:38:19Z) - Towards Variable-Length Textual Adversarial Attacks [68.27995111870712]
データの離散性のため、自然言語処理タスクに対してテキストによる敵意攻撃を行うことは非自明である。
本稿では,可変長テキスト対比攻撃(VL-Attack)を提案する。
本手法は、iwslt14ドイツ語英訳で3,18$ bleuスコアを達成でき、ベースラインモデルより1.47$改善できる。
論文 参考訳(メタデータ) (2021-04-16T14:37:27Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Stochastic sparse adversarial attacks [17.43654235818416]
本稿では,ニューラルネットワーク分類器(NNC)の単純かつ高速かつ純粋に雑音に基づく標的的かつ未標的的攻撃として,SSAA(sparse adversarial attacks)を提案する。
SSAAは、マルコフプロセスに広く用いられる小さな拡張アイデアを活用することで考案された。
小型および大規模データセット(CIFAR-10とImageNet)の実験では、最先端の手法と比較して、SSAAのいくつかの利点が示されている。
論文 参考訳(メタデータ) (2020-11-24T22:07:51Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。