論文の概要: ADBA:Approximation Decision Boundary Approach for Black-Box Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2406.04998v2
- Date: Wed, 12 Jun 2024 08:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 11:28:49.036231
- Title: ADBA:Approximation Decision Boundary Approach for Black-Box Adversarial Attacks
- Title(参考訳): ADBA:ブラックボックス攻撃に対する近似決定境界法
- Authors: Feiyang Wang, Xingquan Zuo, Hai Huang, Gang Chen,
- Abstract要約: ブラックボックス攻撃はステルス性があり、機械学習モデルからハードラベルを使用して敵の例を生成する。
本稿では,近似決定境界(ADB)を用いて摂動方向を効率よく正確に比較する手法を提案する。
我々のADBアプローチ(ADBA)の有効性は、適切なADBを迅速に同定し、全ての摂動方向を確実に区別することにある。
- 参考スコア(独自算出の注目度): 6.253823500300899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many machine learning models are susceptible to adversarial attacks, with decision-based black-box attacks representing the most critical threat in real-world applications. These attacks are extremely stealthy, generating adversarial examples using hard labels obtained from the target machine learning model. This is typically realized by optimizing perturbation directions, guided by decision boundaries identified through query-intensive exact search, significantly limiting the attack success rate. This paper introduces a novel approach using the Approximation Decision Boundary (ADB) to efficiently and accurately compare perturbation directions without precisely determining decision boundaries. The effectiveness of our ADB approach (ADBA) hinges on promptly identifying suitable ADB, ensuring reliable differentiation of all perturbation directions. For this purpose, we analyze the probability distribution of decision boundaries, confirming that using the distribution's median value as ADB can effectively distinguish different perturbation directions, giving rise to the development of the ADBA-md algorithm. ADBA-md only requires four queries on average to differentiate any pair of perturbation directions, which is highly query-efficient. Extensive experiments on six well-known image classifiers clearly demonstrate the superiority of ADBA and ADBA-md over multiple state-of-the-art black-box attacks. The source code is available at https://github.com/BUPTAIOC/ADBA.
- Abstract(参考訳): 多くの機械学習モデルは、現実のアプリケーションにおいて最も重大な脅威を示す決定ベースのブラックボックス攻撃によって、敵対的な攻撃を受けやすい。
これらの攻撃は極めてステルス性が高く、ターゲット機械学習モデルから得られたハードラベルを使って敵の例を生成する。
これは典型的には摂動方向の最適化によって実現され、クエリ集約的な正確な探索によって識別された決定境界によって誘導され、攻撃成功率を著しく制限する。
本稿では、近似決定境界(ADB)を用いて、決定境界を正確に決定することなく摂動方向を効率よく正確に比較する手法を提案する。
我々のADBアプローチ(ADBA)の有効性は、適切なADBを迅速に同定し、全ての摂動方向を確実に区別することにある。
そこで本研究では,ADBとして分布の中央値を用いることで,様々な摂動方向を効果的に識別し,ADBA-mdアルゴリズムの開発につながることを確認し,決定境界の確率分布を解析する。
ADBA-mdは摂動方向を区別するために平均4つのクエリしか必要とせず、クエリ効率が高い。
6つの有名な画像分類器に対する大規模な実験は、複数の最先端のブラックボックス攻撃に対してADBAとADBA-mdの優位性を明らかに示している。
ソースコードはhttps://github.com/BUPTAIOC/ADBAで公開されている。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Decision-BADGE: Decision-based Adversarial Batch Attack with Directional
Gradient Estimation [0.0]
Decision-BADGEは、決定ベースのブラックボックス攻撃を実行するために、普遍的な敵の摂動を構築する新しい方法である。
提案手法は,トレーニング時間が少なく,良好な成功率を示す。
この研究は、Decision-BADGEが未確認の犠牲者モデルを無視し、特定のクラスを正確にターゲットすることができることも示している。
論文 参考訳(メタデータ) (2023-03-09T01:42:43Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Query-Efficient and Scalable Black-Box Adversarial Attacks on Discrete
Sequential Data via Bayesian Optimization [10.246596695310176]
ブラックボックス設定における離散的な逐次データに基づくモデルに対する敵攻撃の問題に焦点をあてる。
我々はベイジアン最適化を用いたクエリ効率の良いブラックボックス攻撃を提案し、重要な位置を動的に計算する。
そこで我々は,摂動サイズを小さくした逆例を求めるポスト最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-17T06:11:36Z) - Divide to Adapt: Mitigating Confirmation Bias for Domain Adaptation of
Black-Box Predictors [94.78389703894042]
ドメイン適応(Domain Adaptation of Black-box Predictor、DABP)は、ソースドメインでトレーニングされたブラックボックス予測器によって管理されるラベルなしのターゲットドメイン上のモデルを学習することを目的としている。
ソースドメインデータと予測パラメータの両方にアクセスする必要はないため、標準ドメイン適応におけるデータのプライバシとポータビリティの問題に対処する。
本稿では,知識蒸留と雑音ラベル学習を一貫した枠組みに組み込む新しい手法BETAを提案する。
論文 参考訳(メタデータ) (2022-05-28T16:00:44Z) - Data-Efficient and Interpretable Tabular Anomaly Detection [54.15249463477813]
本稿では,ホワイトボックスモデルクラスである一般化付加モデルを適用し,異常を検出する新しいフレームワークを提案する。
さらに、提案フレームワークであるDIADは、ラベル付きデータの少量を組み込んで、半教師付き設定における異常検出性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2022-03-03T22:02:56Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Bi-Classifier Determinacy Maximization for Unsupervised Domain
Adaptation [24.9073164947711]
この問題に対処するために,Bi-Classifier Determinacy Maximization (BCDM) を提案する。
対象試料が常に決定境界によって明確に分離できないという観察に動機づけられ,新しい分類器決定性不一致指標を設計する。
BCDMは、ターゲット予測出力の一貫性と決定を促すことにより、識別表現を生成することができる。
論文 参考訳(メタデータ) (2020-12-13T07:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。