論文の概要: Decision-BADGE: Decision-based Adversarial Batch Attack with Directional
Gradient Estimation
- arxiv url: http://arxiv.org/abs/2303.04980v1
- Date: Thu, 9 Mar 2023 01:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:20:16.447252
- Title: Decision-BADGE: Decision-based Adversarial Batch Attack with Directional
Gradient Estimation
- Title(参考訳): Decision-BADGE:方向勾配推定による決定に基づく逆バッチ攻撃
- Authors: Geunhyeok Yu, Minwoo Jeon and Hyoseok Hwang
- Abstract要約: 本研究では、ランダムな勾配のない最適化とバッチアタックを用いて、決定に基づく攻撃に対する普遍的な逆摂動を生成するDecision-BADGEを提案する。
この研究は、Decision-BADGEが未確認の犠牲者を欺いて、特定のクラスを正確に狙うことに成功していることも示している。
- 参考スコア(独自算出の注目度): 0.3222802562733786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vulnerability of deep neural networks to adversarial examples has led to
the rise in the use of adversarial attacks. While various decision-based and
universal attack methods have been proposed, none have attempted to create a
decision-based universal adversarial attack. This research proposes
Decision-BADGE, which uses random gradient-free optimization and batch attack
to generate universal adversarial perturbations for decision-based attacks.
Multiple adversarial examples are combined to optimize a single universal
perturbation, and the accuracy metric is reformulated into a continuous Hamming
distance form. The effectiveness of accuracy metric as a loss function is
demonstrated and mathematically proven. The combination of Decision-BADGE and
the accuracy loss function performs better than both score-based
image-dependent attack and white-box universal attack methods in terms of
attack time efficiency. The research also shows that Decision-BADGE can
successfully deceive unseen victims and accurately target specific classes.
- Abstract(参考訳): 敵の例に対するディープニューラルネットワークの脆弱性は、敵の攻撃の使用の増加につながった。
様々な意思決定と普遍的攻撃法が提案されているが、決定に基づく普遍的敵攻撃を創り出そうとする試みはない。
本研究では、ランダムな勾配のない最適化とバッチアタックを用いて、決定に基づく攻撃に対する普遍的な逆摂動を生成するDecision-BADGEを提案する。
複数の逆の例を組み合わせて単一の普遍摂動を最適化し、精度の計量を連続ハミング距離形式に再構成する。
損失関数としての精度測定の有効性を示し、数学的に証明した。
Decision-BADGEと精度損失関数の組み合わせは、攻撃時間効率の点でスコアベース画像依存攻撃法とホワイトボックスユニバーサル攻撃法より優れている。
この研究は、Decision-BADGEが未確認の犠牲者を欺いて、特定のクラスを正確にターゲットできることを示した。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - ADBA:Approximation Decision Boundary Approach for Black-Box Adversarial Attacks [6.253823500300899]
ブラックボックス攻撃はステルス性があり、機械学習モデルからハードラベルを使用して敵の例を生成する。
本稿では,近似決定境界(ADB)を用いて摂動方向を効率よく正確に比較する手法を提案する。
我々のADBアプローチ(ADBA)の有効性は、適切なADBを迅速に同定し、全ての摂動方向を確実に区別することにある。
論文 参考訳(メタデータ) (2024-06-07T15:09:25Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Provably Efficient UCB-type Algorithms For Learning Predictive State
Representations [55.00359893021461]
逐次決定問題は、予測状態表現(PSR)によってモデル化された低ランク構造が認められる場合、統計的に学習可能である
本稿では,推定モデルと実モデル間の全変動距離を上限とする新しいボーナス項を特徴とする,PSRに対する最初のUCB型アプローチを提案する。
PSRに対する既存のアプローチとは対照的に、UCB型アルゴリズムは計算的トラクタビリティ、最優先の準最適ポリシー、モデルの精度が保証される。
論文 参考訳(メタデータ) (2023-07-01T18:35:21Z) - Adversarial Attack Based on Prediction-Correction [8.467466998915018]
ディープニューラルネットワーク(DNN)は、元の例に小さな摂動を加えることで得られる敵の例に対して脆弱である。
本稿では,新たな予測補正(PC)に基づく対角攻撃を提案する。
提案したPCベースの攻撃では、予測された例を最初に生成するために既存の攻撃を選択し、予測された例と現在の例を組み合わせて追加の摂動を決定する。
論文 参考訳(メタデータ) (2023-06-02T03:11:32Z) - Universal Distributional Decision-based Black-box Adversarial Attack
with Reinforcement Learning [5.240772699480865]
そこで我々は,強化学習アルゴリズムを用いて,対向的摂動の分布を求める画素ワイドな決定に基づく攻撃アルゴリズムを提案する。
実験により,提案手法は,攻撃成功率の向上と伝達可能性の向上により,最先端の意思決定ベース攻撃よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-11-15T18:30:18Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。