論文の概要: Symmetry Defense Against XGBoost Adversarial Perturbation Attacks
- arxiv url: http://arxiv.org/abs/2308.05575v1
- Date: Thu, 10 Aug 2023 13:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 12:17:56.311124
- Title: Symmetry Defense Against XGBoost Adversarial Perturbation Attacks
- Title(参考訳): xgboost逆摂動攻撃に対する対称性防御
- Authors: Blerta Lindqvist
- Abstract要約: 直交摂動攻撃に対して,直交型決定木 (GBDT) などの木に基づくアンサンブル分類器の防御に対称性が有効かどうかを検討する。
我々は,9つの摂動攻撃に対するGBDT対称性の防御を,ゼロ知識から完全知識への脅威モデルを用いて適用し,評価した。
- 参考スコア(独自算出の注目度): 0.05076419064097732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We examine whether symmetry can be used to defend tree-based ensemble
classifiers such as gradient-boosting decision trees (GBDTs) against
adversarial perturbation attacks. The idea is based on a recent symmetry
defense for convolutional neural network classifiers (CNNs) that utilizes CNNs'
lack of invariance with respect to symmetries. CNNs lack invariance because
they can classify a symmetric sample, such as a horizontally flipped image,
differently from the original sample. CNNs' lack of invariance also means that
CNNs can classify symmetric adversarial samples differently from the incorrect
classification of adversarial samples. Using CNNs' lack of invariance, the
recent CNN symmetry defense has shown that the classification of symmetric
adversarial samples reverts to the correct sample classification. In order to
apply the same symmetry defense to GBDTs, we examine GBDT invariance and are
the first to show that GBDTs also lack invariance with respect to symmetries.
We apply and evaluate the GBDT symmetry defense for nine datasets against six
perturbation attacks with a threat model that ranges from zero-knowledge to
perfect-knowledge adversaries. Using the feature inversion symmetry against
zero-knowledge adversaries, we achieve up to 100% accuracy on adversarial
samples even when default and robust classifiers have 0% accuracy. Using the
feature inversion and horizontal flip symmetries against perfect-knowledge
adversaries, we achieve up to over 95% accuracy on adversarial samples for the
GBDT classifier of the F-MNIST dataset even when default and robust classifiers
have 0% accuracy.
- Abstract(参考訳): 直交摂動攻撃に対して,直交型決定木 (GBDT) などの木に基づくアンサンブル分類器の防御に対称性が有効かどうかを検討する。
このアイデアは、CNNの対称性に対する不変性の欠如を利用した畳み込みニューラルネットワーク分類器(CNN)に対する最近の対称性の防衛に基づいている。
CNNは、元々のサンプルとは異なる水平反転画像のような対称的なサンプルを分類できるため、ばらつきがない。
CNNの非分散性の欠如は、CNNが正反対サンプルの不正な分類とは異なる対称的サンプルを分類できることを意味する。
最近のCNN対称性防衛は、CNNの不変性の欠如を利用して、対称対数サンプルの分類が正しいサンプル分類に戻すことを示した。
GBDTに同じ対称性の防御を施すために,GBDTの不変性を検証し,GBDTにも対称性に関する不変性を欠いていることを示す最初の試みである。
我々は,9つの摂動攻撃に対するGBDT対称性の防御を,ゼロ知識から完全知識への脅威モデルを用いて適用し,評価した。
ゼロ知識逆数に対する特徴反転対称性を用いることで、デフォルト値とロバストな分類器が0%の精度を持つ場合でも、最大100%の精度が得られる。
また,F-MNISTデータセットのGBDT分類器に対して,正解正解に対する特徴反転と水平フリップ対称性を最大95%の精度で達成した。
関連論文リスト
- Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Generative Adversarial Symmetry Discovery [19.098785309131458]
リーGANは対称性を解釈可能なリー代数基底として表現し、様々な対称性を発見できる。
学習された対称性は、予測の精度と一般化を改善するために、既存の同変ニューラルネットワークで容易に利用することができる。
論文 参考訳(メタデータ) (2023-02-01T04:28:36Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Symmetry Defense Against CNN Adversarial Perturbation Attacks [0.05076419064097732]
本稿では,畳み込みニューラルネットワーク分類器を対向的摂動攻撃に対して頑健にするために対称性を用いる。
提案した対称性の防御は、ImageNetのほぼデフォルトの精度で勾配ベースおよびランダム検索攻撃に成功している。
論文 参考訳(メタデータ) (2022-10-08T18:49:58Z) - DAD: Data-free Adversarial Defense at Test Time [21.741026088202126]
ディープモデルは敵の攻撃に非常に敏感である。
プライバシは、トレーニングデータではなく、トレーニングされたモデルのみへのアクセスを制限する、重要な関心事になっている。
我々は,「訓練データと統計値の欠如によるテスト時敵防衛」という全く新しい問題を提案する。
論文 参考訳(メタデータ) (2022-04-04T15:16:13Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Optimal Transport as a Defense Against Adversarial Attacks [4.6193503399184275]
敵対的攻撃は、訓練されたモデルを誤解させる画像に対して、人間の知覚できない摂動を見つけることができる。
従来の研究は、原画像と敵対画像の整合性をドメイン適応と同等に調整し、堅牢性を向上させることを目的としていた。
地上距離を忠実に反映した分布間の損失を用いることを提案する。
これによりSAT (Sinkhorn Adversarial Training) は敵の攻撃に対してより堅牢な防衛を行う。
論文 参考訳(メタデータ) (2021-02-05T13:24:36Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。