論文の概要: Characterizing the Evasion Attackability of Multi-label Classifiers
- arxiv url: http://arxiv.org/abs/2012.09427v2
- Date: Mon, 21 Dec 2020 13:30:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:20:49.341948
- Title: Characterizing the Evasion Attackability of Multi-label Classifiers
- Title(参考訳): マルチラベル分類器の回避攻撃性特性
- Authors: Zhuo Yang, Yufei Han, Xiangliang Zhang
- Abstract要約: マルチラベル学習システムにおける脱出攻撃は、興味深いが、広く目撃されているが、まれな研究トピックである。
マルチラベルの敵対的脅威の攻撃可能性を決定する重要な要因を特徴づけることが、脆弱性の起源を解釈する鍵である。
グラディラベル空間探索による効率的な経験的攻撃性推定器を提案する。
- 参考スコア(独自算出の注目度): 37.00606062677375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evasion attack in multi-label learning systems is an interesting, widely
witnessed, yet rarely explored research topic. Characterizing the crucial
factors determining the attackability of the multi-label adversarial threat is
the key to interpret the origin of the adversarial vulnerability and to
understand how to mitigate it. Our study is inspired by the theory of
adversarial risk bound. We associate the attackability of a targeted
multi-label classifier with the regularity of the classifier and the training
data distribution. Beyond the theoretical attackability analysis, we further
propose an efficient empirical attackability estimator via greedy label space
exploration. It provides provably computational efficiency and approximation
accuracy. Substantial experimental results on real-world datasets validate the
unveiled attackability factors and the effectiveness of the proposed empirical
attackability indicator
- Abstract(参考訳): マルチレーベル学習システムにおける回避攻撃は、興味深く、広く目撃されているが、研究トピックを探究することは稀である。
多ラベルの敵の脅威の攻撃可能性を決定する重要な要因を特徴づけることが、敵の脆弱性の起源を解釈し、それを緩和する方法を理解する鍵である。
我々の研究は敵のリスクバウンドの理論にインスパイアされている。
対象とするマルチラベル分類器の攻撃性と分類器の規則性とトレーニングデータ分布を関連付ける。
理論的攻撃性解析以外にも, グリーディラベル空間探索による効率的な攻撃性推定法を提案する。
計算効率と近似精度が保証される。
実世界データセットの実質的実験結果 : 提示された攻撃可能性因子と提案する経験的攻撃可能性指標の有効性
関連論文リスト
- ExploreADV: Towards exploratory attack for Neural Networks [0.33302293148249124]
ExploreADVは、地域的および非受容的な攻撃をモデル化できる汎用的で柔軟な敵攻撃システムである。
提案システムは,入力のサブリージョンに着目し,知覚不能な摂動を探索し,攻撃に対する画素/領域の脆弱性を理解するための柔軟性をユーザに提供する。
論文 参考訳(メタデータ) (2023-01-01T07:17:03Z) - Probabilistic Categorical Adversarial Attack & Adversarial Training [45.458028977108256]
敵対的な例の存在は、人々が安全クリティカルなタスクにディープニューラルネットワーク(DNN)を適用することに大きな懸念をもたらします。
分類データを用いて敵の例を生成する方法は重要な問題であるが、広範囲にわたる探索が欠如している。
本稿では,離散最適化問題を連続的な問題に変換する確率的カテゴリー逆攻撃(PCAA)を提案する。
論文 参考訳(メタデータ) (2022-10-17T19:04:16Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Attack Transferability Characterization for Adversarially Robust
Multi-label Classification [37.00606062677375]
本研究は,マルチラベル分類器に対する非目標回避攻撃に焦点を当てた。
脅威の目標は、可能な限り多くのラベルに対して、ミス分類を引き起こすことだ。
我々は,攻撃の伝達可能性レベルが分類器の攻撃可能性を決定する方法を明らかにする。
論文 参考訳(メタデータ) (2021-06-29T12:50:20Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。