論文の概要: Learning and Certification under Instance-targeted Poisoning
- arxiv url: http://arxiv.org/abs/2105.08709v1
- Date: Tue, 18 May 2021 17:48:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 13:50:34.366598
- Title: Learning and Certification under Instance-targeted Poisoning
- Title(参考訳): インスタンス標的中毒における学習と認定
- Authors: Ji Gao, Amin Karbasi, Mohammad Mahmoody
- Abstract要約: インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
- 参考スコア(独自算出の注目度): 49.55596073963654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study PAC learnability and certification under
instance-targeted poisoning attacks, where the adversary may change a fraction
of the training set with the goal of fooling the learner at a specific target
instance. Our first contribution is to formalize the problem in various
settings, and explicitly discussing subtle aspects such as learner's randomness
and whether (or not) adversary's attack can depend on it. We show that when the
budget of the adversary scales sublinearly with the sample complexity, PAC
learnability and certification are achievable. In contrast, when the
adversary's budget grows linearly with the sample complexity, the adversary can
potentially drive up the expected 0-1 loss to one. We further extend our
results to distribution-specific PAC learning in the same attack model and show
that proper learning with certification is possible for learning halfspaces
under Gaussian distribution. Finally, we empirically study the robustness of K
nearest neighbour, logistic regression, multi-layer perceptron, and
convolutional neural network on real data sets, and test them against
targeted-poisoning attacks. Our experimental results show that many models,
especially state-of-the-art neural networks, are indeed vulnerable to these
strong attacks. Interestingly, we observe that methods with high standard
accuracy might be more vulnerable to instance-targeted poisoning attacks.
- Abstract(参考訳): 本稿では,特定のターゲットインスタンスで学習者を騙すことを目標として,学習セットのごく一部を変更する可能性がある,インスタンス標的中毒攻撃下でのpac学習可能性と認定について検討する。
最初のコントリビューションは、様々な設定で問題を形式化し、学習者のランダムさや敵の攻撃がそれに依存するかどうかといった微妙な側面を明確に議論することである。
敵の予算がサンプルの複雑さに比例してスケールすると、PAC学習性と認定が達成可能であることを示す。
対照的に、敵の予算がサンプルの複雑さと線形に増加すると、敵は期待される0-1の損失を1に引き上げる可能性がある。
さらに,同じ攻撃モデルを用いて分布特異的pac学習に結果を拡張し,ガウス分布下での半空間学習において,認証による適切な学習が可能であることを示す。
最後に,実データ集合上のk近傍のロバスト性,ロジスティック回帰,多層パーセプトロン,畳み込みニューラルネットワークを実験的に検討し,ターゲットポジショニング攻撃に対して検証する。
我々の実験結果によると、多くのモデル、特に最先端のニューラルネットワークは、これらの強力な攻撃に対して脆弱である。
興味深いことに、標準精度の高いメソッドは、インスタンスターゲットの毒殺攻撃に対してより脆弱である可能性がある。
関連論文リスト
- Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Identifying Adversarially Attackable and Robust Samples [1.4213973379473654]
アドリアックは、入力サンプルに小さな、知覚不能な摂動を挿入し、ディープラーニングモデルの出力に大きな、望ましくない変化を引き起こす。
本研究は, 対人攻撃に最も影響を受けやすいサンプルを同定することを目的とした, サンプル攻撃可能性の概念を紹介する。
本研究では,未知のターゲットモデルに対する未知のデータセットにおいて,逆攻撃可能で頑健なサンプルを識別するディープラーニングベースの検出器を提案する。
論文 参考訳(メタデータ) (2023-01-30T13:58:14Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Challenging the adversarial robustness of DNNs based on error-correcting
output codes [33.46319608673487]
ECOCベースのネットワークは、小さな逆方向の摂動を導入することで、非常に容易に攻撃できる。
敵の例は、予測対象クラスの高い確率を達成するために、このような方法で生成することができる。
論文 参考訳(メタデータ) (2020-03-26T12:14:56Z) - Targeted Forgetting and False Memory Formation in Continual Learners
through Adversarial Backdoor Attacks [2.830541450812474]
破滅的な忘れ物を避けるために,一般的な連続学習アルゴリズムであるElastic Weight Consolidation (EWC)の脆弱性について検討する。
知的敵は、EWCの防御を回避でき、訓練中に少量の誤報をモデルに導入することで、段階的かつ故意に忘れることを引き起こす。
MNISTデータセットの置換型と分割型の両方に"バックドア"攻撃サンプルを注入することで、モデルの制御を前提とする敵の能力を実証する。
論文 参考訳(メタデータ) (2020-02-17T18:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。