論文の概要: Preventing Clean Label Poisoning using Gaussian Mixture Loss
- arxiv url: http://arxiv.org/abs/2003.00798v1
- Date: Mon, 10 Feb 2020 20:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 09:19:57.517365
- Title: Preventing Clean Label Poisoning using Gaussian Mixture Loss
- Title(参考訳): ガウス混合損失を用いたクリーンラベル汚染防止
- Authors: Muhammad Yaseen, Muneeb Aadil, Maria Sargsyan
- Abstract要約: CLPA(Clear Labeling poisoning attack)とよばれる中毒発作について検討する。
CLPAの目標は、Deep Neural Networksの決定境界を大幅に変更できる、一見良質なインスタンスを注入することだ。
我々は、訓練中にCLPAに対する強力な防御をモデルに組み込むことができると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since 2014 when Szegedy et al. showed that carefully designed perturbations
of the input can lead Deep Neural Networks (DNNs) to wrongly classify its
label, there has been an ongoing research to make DNNs more robust to such
malicious perturbations. In this work, we consider a poisoning attack called
Clean Labeling poisoning attack (CLPA). The goal of CLPA is to inject seemingly
benign instances which can drastically change decision boundary of the DNNs due
to which subsequent queries at test time can be mis-classified. We argue that a
strong defense against CLPA can be embedded into the model during the training
by imposing features of the network to follow a Large Margin Gaussian Mixture
distribution in the penultimate layer. By having such a prior knowledge, we can
systematically evaluate how unusual the example is, given the label it is
claiming to be. We demonstrate our builtin defense via experiments on MNIST and
CIFAR datasets. We train two models on each dataset: one trained via softmax,
another via LGM. We show that using LGM can substantially reduce the
effectiveness of CLPA while having no additional overhead of data sanitization.
The code to reproduce our results is available online.
- Abstract(参考訳): 2014年、Szegedyらは、慎重に設計された入力の摂動がディープニューラルネットワーク(DNN)のラベルを誤って分類する可能性を示して以来、このような悪意のある摂動に対してDNNをより堅牢にするための研究が進行中である。
本研究は,CLPA(Clear Labeling poisoning attack)と呼ばれる中毒発作について考察する。
CLPAの目標は、テスト時に後続のクエリが誤分類される可能性があるため、DNNの決定境界を大幅に変更できる一見良質なインスタンスを注入することである。
我々は、学習中にCLPAに対する強力な防御をモデルに組み込むことができ、ネットワークの特徴を最大層内の大マルギン・ガウス混合分布に従わせることができると論じる。
このような事前の知識を持つことで、ラベルの存在を前提として、例がいかに異常であるかを体系的に評価することができる。
我々は、MNISTおよびCIFARデータセットの実験を通して、ビルトインディフェンスを実証する。
各データセットで2つのモデルをトレーニングします。1つはsoftmaxで、もう1つはlgmでトレーニングします。
以上の結果から,lgmはデータサニタイズ処理のオーバーヘッドを増加させずに,clpaの有効性を実質的に低減できることが示された。
結果を再現するコードはオンラインで入手できる。
関連論文リスト
- Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
機械学習モデルはラベルのフリップ(ラベルのフリップ)に弱い。
サンプルと集合証明書の両方を抽出し,正確な認証手法を提案する。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な証明書を提示しました。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - Defending Against Repetitive Backdoor Attacks on Semi-supervised Learning through Lens of Rate-Distortion-Perception Trade-off [20.713624299599722]
半教師付き学習(SSL)は、わずかなラベル付きデータで顕著なパフォーマンスを達成した。
信頼できないデータの大規模なプールは、データ中毒に極めて脆弱であり、バックドア攻撃につながる可能性がある。
トリガーパターンとターゲットクラスの関係を阻害する新しい手法であるunlabeled Data Purification (UPure)を提案する。
論文 参考訳(メタデータ) (2024-07-14T12:42:11Z) - On the Exploitability of Instruction Tuning [103.8077787502381]
そこで本研究では,モデルの動作を変えるための命令チューニングを,相手がどのように活用できるかを検討する。
自動データ中毒パイプラインである textitAutoPoison を提案する。
結果から、AutoPoisonは、少数のデータだけを中毒することで、敵がモデルの振る舞いを変えることを可能にする。
論文 参考訳(メタデータ) (2023-06-28T17:54:04Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Lethal Dose Conjecture on Data Poisoning [122.83280749890078]
データ中毒は、悪意のある目的のために機械学習アルゴリズムのトレーニングセットを歪ませる敵を考える。
本研究は, 致死線量導出法(Lethal Dose Conjecture)とよばれるデータ中毒の基礎について, 1つの予想を立証するものである。
論文 参考訳(メタデータ) (2022-08-05T17:53:59Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Backdoor Defense via Decoupling the Training Process [46.34744086706348]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では,従来のエンドツーエンドトレーニングプロセスを3段階に分割して,新たなバックドアディフェンスを提案する。
論文 参考訳(メタデータ) (2022-02-05T03:34:01Z) - Learning from Noisy Labels via Dynamic Loss Thresholding [69.61904305229446]
我々はDLT(Dynamic Loss Thresholding)という新しい手法を提案する。
トレーニングプロセス中、DLTは各サンプルの損失値を記録し、動的損失閾値を算出する。
CIFAR-10/100 と Clothing1M の実験は、最近の最先端手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-04-01T07:59:03Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。