論文の概要: Intrinsic Certified Robustness of Bagging against Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2008.04495v7
- Date: Wed, 9 Dec 2020 21:44:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 12:30:46.220528
- Title: Intrinsic Certified Robustness of Bagging against Data Poisoning Attacks
- Title(参考訳): データ中毒攻撃に対する袋詰の固有認定ロバスト性
- Authors: Jinyuan Jia and Xiaoyu Cao and Neil Zhenqiang Gong
- Abstract要約: emphdata中毒攻撃では、攻撃者は学習した機械学習モデルを破損させるためにいくつかのトレーニング例を変更し、削除し、または挿入する。
データ中毒攻撃に対するバッグングの本質的確固たる堅牢性を証明する。
本手法は, 任意の修正, 削除, 挿入を行う場合, MNIST 上で 911.1% の精度を達成している。
- 参考スコア(独自算出の注目度): 75.46678178805382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a \emph{data poisoning attack}, an attacker modifies, deletes, and/or
inserts some training examples to corrupt the learnt machine learning model.
\emph{Bootstrap Aggregating (bagging)} is a well-known ensemble learning
method, which trains multiple base models on random subsamples of a training
dataset using a base learning algorithm and uses majority vote to predict
labels of testing examples. We prove the intrinsic certified robustness of
bagging against data poisoning attacks. Specifically, we show that bagging with
an arbitrary base learning algorithm provably predicts the same label for a
testing example when the number of modified, deleted, and/or inserted training
examples is bounded by a threshold. Moreover, we show that our derived
threshold is tight if no assumptions on the base learning algorithm are made.
We evaluate our method on MNIST and CIFAR10. For instance, our method achieves
a certified accuracy of $91.1\%$ on MNIST when arbitrarily modifying, deleting,
and/or inserting 100 training examples. Code is available at:
\url{https://github.com/jjy1994/BaggingCertifyDataPoisoning}.
- Abstract(参考訳): emph{data poisoning attack}では、アタッカーがトレーニング例を修正、削除、挿入し、学習した機械学習モデルを破損させる。
emph{bootstrap aggregating (bagging)"はよく知られたアンサンブル学習手法であり、ベース学習アルゴリズムを使用してトレーニングデータセットのランダムなサブサンプル上で複数のベースモデルをトレーニングし、多数決でテスト例のラベルを予測する。
データ中毒攻撃に対するバッグングの本質的確固たる堅牢性を証明する。
具体的には、任意のベースラーニングアルゴリズムによるバッグングが、修正、削除、/または挿入されたトレーニング例の数が閾値で制限されている場合、テスト例で同じラベルを確実に予測することを示す。
さらに,ベース学習アルゴリズムの仮定が成立しない場合,提案手法のしきい値が厳密であることを示す。
MNISTとCIFAR10について検討した。
例えば、任意の変更、削除、および/または100のトレーニング例を挿入する場合、mnistの認証精度は91.1\%である。
コードは \url{https://github.com/jjy1994/baggingcertifydatapoisoning} で入手できる。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - On the Exploitability of Instruction Tuning [103.8077787502381]
そこで本研究では,モデルの動作を変えるための命令チューニングを,相手がどのように活用できるかを検討する。
自動データ中毒パイプラインである textitAutoPoison を提案する。
結果から、AutoPoisonは、少数のデータだけを中毒することで、敵がモデルの振る舞いを変えることを可能にする。
論文 参考訳(メタデータ) (2023-06-28T17:54:04Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - DAD: Data-free Adversarial Defense at Test Time [21.741026088202126]
ディープモデルは敵の攻撃に非常に敏感である。
プライバシは、トレーニングデータではなく、トレーニングされたモデルのみへのアクセスを制限する、重要な関心事になっている。
我々は,「訓練データと統計値の欠如によるテスト時敵防衛」という全く新しい問題を提案する。
論文 参考訳(メタデータ) (2022-04-04T15:16:13Z) - Identifying a Training-Set Attack's Target Using Renormalized Influence
Estimation [11.663072799764542]
本研究は、特定のテストインスタンスがトレーニングセットアタックのターゲットであるかどうかを判定するターゲット識別タスクを提案する。
単一の攻撃方法やデータモダリティではなく、各トレーニングインスタンスのモデル予測への貢献度を定量化するインフルエンス推定に基づいて構築する。
論文 参考訳(メタデータ) (2022-01-25T02:36:34Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Towards optimally abstaining from prediction [22.937799541125607]
機械学習のあらゆる領域に共通する課題は、トレーニングデータがテストデータのように分散されていないことだ。
一定のコストで予測を控えるモデルを考える。
我々は、Goldwasser、Kalais、Montasser(2020年)の最近の禁断アルゴリズムに基づいて、トランスダクティブバイナリ分類を行った。
論文 参考訳(メタデータ) (2021-05-28T21:44:48Z) - Poisoning the Unlabeled Dataset of Semi-Supervised Learning [26.093821359987224]
ラベルなしのデータセットを変更する中毒攻撃:我々は、脆弱性の新しいクラスを研究します。
有用にするために、ラベルなしデータセットはラベル付きデータセットよりも厳密にレビューが少なくなる。
我々の攻撃はデータセットや半教師付き学習手法で非常に効果的です。
論文 参考訳(メタデータ) (2021-05-04T16:55:20Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。