論文の概要: Anti-Backdoor Learning: Training Clean Models on Poisoned Data
- arxiv url: http://arxiv.org/abs/2110.11571v1
- Date: Fri, 22 Oct 2021 03:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 01:32:55.620186
- Title: Anti-Backdoor Learning: Training Clean Models on Poisoned Data
- Title(参考訳): アンチバックドア学習:中毒データによるクリーンモデルのトレーニング
- Authors: Yige Li, Xixiang Lyu, Nodens Koren, Lingjuan Lyu, Bo Li, Xingjun Ma
- Abstract要約: ディープニューラルネットワーク(DNN)に対するセキュリティ上の脅威としてバックドア攻撃が出現
本稿では,裏打ちされたデータに基づいてクリーンなモデルをトレーニングすることを目的とした,アンファンティ・バックドア学習の概念を紹介する。
バックドアポゾンデータ上でのABL学習モデルは、純粋にクリーンなデータでトレーニングされたのと同じ性能を実証的に示す。
- 参考スコア(独自算出の注目度): 17.648453598314795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attack has emerged as a major security threat to deep neural
networks (DNNs). While existing defense methods have demonstrated promising
results on detecting and erasing backdoor triggers, it is still not clear if
measures can be taken to avoid the triggers from being learned into the model
in the first place. In this paper, we introduce the concept of
\emph{anti-backdoor learning}, of which the aim is to train clean models on
backdoor-poisoned data. We frame the overall learning process as a dual-task of
learning the clean portion of data and learning the backdoor portion of data.
From this view, we identify two inherent characteristics of backdoor attacks as
their weaknesses: 1) the models learn backdoored data at a much faster rate
than learning clean data, and the stronger the attack the faster the model
converges on backdoored data; and 2) the backdoor task is tied to a specific
class (the backdoor target class). Based on these two weaknesses, we propose a
general learning scheme, Anti-Backdoor Learning (ABL), to automatically prevent
backdoor attacks during training. ABL introduces a two-stage \emph{gradient
ascent} mechanism into standard training to 1) help isolate backdoor examples
at an early training stage, and 2) break the correlation between backdoor
examples and the target class at a later training stage. Through extensive
experiments on multiple benchmark datasets against 10 state-of-the-art attacks,
we empirically show that ABL-trained models on backdoor-poisoned data achieve
the same performance as they were trained on purely clean data. Code is
available at \underline{https://github.com/bboylyg/ABL}.
- Abstract(参考訳): バックドア攻撃はディープニューラルネットワーク(DNN)に対する主要なセキュリティ脅威として浮上している。
既存の防衛手法はバックドアトリガの検出と消去に有望な結果を示してきたが、そもそもトリガがモデルに学習されることを避けるための措置がとれるかは明らかになっていない。
本稿では,バックドア汚染データを用いたクリーンモデルの学習を目的とした,emph{anti-backdoor learning}の概念を紹介する。
学習プロセス全体を、データのクリーンな部分を学び、データのバックドア部分を学ぶための2つのタスクとして捉えています。
この観点から、バックドア攻撃の2つの特徴を弱点として認識する。
1)モデルはクリーンなデータを学ぶよりもずっと速い速度でバックドア付きデータを学習し,攻撃が強ければ早いほどバックドア付きデータに収束する。
2) バックドアタスクは特定のクラス(バックドアターゲットクラス)に結び付けられます。
これら2つの弱点に基づき、トレーニング中のバックドア攻撃を自動的に防止する一般的な学習手法であるアンチバックドア学習(ABL)を提案する。
ablは標準的なトレーニングに2段階の\emph{gradient ascent}メカニズムを導入
1)早期研修段階におけるバックドア事例の分離を支援し,
2)後段の訓練段階において,バックドア例と対象クラスとの相関関係を破る。
10回の最先端攻撃に対する複数のベンチマークデータセットの広範囲な実験を通じて、ablで訓練されたモデルが純粋にクリーンなデータでトレーニングされたデータと同等のパフォーマンスを達成できることを実証的に示した。
コードは \underline{https://github.com/bboylyg/ABL} で入手できる。
関連論文リスト
- End-to-End Anti-Backdoor Learning on Images and Time Series [34.02071390659078]
バックドア攻撃は、ディープラーニングモデルに重大なセキュリティ上の懸念をもたらす。
本稿では、アンチ・バックドア・ラーニング(ABL)を基盤として、革新的な手法であるエンド・ツー・エンド・アンチ・バックドア・ラーニング(E2ABL)を提案する。
E2ABLがDeep Neural Network(DNN)にリンクした追加の分類ヘッドを通じてエンドツーエンドのトレーニングを達成
論文 参考訳(メタデータ) (2024-01-06T13:34:07Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Defense via Adaptively Splitting Poisoned Dataset [57.70673801469096]
バックドアの防御は、ディープニューラルネットワーク(DNN)がバックドアを攻撃され、悪意ある変更を受けていることの脅威を軽減するために研究されている。
トレーニング時間防衛の核心は, 有毒な試料を選別し, 適切な処理を行うことである。
本フレームワークでは,適応的分割型データセットベースディフェンス(ASD)を提案する。
論文 参考訳(メタデータ) (2023-03-23T02:16:38Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Backdoor Cleansing with Unlabeled Data [70.29989887008209]
外部訓練されたディープニューラルネットワーク(DNN)は、バックドア攻撃を受ける可能性がある。
トレーニングラベルを必要としない新しい防衛手法を提案する。
ラベルなしで訓練された本手法は,ラベルを用いて訓練した最先端の防御手法と同等である。
論文 参考訳(メタデータ) (2022-11-22T06:29:30Z) - Can Backdoor Attacks Survive Time-Varying Models? [35.836598031681426]
バックドアはディープニューラルネットワーク(DNN)に対する強力な攻撃
バックドア攻撃が時間変化DNNモデルのより現実的なシナリオに与える影響について検討する。
以上の結果から, ワンショットバックドア攻撃は, 数回のモデル更新以降は生き残らないことが明らかとなった。
論文 参考訳(メタデータ) (2022-06-08T01:32:49Z) - Textual Backdoor Attacks Can Be More Harmful via Two Simple Tricks [58.0225587881455]
本稿では,既存のテキストバックドア攻撃をより有害にするための2つの簡単な手法を見出す。
最初のトリックは、被害者モデルのトレーニング中に毒や清潔なデータを識別するための追加のトレーニングタスクを追加することです。
2つ目は、汚染データに対応する元のクリーンデータを削除するのではなく、すべてのクリーンなトレーニングデータを使用することである。
論文 参考訳(メタデータ) (2021-10-15T17:58:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Reflection Backdoor: A Natural Backdoor Attack on Deep Neural Networks [46.99548490594115]
バックドア攻撃は、バックドアパターンをトレーニングデータのごく一部に注入することにより、バックドアを被害者モデルにインストールする。
被害者モデルにバックドアとして反射を植え付けるための反射バックドア(Refool)を提案する。
Refoolは最先端のDNNを高い成功率で攻撃することができる。
論文 参考訳(メタデータ) (2020-07-05T13:56:48Z) - Blind Backdoors in Deep Learning Models [22.844973592524966]
本稿では,機械学習モデルにバックドアを注入する新しい手法について検討する。
従来の文献よりも厳格に強力なバックドアの新たなクラスを実証するために使用しています。
攻撃者はトレーニングデータを変更したり、コードの実行を観察したり、結果のモデルにアクセスしたりすることができません。
論文 参考訳(メタデータ) (2020-05-08T02:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。