論文の概要: Model-Contrastive Learning for Backdoor Defense
- arxiv url: http://arxiv.org/abs/2205.04411v1
- Date: Mon, 9 May 2022 16:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 16:13:06.675477
- Title: Model-Contrastive Learning for Backdoor Defense
- Title(参考訳): バックドア防御のためのモデル-コントラスト学習
- Authors: Zhihao Yue, Jun Xia, Zhiwei Ling, Ting Wang, Xian Wei, Mingsong Chen
- Abstract要約: モデル・コントラスト学習に基づく新しいバックドア・ディフェンス手法 MCL を提案する。
MCLは、良質なデータの高い精度を維持しながら、バックドアの脅威を減らすのに効果的である。
- 参考スコア(独自算出の注目度): 13.781375023320981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Along with the popularity of Artificial Intelligence (AI) techniques, an
increasing number of backdoor injection attacks are designed to maliciously
threaten Deep Neural Networks (DNNs) deployed in safety-critical systems.
Although there exist various defense methods that can effectively erase
backdoor triggers from DNNs, they still greatly suffer from a non-negligible
Attack Success Rate (ASR) as well as a major loss in benign accuracy. Inspired
by the observation that a backdoored DNN will form new clusters in its feature
space for poisoned data, in this paper we propose a novel backdoor defense
method named MCL based on model-contrastive learning. Specifically,
model-contrastive learning to implement backdoor defense consists of two steps.
First, we use the backdoor attack trigger synthesis technique to invert the
trigger. Next, the inversion trigger is used to construct poisoned data, so
that model-contrastive learning can be used, which makes the feature
representations of poisoned data close to that of the benign data while staying
away from the original poisoned feature representations. Through extensive
experiments against five start-of-the-art attack methods on multiple benchmark
datasets, using only 5% of clean data, MCL is more effective for reducing
backdoor threats while maintaining higher accuracy of benign data. MCL can make
the benign accuracy degenerate by less than 1%.
- Abstract(参考訳): 人工知能(AI)技術の普及に伴い、安全クリティカルなシステムに配備されたディープニューラルネットワーク(DNN)を悪質に脅かすようなバックドアインジェクション攻撃が増えている。
DNNからのバックドアトリガーを効果的に消去できる様々な防御方法が存在するが、それらは依然として非無視的なアタック成功率(ASR)と、良心的正確性に大きな損失を被っている。
本稿では,dnnが有毒データのための機能空間に新たなクラスターを形成するという観測に触発されて,mclと呼ばれる新しいバックドア防御法を提案する。
具体的には、バックドアディフェンスを実装するためのモデルコントラスト学習は、2つのステップから構成される。
まず、バックドア攻撃トリガー合成技術を用いてトリガーを反転させる。
次に、インバージョントリガーは、毒付きデータの構築に使用され、モデル-コントラスト学習が利用可能であり、元の毒付き特徴表現から離れながら、毒付きデータの特徴表現を良性データのそれに近いものにすることができる。
複数のベンチマークデータセットにおける5つの攻撃方法に対する広範囲な実験を通じて、クリーンデータのわずか5%を使用して、mclは良性データの精度を維持しつつバックドアの脅威を減らすのにより効果的である。
MCLは良性精度を1%以下に縮退させることができる。
関連論文リスト
- "No Matter What You Do!": Mitigating Backdoor Attacks in Graph Neural Networks [33.07926413485209]
GNNのバックドア攻撃は、攻撃者がトリガーを埋め込むことでグラフデータの一部を修正したという事実にある。
GNNにおける最初のバックドア緩和手法であるGCleanerを提案する。
GCleanerは、クリーンデータのわずか1%でバックドア攻撃の成功率を10%に下げることができ、ほぼ無視できるモデル性能の低下がある。
論文 参考訳(メタデータ) (2024-10-02T06:30:49Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - UNIT: Backdoor Mitigation via Automated Neural Distribution Tightening [43.09750187130803]
ディープニューラルネットワーク(DNN)は様々な分野で有効性を示している。
DNNはバックドアアタックに対して脆弱で、インプットにトリガーと呼ばれるユニークなパターンを注入することで、アタック・チョーゼンターゲットラベルの誤分類を引き起こす。
本稿では, 各種攻撃に対するバックドア効果を効果的に除去する, ポストトレーニング防衛技術を紹介する。
論文 参考訳(メタデータ) (2024-07-16T04:33:05Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Handcrafted Backdoors in Deep Neural Networks [33.21980707457639]
トレーニング済みモデルのパラメータを直接操作してバックドアを注入する手工芸攻撃を導入する。
バックドアは4つのデータセットと4つのネットワークアーキテクチャで有効であり、成功率は96%を超えています。
以上の結果から,サプライチェーンバックドア攻撃の完全な空間を理解するためには,さらなる研究が必要であることが示唆された。
論文 参考訳(メタデータ) (2021-06-08T20:58:23Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。