論文の概要: Universal Detection of Backdoor Attacks via Density-based Clustering and
Centroids Analysis
- arxiv url: http://arxiv.org/abs/2301.04554v1
- Date: Wed, 11 Jan 2023 16:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 14:12:07.703474
- Title: Universal Detection of Backdoor Attacks via Density-based Clustering and
Centroids Analysis
- Title(参考訳): 密度クラスタリングとセントロイド解析によるバックドア攻撃の普遍的検出
- Authors: Wei Guo, Benedetta Tondi, Mauro Barni
- Abstract要約: バックドア攻撃に対するクラスタリングとセントロイド分析(CCA-UD)に基づくユニバーサルディフェンスを提案する。
提案したディフェンスの目的は、トレーニングデータセットを検査することで、ディープニューラルネットワークモデルがバックドア攻撃の対象になるかどうかを明らかにすることである。
- 参考スコア(独自算出の注目度): 41.735725886912185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a Universal Defence based on Clustering and
Centroids Analysis (CCA-UD) against backdoor attacks. The goal of the proposed
defence is to reveal whether a Deep Neural Network model is subject to a
backdoor attack by inspecting the training dataset. CCA-UD first clusters the
samples of the training set by means of density-based clustering. Then, it
applies a novel strategy to detect the presence of poisoned clusters. The
proposed strategy is based on a general misclassification behaviour obtained
when the features of a representative example of the analysed cluster are added
to benign samples. The capability of inducing a misclassification error is a
general characteristic of poisoned samples, hence the proposed defence is
attack-agnostic. This mask a significant difference with respect to existing
defences, that, either can defend against only some types of backdoor attacks,
e.g., when the attacker corrupts the label of the poisoned samples, or are
effective only when some conditions on the poisoning ratios adopted by the
attacker or the kind of triggering pattern used by the attacker are satisfied.
Experiments carried out on several classification tasks, considering different
types of backdoor attacks and triggering patterns, including both local and
global triggers, reveal that the proposed method is very effective to defend
against backdoor attacks in all the cases, always outperforming the state of
the art techniques.
- Abstract(参考訳): 本稿では,クラスタリングとCentroids Analysis(CCA-UD)に基づくバックドア攻撃に対するユニバーサルディフェンスを提案する。
提案する防御の目的は、深層ニューラルネットワークモデルが、トレーニングデータセットを検査することによってバックドア攻撃を受けるかどうかを明らかにすることである。
CCA-UDはまず、密度ベースのクラスタリングによってトレーニングセットのサンプルをクラスタ化する。
そして、有毒なクラスターの存在を検出するための新しい戦略を適用する。
提案手法は,分析クラスタの代表的な例の特徴を良質なサンプルに加えた場合に得られる一般的な誤分類行動に基づく。
誤分類エラーを誘発する能力は、有毒サンプルの一般的な特徴であるため、提案された防御は攻撃に依存しない。
このマスクは、例えば、攻撃者が汚染されたサンプルのラベルを破損させた場合や、攻撃者が採用した中毒率や攻撃者が使用するトリガーパターンの条件が満たされた場合にのみ有効であるような、いくつかの種類のバックドアアタックに対して防御することができる。
様々な種類のバックドア攻撃を考慮し,局所的および大域的トリガを含むトリガーパターンを検討した結果,提案手法は,すべてのケースにおいてバックドア攻撃に対する防御に非常に有効であり,常に美術技術の状態を上回っていることが明らかとなった。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Attacking Important Pixels for Anchor-free Detectors [47.524554948433995]
物体検出に対する既存の敵攻撃は、アンカーベース検出器の攻撃に焦点を当てている。
本研究では,アンカーフリー検出器を指向した最初の対向攻撃を提案する。
提案手法は,オブジェクト検出と人間のポーズ推定の両タスクにおいて,最先端の攻撃性能と伝達性を実現する。
論文 参考訳(メタデータ) (2023-01-26T23:03:03Z) - Adaptive Perturbation Generation for Multiple Backdoors Detection [29.01715186371785]
本稿では,複数種類のバックドア攻撃を検出するための適応摂動生成(APG)フレームワークを提案する。
まず,複数種類のバックドアトリガに適合するグローバル・ローカル戦略を設計する。
摂動注入の効率をさらに高めるため,勾配誘導マスク生成戦略を導入する。
論文 参考訳(メタデータ) (2022-09-12T13:37:06Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。