論文の概要: Detecting Backdoor Poisoning Attacks on Deep Neural Networks by Heatmap
Clustering
- arxiv url: http://arxiv.org/abs/2204.12848v1
- Date: Wed, 27 Apr 2022 11:17:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 18:24:57.136482
- Title: Detecting Backdoor Poisoning Attacks on Deep Neural Networks by Heatmap
Clustering
- Title(参考訳): ヒートマップクラスタリングによる深部ニューラルネットワークのバックドア攻撃検出
- Authors: Lukas Schulth, Christian Berghoff, Matthias Neu
- Abstract要約: 本研究では,適切な検出手法について検討し,ヒートマップクラスタリングと呼ばれる新しい手法を提案する。
目標は、データセット内の無毒データから有毒データを分離することだ。
ヒートマップクラスタリングは、アクティベーションクラスタリングよりも一貫してパフォーマンスが良いことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicitions made by neural networks can be fraudulently altered by so-called
poisoning attacks. A special case are backdoor poisoning attacks. We study
suitable detection methods and introduce a new method called Heatmap
Clustering. There, we apply a $k$-means clustering algorithm on heatmaps
produced by the state-of-the-art explainable AI method Layer-wise relevance
propagation. The goal is to separate poisoned from un-poisoned data in the
dataset. We compare this method with a similar method, called Activation
Clustering, which also uses $k$-means clustering but applies it on the
activation of certain hidden layers of the neural network as input. We test the
performance of both approaches for standard backdoor poisoning attacks,
label-consistent poisoning attacks and label-consistent poisoning attacks with
reduced amplitude stickers. We show that Heatmap Clustering consistently
performs better than Activation Clustering. However, when considering
label-consistent poisoning attacks, the latter method also yields good
detection performance.
- Abstract(参考訳): ニューラルネットワークによる予測は、いわゆる毒殺攻撃によって不正に変更される可能性がある。
特殊な事件は 裏口の毒殺攻撃だ。
適切な検出法を検討し,ヒートマップクラスタリングと呼ばれる新しい手法を提案する。
そこで,最先端説明可能なai手法による熱マップに対して,k$-meansクラスタリングアルゴリズムを適用した。
目標は、データセット内の無毒データから有毒データを分離することだ。
我々は、この手法を、$k$-meansクラスタリングを使用するActivation Clusteringと呼ばれる類似の手法と比較するが、ニューラルネットワークの特定の隠れレイヤの活性化に応用する。
本研究は,標準バックドア中毒攻撃,ラベル持続毒攻撃,ラベル持続毒攻撃,振幅ステッカーの低減によるラベル持続毒攻撃の両手法の性能を検証した。
ヒートマップクラスタリングは、アクティベーションクラスタリングよりも一貫して優れたパフォーマンスを示す。
しかし,ラベルに耐性のある中毒攻撃を考慮すると,後者は検出性能も良好である。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - A clean-label graph backdoor attack method in node classification task [2.2568730034659725]
本稿では,クリーンラベルグラフバックドア攻撃法(CGBA)を提案する。
中毒率が0.04のとき、CGBAは平均攻撃成功率87.8%、98.9%、89.1%、98.5%を達成できる。
論文 参考訳(メタデータ) (2023-12-30T07:58:19Z) - Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [65.44477004525231]
研究者は最近、自己監視学習(SSL)がバックドア攻撃に脆弱であることを発見した。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
ImageNet-100の最先端手法の3%と比較して,バックドアトリガ検出の精度は96%であった。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - Improved Activation Clipping for Universal Backdoor Mitigation and
Test-Time Detection [27.62279831135902]
ディープニューラルネットワークは、攻撃者がバックドアトリガーでトレーニングセットに毒を盛るトロイア攻撃に対して脆弱である。
近年の研究では、バックドア中毒は攻撃されたモデルにおいて過剰な適合(通常、大きな活性化)を引き起こすことが示されている。
我々は、分類マージンを明示的に制限するためにアクティベーション境界を選択する新しいアプローチを考案する。
論文 参考訳(メタデータ) (2023-08-08T22:47:39Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Indiscriminate Data Poisoning Attacks on Neural Networks [28.09519873656809]
データ中毒攻撃は、トレーニングプロセスに "poisoned" データを注入することで、モデルに影響を与えることを目的としている。
既存の毒殺攻撃を詳しく調べて、Stackelbergのシーケンシャルゲームを解くための、古いアルゴリズムと新しいアルゴリズムを結びつける。
本稿では,近代的な自動微分パッケージを有効利用し,同時に有毒点を生成するための効率的な実装を提案する。
論文 参考訳(メタデータ) (2022-04-19T18:57:26Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。