論文の概要: L-RED: Efficient Post-Training Detection of Imperceptible Backdoor
Attacks without Access to the Training Set
- arxiv url: http://arxiv.org/abs/2010.09987v2
- Date: Wed, 21 Oct 2020 23:32:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:29:46.901850
- Title: L-RED: Efficient Post-Training Detection of Imperceptible Backdoor
Attacks without Access to the Training Set
- Title(参考訳): L-RED:訓練セットにアクセスできない非受容性バックドア攻撃の検出
- Authors: Zhen Xiang, David J. Miller, George Kesidis
- Abstract要約: バックドアアタック(BA)は、一般的にディープニューラルネットワークイメージ分類器に対する敵攻撃の新たな形態である。
BAに対するリバースエンジニアリングベースのディフェンス(RED)は、トレーニングセットへのアクセスを必要とせず、独立したクリーンデータセットにのみアクセスする。
ラグランジアンベースのRED(L-RED)を提案し、ソースクラスの数(もしくは攻撃が存在するかどうか)の知識を必要としない。
- 参考スコア(独自算出の注目度): 22.22337220509128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks (BAs) are an emerging form of adversarial attack typically
against deep neural network image classifiers. The attacker aims to have the
classifier learn to classify to a target class when test images from one or
more source classes contain a backdoor pattern, while maintaining high accuracy
on all clean test images. Reverse-Engineering-based Defenses (REDs) against BAs
do not require access to the training set but only to an independent clean
dataset. Unfortunately, most existing REDs rely on an unrealistic assumption
that all classes except the target class are source classes of the attack. REDs
that do not rely on this assumption often require a large set of clean images
and heavy computation. In this paper, we propose a Lagrangian-based RED (L-RED)
that does not require knowledge of the number of source classes (or whether an
attack is present). Our defense requires very few clean images to effectively
detect BAs and is computationally efficient. Notably, we detect 56 out of 60
BAs using only two clean images per class in our experiments on CIFAR-10.
- Abstract(参考訳): バックドアアタック(BA)は、一般的にディープニューラルネットワークイメージ分類器に対する敵攻撃の新たな形態である。
攻撃者は、1つ以上のソースクラスからのテストイメージにバックドアパターンが含まれており、クリーンなテストイメージに対して高い精度を維持しながら、ターゲットクラスへの分類を学習させることを目指している。
BAに対するリバースエンジニアリングベースのディフェンス(RED)は、トレーニングセットへのアクセスを必要とせず、独立したクリーンデータセットにのみアクセスする。
残念ながら、既存のREDのほとんどは、ターゲットクラスを除くすべてのクラスが攻撃のソースクラスであるという非現実的な仮定に依存しています。
この仮定に依存しないREDは、しばしば大量のクリーンなイメージと重い計算を必要とする。
本稿では,ソースクラス数(または攻撃の有無)の知識を必要としないラグランジアンベースの赤 (l-red) を提案する。
我々の防御は、BAを効果的に検出するクリーンなイメージをほとんど必要とせず、計算的に効率的である。
特に,cifar-10実験では,クラス毎に2つのクリーンイメージのみを用いて60のbas中56を検出できた。
関連論文リスト
- Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Post-Training Detection of Backdoor Attacks for Two-Class and
Multi-Attack Scenarios [22.22337220509128]
バックドア攻撃(BA)は、ディープニューラルネットワーク分類器に対する新たな脅威である。
本稿では,BPリバースエンジニアリングに基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T22:21:38Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Detecting Backdoor Attacks Against Point Cloud Classifiers [34.14971037420606]
ポイントクラウド(PC)分類器に対する最初のBAが提案され、自律運転を含む多くの重要なアプリケーションに対する新たな脅威が生まれた。
本稿では,PC分類器がトレーニングセットにアクセスすることなく,バックドア攻撃であるかどうかを推定するリバースエンジニアリングディフェンスを提案する。
本研究の有効性を,PC用ベンチマークModeNet40データセットで実証した。
論文 参考訳(メタデータ) (2021-10-20T03:12:06Z) - Backdoor Attacks on Self-Supervised Learning [22.24046752858929]
自己教師型学習手法は,バックドア攻撃に対して脆弱であることを示す。
攻撃者は、画像に小さなトリガー(攻撃者として知られる)を追加することで、ラベルのないデータの一部を毒する。
本稿では,攻撃を中和する知識蒸留に基づく防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-21T04:22:05Z) - Reverse Engineering Imperceptible Backdoor Attacks on Deep Neural
Networks for Detection and Training Set Cleansing [22.22337220509128]
バックドアデータ中毒は、ディープニューラルネットワークイメージ分類器に対する敵攻撃の新たな形態である。
本稿では,非受容的なバックドアパターンを用いたバックドア攻撃の防御において,ブレークスルーを行う。
1)トレーニングセットが毒であるかどうかを検知し,2)ターゲットクラスとトレーニングイメージをバックドアパターンを埋め込んだ状態で識別し,3)攻撃者が使用するバックドアパターンの推定をリバースエンジニアリングする。
論文 参考訳(メタデータ) (2020-10-15T03:12:24Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。