論文の概要: Backdoor Mitigation in Deep Neural Networks via Strategic Retraining
- arxiv url: http://arxiv.org/abs/2212.07278v1
- Date: Wed, 14 Dec 2022 15:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 18:10:51.397424
- Title: Backdoor Mitigation in Deep Neural Networks via Strategic Retraining
- Title(参考訳): 戦略的リトレーニングによる深部ニューラルネットワークのバックドア緩和
- Authors: Akshay Dhonthi, Ernst Moritz Hahn, Vahid Hashemi
- Abstract要約: ディープニューラルネットワーク(DNN)は、アシストと自動運転においてますます重要になっている。
特に問題なのは、隠れたバックドアの傾向にあることだ。
本稿では,バックドアを除去する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Neural Networks (DNN) are becoming increasingly more important in
assisted and automated driving. Using such entities which are obtained using
machine learning is inevitable: tasks such as recognizing traffic signs cannot
be developed reasonably using traditional software development methods. DNN
however do have the problem that they are mostly black boxes and therefore hard
to understand and debug. One particular problem is that they are prone to
hidden backdoors. This means that the DNN misclassifies its input, because it
considers properties that should not be decisive for the output. Backdoors may
either be introduced by malicious attackers or by inappropriate training. In
any case, detecting and removing them is important in the automotive area, as
they might lead to safety violations with potentially severe consequences. In
this paper, we introduce a novel method to remove backdoors. Our method works
for both intentional as well as unintentional backdoors. We also do not require
prior knowledge about the shape or distribution of backdoors. Experimental
evidence shows that our method performs well on several medium-sized examples.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、アシストと自動運転においてますます重要になっている。
従来のソフトウェア開発手法では,交通標識の認識などのタスクを合理的に開発することは不可能である。
しかし、DNNには、主にブラックボックスであり、そのため理解とデバッグが難しいという問題がある。
特に問題なのは、バックドアが隠れやすいことだ。
これは、DNNが出力に対して決定的でないプロパティを考えるため、その入力を誤って分類することを意味する。
バックドアは悪意のある攻撃者や不適切な訓練によって導入される。
いずれにしても、自動車分野において、それらの検出と除去は重要であり、それらは潜在的に深刻な影響を伴う安全性違反につながる可能性がある。
本稿では,バックドアを除去する新しい手法を提案する。
我々の手法は意図的かつ意図しないバックドアでも機能する。
バックドアの形状や分布に関する事前の知識も必要ありません。
実験結果から,本手法はいくつかの中規模例において良好な性能を示す。
関連論文リスト
- BeniFul: Backdoor Defense via Middle Feature Analysis for Deep Neural Networks [0.6872939325656702]
提案手法は,グレーボックスのバックドア入力検出とホワイトボックスのバックドア除去という2つの部分から構成される。
CIFAR-10とTiny ImageNetの5つの攻撃に対する実験結果から、我々のBeniFulは、バックドア入力検出とバックドア除去において優れた防御能力を示すことが示された。
論文 参考訳(メタデータ) (2024-10-15T13:14:55Z) - Flatness-aware Sequential Learning Generates Resilient Backdoors [7.969181278996343]
近年、バックドア攻撃は機械学習モデルのセキュリティに対する新たな脅威となっている。
本稿では,連続学習(CL)技術を活用して,バックドアのCFに対処する。
レジリエントなバックドアを生成可能な,SBL(Sequential Backdoor Learning)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-20T03:30:05Z) - AGNES: Abstraction-guided Framework for Deep Neural Networks Security [0.6827423171182154]
ディープニューラルネットワーク(DNN)は、特に安全クリティカルな領域で広く普及している。
1つの応用は、自律運転における画像認識である。
DNNはバックドアに傾向があり、正しい分類とは無関係である画像の属性に集中している。
本稿では,画像認識のためのDNNのバックドア検出ツールAGNESを紹介する。
論文 参考訳(メタデータ) (2023-11-07T14:05:20Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - Backdoor Cleansing with Unlabeled Data [70.29989887008209]
外部訓練されたディープニューラルネットワーク(DNN)は、バックドア攻撃を受ける可能性がある。
トレーニングラベルを必要としない新しい防衛手法を提案する。
ラベルなしで訓練された本手法は,ラベルを用いて訓練した最先端の防御手法と同等である。
論文 参考訳(メタデータ) (2022-11-22T06:29:30Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Backdoors in Neural Models of Source Code [13.960152426268769]
ソースコードの深層学習の文脈でバックドアを研究する。
このようなバックドアをインストールするためにデータセットに毒を盛る方法を示す。
また、バックドアの注入の容易さと、それを除去する能力も示しています。
論文 参考訳(メタデータ) (2020-06-11T21:35:24Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。