論文の概要: Verifying Neural Networks Against Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2205.06992v1
- Date: Sat, 14 May 2022 07:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 05:30:29.679116
- Title: Verifying Neural Networks Against Backdoor Attacks
- Title(参考訳): バックドア攻撃に対するニューラルネットワークの検証
- Authors: Long H. Pham and Jun Sun
- Abstract要約: 特定のニューラルネットワークが一定の成功率でバックドアのないかどうかを検証するためのアプローチを提案する。
実験結果から,バックドアの欠如やバックドアのトリガの発生を効果的に検証できることが示唆された。
- 参考スコア(独自算出の注目度): 7.5033553032683855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have achieved state-of-the-art performance in solving many
problems, including many applications in safety/security-critical systems.
Researchers also discovered multiple security issues associated with neural
networks. One of them is backdoor attacks, i.e., a neural network may be
embedded with a backdoor such that a target output is almost always generated
in the presence of a trigger. Existing defense approaches mostly focus on
detecting whether a neural network is 'backdoored' based on heuristics, e.g.,
activation patterns. To the best of our knowledge, the only line of work which
certifies the absence of backdoor is based on randomized smoothing, which is
known to significantly reduce neural network performance. In this work, we
propose an approach to verify whether a given neural network is free of
backdoor with a certain level of success rate. Our approach integrates
statistical sampling as well as abstract interpretation. The experiment results
show that our approach effectively verifies the absence of backdoor or
generates backdoor triggers.
- Abstract(参考訳): ニューラルネットワークは、安全/セキュリティクリティカルシステムにおける多くのアプリケーションを含む多くの問題を解決することで、最先端のパフォーマンスを達成している。
研究者は、ニューラルネットワークに関連する複数のセキュリティ問題も発見した。
そのうちの1つはバックドア攻撃であり、すなわち、ニューラルネットワークをバックドアに埋め込んで、ターゲット出力がトリガーの存在下でほぼ常に生成されるようにすることができる。
既存の防御アプローチは主に、ニューラルネットワークが活性化パターンなどのヒューリスティックに基づいて「バックドア」されているかどうかを検出することに焦点を当てている。
我々の知る限りでは、バックドアの欠如を証明する唯一の作業行は、ニューラルネットワークの性能を著しく低下させることで知られているランダム化スムース化に基づいている。
本研究では,あるニューラルネットワークが一定の成功率でバックドアから解放されているかどうかを検証するアプローチを提案する。
本手法は,統計的サンプリングと抽象解釈を統合した。
実験の結果,提案手法はバックドアの欠如を効果的に検証し,バックドアトリガーを生成する。
関連論文リスト
- Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - AEVA: Black-box Backdoor Detection Using Adversarial Extreme Value
Analysis [23.184335982913325]
ブラックボックスのハードラベルバックドア検出問題に対処する。
本研究では, バックドア検出の目的は, 逆方向の目的によって拘束されていることを示す。
ブラックボックスニューラルネットワークのバックドア検出のための対向的極値解析を提案する。
論文 参考訳(メタデータ) (2021-10-28T04:36:48Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Can You Hear It? Backdoor Attacks via Ultrasonic Triggers [31.147899305987934]
本研究では,自動音声認識システムへのバックドア攻撃の選択肢について検討する。
以上の結果から, 毒性データの1%未満は, バックドア攻撃の実施に十分であり, 100%攻撃成功率に達することが示唆された。
論文 参考訳(メタデータ) (2021-07-30T12:08:16Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。