論文の概要: Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware
- arxiv url: http://arxiv.org/abs/2008.00123v2
- Date: Wed, 3 Feb 2021 19:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:03:34.595196
- Title: Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware
- Title(参考訳): 深部ニューラルネットワークの雑音応答解析によるロバスト性及び指紋構造マルウェアの定量化
- Authors: N. Benjamin Erichson, Dane Taylor, Qixuan Wu and Michael W. Mahoney
- Abstract要約: ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
- 参考スコア(独自算出の注目度): 48.7072217216104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ubiquity of deep neural networks (DNNs), cloud-based training, and
transfer learning is giving rise to a new cybersecurity frontier in which
unsecure DNNs have `structural malware' (i.e., compromised weights and
activation pathways). In particular, DNNs can be designed to have backdoors
that allow an adversary to easily and reliably fool an image classifier by
adding a pattern of pixels called a trigger. It is generally difficult to
detect backdoors, and existing detection methods are computationally expensive
and require extensive resources (e.g., access to the training data). Here, we
propose a rapid feature-generation technique that quantifies the robustness of
a DNN, `fingerprints' its nonlinearity, and allows us to detect backdoors (if
present). Our approach involves studying how a DNN responds to noise-infused
images with varying noise intensity, which we summarize with titration curves.
We find that DNNs with backdoors are more sensitive to input noise and respond
in a characteristic way that reveals the backdoor and where it leads (its
`target'). Our empirical results demonstrate that we can accurately detect
backdoors with high confidence orders-of-magnitude faster than existing
approaches (seconds versus hours).
- Abstract(参考訳): ディープニューラルネットワーク(DNN)、クラウドベースのトレーニング、および転送学習の普及により、安全でないDNNが'構造的マルウェア'(すなわち、重みとアクティベーションパス)を持つ新たなサイバーセキュリティフロンティアが生まれている。
特に、dnnはトリガーと呼ばれるピクセルのパターンを追加することで、敵が簡単に確実に画像分類器を騙すことができるバックドアを持つように設計できる。
一般的にバックドアの検出は困難であり、既存の検出方法は計算コストが高く、広範なリソースを必要とする(トレーニングデータへのアクセスなど)。
本稿では,DNNのロバスト性,「フィンガープリント」の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
提案手法では,ノイズインフュージョン画像に対するdnnの応答を,ノイズインテンシティを変化させて検討する。
バックドアを持つDNNは、入力ノイズに対してより敏感であり、バックドアとそれが導く場所を明らかにする特徴的な方法で応答する("ターゲット")。
実験の結果,既存の手法(秒対時間)よりも高い信頼度でバックドアを正確に検出できることがわかった。
関連論文リスト
- Advancing Security in AI Systems: A Novel Approach to Detecting
Backdoors in Deep Neural Networks [3.489779105594534]
バックドアは、ディープニューラルネットワーク(DNN)上の悪意あるアクターと、データ処理のためのクラウドサービスによって悪用される。
提案手法は高度テンソル分解アルゴリズムを利用して,事前学習したDNNの重みを慎重に解析し,バックドアモデルとクリーンモデルとの区別を行う。
この進歩は、ネットワークシステムにおけるディープラーニングとAIのセキュリティを強化し、新興技術の脅威の進化に対して不可欠なサイバーセキュリティを提供する。
論文 参考訳(メタデータ) (2024-03-13T03:10:11Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks [6.44397009982949]
本稿では,事前訓練したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これはトレーニングデータを必要としないなど、多くのメリットがある。
提案手法は, 競合するアルゴリズムよりも効率性が高く, より正確であり, 深層学習とAIの安全な適用を確実にするのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T20:20:18Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Verifying Neural Networks Against Backdoor Attacks [7.5033553032683855]
特定のニューラルネットワークが一定の成功率でバックドアのないかどうかを検証するためのアプローチを提案する。
実験結果から,バックドアの欠如やバックドアのトリガの発生を効果的に検証できることが示唆された。
論文 参考訳(メタデータ) (2022-05-14T07:25:54Z) - Adversarial Neuron Pruning Purifies Backdoored Deep Models [24.002034537777526]
アドリアリンプルーニング(英語版) (ANP) は、明らかな性能低下を引き起こすことなく、効果的に注入されたバックドアを除去する。
そこで本研究では, 感応性ニューロンをプルークし, 注入したバックドアを浄化する新しいモデル修復法, ANP (Adrial Neuron Pruning) を提案する。
論文 参考訳(メタデータ) (2021-10-27T13:41:53Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。