論文の概要: Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks
- arxiv url: http://arxiv.org/abs/2212.08121v1
- Date: Thu, 15 Dec 2022 20:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:37:21.428166
- Title: Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks
- Title(参考訳): ディープネットワークの重み付けに行列分解を適用したコンピュータビジョンにおけるバックドアアタック検出
- Authors: Khondoker Murad Hossain, Tim Oates
- Abstract要約: 本稿では,事前訓練したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これはトレーニングデータを必要としないなど、多くのメリットがある。
提案手法は, 競合するアルゴリズムよりも効率性が高く, より正確であり, 深層学習とAIの安全な適用を確実にするのに役立つ。
- 参考スコア(独自算出の注目度): 6.44397009982949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing importance of both deep neural networks (DNNs) and cloud
services for training them means that bad actors have more incentive and
opportunity to insert backdoors to alter the behavior of trained models. In
this paper, we introduce a novel method for backdoor detection that extracts
features from pre-trained DNN's weights using independent vector analysis (IVA)
followed by a machine learning classifier. In comparison to other detection
techniques, this has a number of benefits, such as not requiring any training
data, being applicable across domains, operating with a wide range of network
architectures, not assuming the nature of the triggers used to change network
behavior, and being highly scalable. We discuss the detection pipeline, and
then demonstrate the results on two computer vision datasets regarding image
classification and object detection. Our method outperforms the competing
algorithms in terms of efficiency and is more accurate, helping to ensure the
safe application of deep learning and AI.
- Abstract(参考訳): トレーニングにおけるディープニューラルネットワーク(DNN)とクラウドサービスの重要性の増大は、トレーニングされたモデルの振る舞いを変えるためのバックドアを挿入するインセンティブと機会を、悪いアクターがより多く持っていることを意味する。
本稿では,独立ベクトル解析(IVA)と機械学習分類器を用いて,事前学習したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これは、いかなるトレーニングデータも必要とせず、ドメインを越えて適用でき、広範囲のネットワークアーキテクチャで運用でき、ネットワークの振る舞いを変えるトリガの性質を前提とせず、高度にスケーラブルである、といった多くの利点がある。
検出パイプラインについて検討し,画像分類と物体検出に関する2つのコンピュータビジョンデータセットで結果を示す。
提案手法は,効率性において競合するアルゴリズムよりも優れ,より正確であり,ディープラーニングとAIの安全な適用を確実にするのに役立つ。
関連論文リスト
- Enhanced Convolution Neural Network with Optimized Pooling and Hyperparameter Tuning for Network Intrusion Detection [0.0]
ネットワーク侵入検知システム(NIDS)のための拡張畳み込みニューラルネットワーク(EnCNN)を提案する。
我々はEnCNNと、ロジスティック回帰、決定木、サポートベクトルマシン(SVM)、ランダムフォレスト、AdaBoost、Votting Ensembleといったアンサンブル手法など、さまざまな機械学習アルゴリズムを比較した。
その結果,EnCNNは検出精度を大幅に向上し,最先端アプローチよりも10%向上した。
論文 参考訳(メタデータ) (2024-09-27T11:20:20Z) - Advancing Security in AI Systems: A Novel Approach to Detecting
Backdoors in Deep Neural Networks [3.489779105594534]
バックドアは、ディープニューラルネットワーク(DNN)上の悪意あるアクターと、データ処理のためのクラウドサービスによって悪用される。
提案手法は高度テンソル分解アルゴリズムを利用して,事前学習したDNNの重みを慎重に解析し,バックドアモデルとクリーンモデルとの区別を行う。
この進歩は、ネットワークシステムにおけるディープラーニングとAIのセキュリティを強化し、新興技術の脅威の進化に対して不可欠なサイバーセキュリティを提供する。
論文 参考訳(メタデータ) (2024-03-13T03:10:11Z) - Deep Learning Algorithms Used in Intrusion Detection Systems -- A Review [0.0]
本稿では,CNN,Recurrent Neural Networks(RNN),Deep Belief Networks(DBN),Deep Neural Networks(DNN),Long Short-Term Memory(LSTM),Autoencoders(AE),Multi-Layer Perceptrons(MLP),Self-Normalizing Networks(SNN),Hybrid Model(ネットワーク侵入検知システム)など,近年のディープラーニング技術の進歩について述べる。
論文 参考訳(メタデータ) (2024-02-26T20:57:35Z) - TEN-GUARD: Tensor Decomposition for Backdoor Attack Detection in Deep
Neural Networks [3.489779105594534]
本稿では,ネットワークアクティベーションに適用した2つのテンソル分解法によるバックドア検出手法を提案する。
これは、複数のモデルを同時に分析する機能など、既存の検出方法と比較して、多くの利点がある。
その結果,現在の最先端手法よりも,バックドアネットワークを高精度かつ効率的に検出できることがわかった。
論文 参考訳(メタデータ) (2024-01-06T03:08:28Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Explaining Network Intrusion Detection System Using Explainable AI
Framework [0.5076419064097734]
侵入検知システムは、今日の世界のサイバー安全の重要なレイヤーの1つです。
本稿では,ディープニューラルネットワークを用いてネットワーク侵入検出を行った。
また、機械学習パイプラインの各段階で透明性を追加する説明可能なAIフレームワークも提案しました。
論文 参考訳(メタデータ) (2021-03-12T07:15:09Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。