論文の概要: Baseline Pruning-Based Approach to Trojan Detection in Neural Networks
- arxiv url: http://arxiv.org/abs/2101.12016v2
- Date: Tue, 9 Feb 2021 14:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 17:58:08.300863
- Title: Baseline Pruning-Based Approach to Trojan Detection in Neural Networks
- Title(参考訳): ベースラインプルーニングに基づくニューラルネットワークのトロイの木馬検出
- Authors: Peter Bajcsy and Michael Majurski
- Abstract要約: 本論文では、ニューラルネットワーク(NN)におけるトロイの木馬の検出を、体系的に推定したNNモデルを解析することで解決する。
プルーニングベースのアプローチは3つの主要なステップで構成されています。
まず、モデルファイルサイズとモデルグラフの参照ルックアップテーブルからの偏差を検出します。
次に、複数のpruningスキーマに従って体系的にpruned NNモデルのセットの精度を測定します。
最後に、精度測定とNNモデルラベルのマッピングを適用することにより、NNモデルを清潔または有毒と分類する。
- 参考スコア(独自算出の注目度): 3.6187615899782415
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper addresses the problem of detecting trojans in neural networks
(NNs) by analyzing systematically pruned NN models. Our pruning-based approach
consists of three main steps. First, detect any deviations from the reference
look-up tables of model file sizes and model graphs. Next, measure the accuracy
of a set of systematically pruned NN models following multiple pruning schemas.
Finally, classify a NN model as clean or poisoned by applying a mapping between
accuracy measurements and NN model labels. This work outlines a theoretical and
experimental framework for finding the optimal mapping over a large search
space of pruning parameters. Based on our experiments using Round 1 and Round 2
TrojAI Challenge datasets, the approach achieves average classification
accuracy of 69.73 % and 82.41% respectively with an average processing time of
less than 60 s per model. For both datasets random guessing would produce 50%
classification accuracy. Reference model graphs and source code are available
from GitHub.
- Abstract(参考訳): 本稿では,ニューラルネットワーク(NN)におけるトロイの木馬検出の問題を,系統的に解析して解決する。
プルーニングベースのアプローチは、3つの主要なステップで構成されています。
まず、モデルファイルサイズとモデルグラフの参照ルックアップテーブルから逸脱を検出する。
次に、複数のプルーニングスキーマに従って、体系的にプルーニングされたNNモデルのセットの精度を測定する。
最後に、精度測定とNNモデルラベルのマッピングを適用することにより、NNモデルを清潔または有毒と分類する。
本研究は, プルーニングパラメータの大きな探索空間上の最適写像を求めるための理論的, 実験的枠組みを概説する。
ラウンド1とラウンド2のTrojAI Challengeデータセットを用いて行った実験から、平均分類精度は69.73 %と82.41%であり、平均処理時間は1モデルあたり60秒未満である。
どちらのデータセットでも、ランダムな推測は50%の分類精度をもたらす。
参照モデルグラフとソースコードはgithubから入手できる。
関連論文リスト
- Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - An Efficient End-to-End Deep Neural Network for Interstitial Lung
Disease Recognition and Classification [0.5424799109837065]
本稿では、IDDパターンを分類するためのエンドツーエンドのディープ畳み込みニューラルネットワーク(CNN)を提案する。
提案モデルでは,カーネルサイズが異なる4つの畳み込み層と,Rectified Linear Unit (ReLU) アクティベーション機能を備える。
128のCTスキャンと5つのクラスからなる21328の画像パッチからなるデータセットを用いて、提案モデルのトレーニングと評価を行う。
論文 参考訳(メタデータ) (2022-04-21T06:36:10Z) - RGP: Neural Network Pruning through Its Regular Graph Structure [6.0686251332936365]
本稿では,ニューラルネットワークのグラフ構造について検討し,レギュラーグラフベースプルーニング(RGP)を提案し,ワンショットニューラルネットワークプルーニングを行う。
実験の結果,グラフの平均最短経路長は,対応するニューラルネットワークの分類精度と負の相関が認められた。
論文 参考訳(メタデータ) (2021-10-28T15:08:32Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Exploiting Adam-like Optimization Algorithms to Improve the Performance
of Convolutional Neural Networks [82.61182037130405]
勾配降下(SGD)は深いネットワークを訓練するための主要なアプローチです。
本研究では,現在と過去の勾配の違いに基づいて,Adamに基づく変分を比較する。
resnet50を勾配降下訓練したネットワークのアンサンブルと融合実験を行った。
論文 参考訳(メタデータ) (2021-03-26T18:55:08Z) - Exploring the Uncertainty Properties of Neural Networks' Implicit Priors
in the Infinite-Width Limit [47.324627920761685]
我々は、無限大のNNのアンサンブルに先立って関数空間をガウス過程として特徴づける最近の理論的進歩を用いる。
これにより、関数空間上の暗黙の前のNNについて、よりよく理解できます。
また,従来のNNGPを用いた分類手法の校正について検討した。
論文 参考訳(メタデータ) (2020-10-14T18:41:54Z) - Learning All Credible Bayesian Network Structures for Model Averaging [3.81379858342235]
近似アルゴリズムの性能保証に着想を得たモデル平均化手法を提案する。
我々のアプローチは既存のアプローチよりも効率的で、ベイズ的ネットワークにスケールする。
論文 参考訳(メタデータ) (2020-08-27T19:56:27Z) - EagleEye: Fast Sub-net Evaluation for Efficient Neural Network Pruning [82.54669314604097]
EagleEyeは、適応型バッチ正規化に基づく、シンプルだが効率的な評価コンポーネントである。
異なる破砕された構造と最終的な精度の間に強い相関関係が明らかになる。
このモジュールは、既存のプルーニングアルゴリズムをプラグインし改善するためにも一般的である。
論文 参考訳(メタデータ) (2020-07-06T01:32:31Z) - Question Type Classification Methods Comparison [0.0]
本稿では、ロジスティック回帰、畳み込みニューラルネットワーク(CNN)、Long Short-Term Memory Network(LSTM)、Quasi-Recurrent Neural Networks(QRNN)といった問題分類タスクに対する最先端のアプローチの比較研究について述べる。
すべてのモデルは、事前訓練されたGLoVeワードの埋め込みを使用し、人間のラベル付きデータに基づいて訓練される。
最良の精度は5つの畳み込み層と、並列に積み重ねられたさまざまなカーネルサイズを持つCNNモデルを使用して達成され、その後に1つの完全に接続された層が続く。
論文 参考訳(メタデータ) (2020-01-03T00:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。