論文の概要: Scientific Calculator for Designing Trojan Detectors in Neural Networks
- arxiv url: http://arxiv.org/abs/2006.03707v2
- Date: Fri, 25 Sep 2020 00:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:27:28.115995
- Title: Scientific Calculator for Designing Trojan Detectors in Neural Networks
- Title(参考訳): ニューラルネットワークにおけるトロイジャン検出器設計のための科学計算装置
- Authors: Peter Bajcsy and Nicholas J. Schaub and Michael Majurski
- Abstract要約: 本研究は、NNモデルに埋め込まれたトロイの木馬を検出するために、Webベースのインタラクティブニューラルネットワーク(NN)計算機とNN測定の非効率性を提示する。
トレーニングデータセットやNNアーキテクチャで実行される分析、可視化、出力操作を備えた「科学計算器の様」である。
- 参考スコア(独自算出の注目度): 3.575776176747487
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This work presents a web-based interactive neural network (NN) calculator and
a NN inefficiency measurement that has been investigated for the purpose of
detecting trojans embedded in NN models. This NN Calculator is designed on top
of TensorFlow Playground with in-memory storage of data and NN graphs plus
coefficients. It is "like a scientific calculator" with analytical,
visualization, and output operations performed on training datasets and NN
architectures. The prototype is aaccessible at
https://pages.nist.gov/nn-calculator. The analytical capabilities include a
novel measurement of NN inefficiency using modified Kullback-Liebler (KL)
divergence applied to histograms of NN model states, as well as a
quantification of the sensitivity to variables related to data and NNs. Both NN
Calculator and KL divergence are used to devise a trojan detector approach for
a variety of trojan embeddings. Experimental results document desirable
properties of the KL divergence measurement with respect to NN architectures
and dataset perturbations, as well as inferences about embedded trojans.
- Abstract(参考訳): 本研究では、NNモデルに埋め込まれたトロイの木馬を検出するために、Webベースのインタラクティブニューラルネットワーク(NN)計算機と、NN非効率の測定を行った。
このNN CalculatorはTensorFlow Playground上に設計されており、データとNNグラフと係数のインメモリストレージを備えている。
トレーニングデータセットやNNアーキテクチャで実行される分析、可視化、出力操作を備えた「科学計算器の様」である。
プロトタイプはhttps://pages.nist.gov/nn-calculatorでアクセスできる。
この分析能力は、NNモデル状態のヒストグラムに適用された修正Kullback-Liebler(KL)偏差を用いたNN非効率の新たな測定と、データやNNに関連する変数に対する感度の定量化を含む。
NN Calculator と KL divergence は、様々なトロヤ群埋め込みのためのトロヤ群検出器アプローチを考案するために用いられる。
実験結果は、NNアーキテクチャとデータセット摂動に関するKL分散測定の望ましい性質と、組込みトロイの木馬に関する推論を文書化した。
関連論文リスト
- Rethinking Deep Learning: Propagating Information in Neural Networks without Backpropagation and Statistical Optimization [0.0]
本研究では,構造を模倣するニューラルネットワークとして,情報伝達機能とNNの応用の可能性について論じる。
本研究では,段差関数をアクティベーション関数として使用し,0~15層を隠蔽し,重み更新を行わない完全連結層からなるNNSアーキテクチャを提案する。
ラベル毎のトレーニングデータの平均出力ベクトルとテストデータの出力ベクトルをベクトル類似度に基づいて比較して精度を算出する。
論文 参考訳(メタデータ) (2024-08-18T09:22:24Z) - An Estimator for the Sensitivity to Perturbations of Deep Neural
Networks [0.31498833540989407]
本稿では,入力の摂動に対して与えられたディープニューラルネットワークの感度を予測できる推定器を導出する。
推定器の近似は、ImageNetデータセットを使用して、AlexNetとVGG-19の2つの畳み込みニューラルネットワークでテストされる。
論文 参考訳(メタデータ) (2023-07-24T10:33:32Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - Statistical model-based evaluation of neural networks [74.10854783437351]
ニューラルネットワーク(NN)の評価のための実験装置を開発する。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何学、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストできます。
論文 参考訳(メタデータ) (2020-11-18T00:33:24Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - File Classification Based on Spiking Neural Networks [0.5065947993017157]
スパイクニューラルネットワーク(SNN)に基づく大規模データセットにおけるファイル分類システムを提案する。
提案システムは、推論タスクに対する古典的機械学習アルゴリズムの代替として有効なものである可能性がある。
論文 参考訳(メタデータ) (2020-04-08T11:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。