論文の概要: Scientific Calculator for Designing Trojan Detectors in Neural Networks
- arxiv url: http://arxiv.org/abs/2006.03707v2
- Date: Fri, 25 Sep 2020 00:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:27:28.115995
- Title: Scientific Calculator for Designing Trojan Detectors in Neural Networks
- Title(参考訳): ニューラルネットワークにおけるトロイジャン検出器設計のための科学計算装置
- Authors: Peter Bajcsy and Nicholas J. Schaub and Michael Majurski
- Abstract要約: 本研究は、NNモデルに埋め込まれたトロイの木馬を検出するために、Webベースのインタラクティブニューラルネットワーク(NN)計算機とNN測定の非効率性を提示する。
トレーニングデータセットやNNアーキテクチャで実行される分析、可視化、出力操作を備えた「科学計算器の様」である。
- 参考スコア(独自算出の注目度): 3.575776176747487
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This work presents a web-based interactive neural network (NN) calculator and
a NN inefficiency measurement that has been investigated for the purpose of
detecting trojans embedded in NN models. This NN Calculator is designed on top
of TensorFlow Playground with in-memory storage of data and NN graphs plus
coefficients. It is "like a scientific calculator" with analytical,
visualization, and output operations performed on training datasets and NN
architectures. The prototype is aaccessible at
https://pages.nist.gov/nn-calculator. The analytical capabilities include a
novel measurement of NN inefficiency using modified Kullback-Liebler (KL)
divergence applied to histograms of NN model states, as well as a
quantification of the sensitivity to variables related to data and NNs. Both NN
Calculator and KL divergence are used to devise a trojan detector approach for
a variety of trojan embeddings. Experimental results document desirable
properties of the KL divergence measurement with respect to NN architectures
and dataset perturbations, as well as inferences about embedded trojans.
- Abstract(参考訳): 本研究では、NNモデルに埋め込まれたトロイの木馬を検出するために、Webベースのインタラクティブニューラルネットワーク(NN)計算機と、NN非効率の測定を行った。
このNN CalculatorはTensorFlow Playground上に設計されており、データとNNグラフと係数のインメモリストレージを備えている。
トレーニングデータセットやNNアーキテクチャで実行される分析、可視化、出力操作を備えた「科学計算器の様」である。
プロトタイプはhttps://pages.nist.gov/nn-calculatorでアクセスできる。
この分析能力は、NNモデル状態のヒストグラムに適用された修正Kullback-Liebler(KL)偏差を用いたNN非効率の新たな測定と、データやNNに関連する変数に対する感度の定量化を含む。
NN Calculator と KL divergence は、様々なトロヤ群埋め込みのためのトロヤ群検出器アプローチを考案するために用いられる。
実験結果は、NNアーキテクチャとデータセット摂動に関するKL分散測定の望ましい性質と、組込みトロイの木馬に関する推論を文書化した。
関連論文リスト
- Correcting model misspecification in physics-informed neural networks
(PINNs) [2.07180164747172]
本稿では,制御方程式の発見のために,PINNにおいて不特定な物理モデルを修正するための一般的な手法を提案する。
我々は、不完全モデルと観測データとの差をモデル化するために、他のディープニューラルネットワーク(DNN)を使用します。
提案手法は, 物理化学的, 生物学的プロセスがよく理解されていない問題における支配方程式の発見に, PINNの応用を拡大すると考えられる。
論文 参考訳(メタデータ) (2023-10-16T19:25:52Z) - An Estimator for the Sensitivity to Perturbations of Deep Neural
Networks [0.31498833540989407]
本稿では,入力の摂動に対して与えられたディープニューラルネットワークの感度を予測できる推定器を導出する。
推定器の近似は、ImageNetデータセットを使用して、AlexNetとVGG-19の2つの畳み込みニューラルネットワークでテストされる。
論文 参考訳(メタデータ) (2023-07-24T10:33:32Z) - Information Bottleneck Analysis of Deep Neural Networks via Lossy
Compression [55.41644538483948]
Information Bottleneck(IB)原則は、ディープニューラルネットワーク(DNN)のトレーニングプロセスを分析するための情報理論フレームワークを提供する。
本稿では,一般NNのICB解析のための包括的フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-13T21:44:32Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - Statistical model-based evaluation of neural networks [74.10854783437351]
ニューラルネットワーク(NN)の評価のための実験装置を開発する。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何学、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストできます。
論文 参考訳(メタデータ) (2020-11-18T00:33:24Z) - Spiking Neural Networks -- Part II: Detecting Spatio-Temporal Patterns [38.518936229794214]
スパイキングニューラルネットワーク(SNN)は、符号化された時間信号で情報を検出するユニークな能力を持つ。
SNNをリカレントニューラルネットワーク(RNN)とみなす支配的アプローチのためのモデルとトレーニングアルゴリズムについてレビューする。
スパイキングニューロンの確率モデルに頼り、勾配推定による局所学習規則の導出を可能にする別のアプローチについて述べる。
論文 参考訳(メタデータ) (2020-10-27T11:47:42Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - File Classification Based on Spiking Neural Networks [0.5065947993017157]
スパイクニューラルネットワーク(SNN)に基づく大規模データセットにおけるファイル分類システムを提案する。
提案システムは、推論タスクに対する古典的機械学習アルゴリズムの代替として有効なものである可能性がある。
論文 参考訳(メタデータ) (2020-04-08T11:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。