論文の概要: Explaining Regression Based Neural Network Model
- arxiv url: http://arxiv.org/abs/2004.06918v1
- Date: Wed, 15 Apr 2020 07:38:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 03:40:59.691044
- Title: Explaining Regression Based Neural Network Model
- Title(参考訳): 回帰に基づくニューラルネットワークモデルの説明
- Authors: M\'egane Millan and Catherine Achard
- Abstract要約: 本稿では,ほとんどの最先端結果に現れるノイズを低減させるいくつかのトレーニングに基づいて,精度の高い勾配を求めるAGRAという新しい手法を提案する。
比較結果から,提案手法は信号にエラーが発生した時間ステップの特定において,最先端の手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 4.94950858749529
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Several methods have been proposed to explain Deep Neural Network (DNN).
However, to our knowledge, only classification networks have been studied to
try to determine which input dimensions motivated the decision. Furthermore, as
there is no ground truth to this problem, results are only assessed
qualitatively in regards to what would be meaningful for a human. In this work,
we design an experimental settings where the ground truth can been established:
we generate ideal signals and disrupted signals with errors and learn a neural
network that determines the quality of the signals. This quality is simply a
score based on the distance between the disrupted signals and the corresponding
ideal signal. We then try to find out how the network estimated this score and
hope to find the time-step and dimensions of the signal where errors are
present. This experimental setting enables us to compare several methods for
network explanation and to propose a new method, named AGRA for Accurate
Gradient, based on several trainings that decrease the noise present in most
state-of-the-art results. Comparative results show that the proposed method
outperforms state-of-the-art methods for locating time-steps where errors occur
in the signal.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を説明するためにいくつかの方法が提案されている。
しかし、我々の知る限りでは、どの入力次元が決定を動機づけるかを決定するために分類網のみが研究されている。
さらに、この問題には根拠がないため、結果は人間にとって意味のあるものに関して質的にのみ評価される。
本研究では、理想的な信号を生成し、エラーを伴って信号を破壊し、信号の品質を決定するニューラルネットワークを学習する実験的な設定を設計する。
この品質は単に破壊された信号と対応する理想信号の間の距離に基づくスコアである。
次に、ネットワークがこのスコアをどのように見積もったかを探り、エラーが存在する信号の時間的ステップと寸法を見つけ出そうとします。
この実験により、ネットワーク説明のためのいくつかの手法を比較することができ、また、ほとんどの最先端結果に発生するノイズを低減させるいくつかのトレーニングに基づいて、AGRA for Accurate Gradientという新しい手法を提案することができる。
比較の結果,提案手法は信号にエラーが発生した時間ステップを同定する最先端手法よりも優れていることがわかった。
関連論文リスト
- SEF: A Method for Computing Prediction Intervals by Shifting the Error Function in Neural Networks [0.0]
本稿では,このカテゴリに属する新しい手法としてSEF(Shifting the Error Function)法を提案する。
提案手法では,1つのニューラルネットワークを3回トレーニングすることで,与えられた問題に対して対応する上境界と下限とを推定する。
この革新的なプロセスは、PIを効果的に生成し、不確実性定量化のための堅牢で効率的な技術をもたらす。
論文 参考訳(メタデータ) (2024-09-08T19:46:45Z) - Rolling bearing fault diagnosis method based on generative adversarial enhanced multi-scale convolutional neural network model [7.600902237804825]
マルチスケール畳み込みニューラルネットワークモデルに基づく転がり軸受故障診断手法を提案する。
ResNet法と比較して,提案手法はより優れた一般化性能と反雑音性能を有することを示す。
論文 参考訳(メタデータ) (2024-03-21T06:42:35Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Convolutional Neural Networks for Sleep Stage Scoring on a Two-Channel
EEG Signal [63.18666008322476]
睡眠障害は、世界中の主要な病気の1つです。
専門家が使用する基本的なツールはPolysomnogramで、睡眠中に記録された様々な信号の集合である。
専門家は、標準的なガイドラインの1つに従って異なる信号を採点する必要があります。
論文 参考訳(メタデータ) (2021-03-30T09:59:56Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - The distance between the weights of the neural network is meaningful [9.329400348695435]
ニューラルネットワークの適用においては、問題複雑性とデータセットスケールに基づいて適切なモデルを選択する必要がある。
本稿では,異なるトレーニング段階におけるニューラルネットワーク重み間の距離を用いて,トレーニング過程において,ネットワークが蓄積した情報を直接推定できることを示す。
論文 参考訳(メタデータ) (2021-01-31T06:44:49Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Training of mixed-signal optical convolutional neural network with
reduced quantization level [1.3381749415517021]
アナログ行列乗算加速器を用いた混合信号人工ニューラルネットワーク(ANN)は、高速化と電力効率の向上を実現することができる。
本稿では、アナログ信号の2種類の誤り、ランダムノイズ、決定論的誤り(歪み)を含む混合信号ANNの訓練方法について報告する。
その結果,提案手法で訓練した混合信号ANNは,理想量子化ステップの最大50%のノイズレベルで等価な分類精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-08-20T20:46:22Z) - Effective Version Space Reduction for Convolutional Neural Networks [61.84773892603885]
アクティブラーニングでは、サンプリングバイアスは深刻な矛盾問題を引き起こし、アルゴリズムが最適な仮説を見つけるのを妨げる可能性がある。
本稿では,畳み込みニューラルネットワークを用いた能動学習について,バージョン空間削減の原理的レンズを用いて検討する。
論文 参考訳(メタデータ) (2020-06-22T17:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。