論文の概要: Statistical model-based evaluation of neural networks
- arxiv url: http://arxiv.org/abs/2011.09015v1
- Date: Wed, 18 Nov 2020 00:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:38:39.153075
- Title: Statistical model-based evaluation of neural networks
- Title(参考訳): 統計的モデルに基づくニューラルネットワークの評価
- Authors: Sandipan Das, Prakash B. Gohain, Alireza M. Javid, Yonina C. Eldar,
Saikat Chatterjee
- Abstract要約: ニューラルネットワーク(NN)の評価のための実験装置を開発する。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何学、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストできます。
- 参考スコア(独自算出の注目度): 74.10854783437351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using a statistical model-based data generation, we develop an experimental
setup for the evaluation of neural networks (NNs). The setup helps to benchmark
a set of NNs vis-a-vis minimum-mean-square-error (MMSE) performance bounds.
This allows us to test the effects of training data size, data dimension, data
geometry, noise, and mismatch between training and testing conditions. In the
proposed setup, we use a Gaussian mixture distribution to generate data for
training and testing a set of competing NNs. Our experiments show the
importance of understanding the type and statistical conditions of data for
appropriate application and design of NNs
- Abstract(参考訳): 統計的モデルに基づくデータ生成を用いて,ニューラルネットワーク(NN)の評価のための実験装置を開発した。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストすることができます。
提案したセットアップでは,ガウス混合分布を用いて,競合するNNの集合をトレーニングおよびテストするためのデータを生成する。
実験により,nnsの適切な適用と設計のためのデータの種類と統計条件の理解の重要性が示された。
関連論文リスト
- Training Guarantees of Neural Network Classification Two-Sample Tests by Kernel Analysis [58.435336033383145]
2つのデータセットが同じ分布から来たかどうかを判断するために、ニューラルネットワークの2サンプルテストを構築し、分析する。
NTK2サンプルテストがデータセット間の偏差レベルを検出するのに必要となる、理論的に最小限のトレーニング時間を導出する。
ニューラルネットワークのトレーニングサンプルとテスト評価サンプルが無限に近づくにつれて、ニューラルネットワークの2サンプルテストに関連する統計的パワーは1になる。
論文 参考訳(メタデータ) (2024-07-05T18:41:16Z) - Uncertainty Measurement of Deep Learning System based on the Convex Hull of Training Sets [0.13265175299265505]
本研究では,訓練データの凸殻に基づくトレーニングモデルの不確実性を測定するTo-hull Uncertainity and Closure Ratioを提案する。
学習したデータの凸船体と見えないサンプルとの間の位置関係を観察し、サンプルが凸船体からどのように外挿されているかを推測することができる。
論文 参考訳(メタデータ) (2024-05-25T06:25:24Z) - Towards a Phenomenological Understanding of Neural Networks: Data [1.2985510601654955]
集合変数に基づいて構築されたニューラルネットワークの理論(NN)は、科学者に各段階での学習プロセスをよりよく理解するためのツールを提供する。
本研究では、モデルに渡されるトレーニングデータに基づいて構築された経験的ニューラルネットワークカーネル(NTK)のエントロピーとトレースという2つの変数を紹介する。
我々は、開始エントロピー、NTKのトレース、および訓練後に計算されたモデルの一般化の相関関係が得られた。
論文 参考訳(メタデータ) (2023-05-01T18:00:01Z) - An unfolding method based on conditional Invertible Neural Networks
(cINN) using iterative training [0.0]
非可逆ニューラルネットワーク(INN)のような生成ネットワークは確率的展開を可能にする。
模擬トレーニングサンプルとデータ間のずれを調整した展開のための反復条件INN(IcINN)を導入する。
論文 参考訳(メタデータ) (2022-12-16T19:00:05Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Learning to be a Statistician: Learned Estimator for Number of Distinct
Values [54.629042119819744]
列内の異なる値の数(NDV)を推定することは、データベースシステムにおける多くのタスクに有用である。
本研究では、ランダム(オンライン/オフライン)サンプルから正確なNDV推定を導出する方法に焦点を当てる。
教師付き学習フレームワークにおいて,NDV推定タスクを定式化し,モデルを推定対象として学習することを提案する。
論文 参考訳(メタデータ) (2022-02-06T15:42:04Z) - Neural Networks for Parameter Estimation in Intractable Models [0.0]
本稿では,最大安定過程からパラメータを推定する方法を示す。
モデルシミュレーションのデータを入力として使用し,統計的パラメータを学習するために深層ニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-07-29T21:59:48Z) - MLDS: A Dataset for Weight-Space Analysis of Neural Networks [0.0]
MLDSは、注意深く制御されたパラメータを持つ何千ものトレーニングニューラルネットワークからなる新しいデータセットである。
このデータセットは、モデル-to-modelとモデル-to-training-data関係に関する新たな洞察を可能にする。
論文 参考訳(メタデータ) (2021-04-21T14:24:26Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Unsupervised neural adaptation model based on optimal transport for
spoken language identification [54.96267179988487]
トレーニングセットとテストセット間の音響音声の統計的分布のミスマッチにより,音声言語識別(SLID)の性能が大幅に低下する可能性がある。
SLIDの分布ミスマッチ問題に対処するために,教師なしニューラル適応モデルを提案する。
論文 参考訳(メタデータ) (2020-12-24T07:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。