論文の概要: Testing for Normality with Neural Networks
- arxiv url: http://arxiv.org/abs/2009.13831v2
- Date: Wed, 7 Oct 2020 07:47:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:52:10.712747
- Title: Testing for Normality with Neural Networks
- Title(参考訳): ニューラルネットワークによる正常性検査
- Authors: Milo\v{s} Simi\'c
- Abstract要約: フィードフォワードニューラルネットワークを構築し,その小さなサンプルを検査することで,正常な分布を正確に検出する。
ネットワークの精度は250-1000要素のより大きなサンプルのセットで96%以上であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we treat the problem of testing for normality as a binary
classification problem and construct a feedforward neural network that can
successfully detect normal distributions by inspecting small samples from them.
The numerical experiments conducted on small samples with no more than 100
elements indicated that the neural network which we trained was more accurate
and far more powerful than the most frequently used and most powerful standard
tests of normality: Shapiro-Wilk, Anderson-Darling, Lilliefors and
Jarque-Berra, as well as the kernel tests of goodness-of-fit. The neural
network had the AUROC score of almost 1, which corresponds to the perfect
binary classifier. Additionally, the network's accuracy was higher than 96% on
a set of larger samples with 250-1000 elements. Since the normality of data is
an assumption of numerous techniques for analysis and inference, the neural
network constructed in this study has a very high potential for use in everyday
practice of statistics, data analysis and machine learning in both science and
industry.
- Abstract(参考訳): 本稿では,正規性テストの問題を二分分類問題として扱うとともに,その小さなサンプルを検査して正常分布を正常に検出できるフィードフォワードニューラルネットワークを構築する。
100要素未満の小さなサンプルで行った数値実験では、我々が訓練したニューラルネットワークは、シャピロ・ヴィルク、アンダーソン・ダーリング、リリーフォルス、ジャーク・ベラといった、最も頻繁に使用される最も強力な標準的テストよりも正確で強力であることが示されました。
ニューラルネットワークは、ほぼ1のaurocスコアを持ち、完全なバイナリ分類器に対応している。
さらに、ネットワークの精度は250-1000要素のより大きなサンプルのセットで96%以上であった。
データの正規性は分析と推論のための数多くのテクニックの仮定であるため、本研究で構築されたニューラルネットワークは、科学と産業の両方における統計学、データ分析、機械学習の日常的な実践において非常に高い可能性を持っている。
関連論文リスト
- Residual Random Neural Networks [0.0]
ランダムな重みを持つ単層フィードフォワードニューラルネットワークは、ニューラルネットワークの文献の中で繰り返されるモチーフである。
隠れたニューロンの数がデータサンプルの次元と等しくない場合でも,優れた分類結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:00:11Z) - Training Guarantees of Neural Network Classification Two-Sample Tests by Kernel Analysis [58.435336033383145]
2つのデータセットが同じ分布から来たかどうかを判断するために、ニューラルネットワークの2サンプルテストを構築し、分析する。
NTK2サンプルテストがデータセット間の偏差レベルを検出するのに必要となる、理論的に最小限のトレーニング時間を導出する。
ニューラルネットワークのトレーニングサンプルとテスト評価サンプルが無限に近づくにつれて、ニューラルネットワークの2サンプルテストに関連する統計的パワーは1になる。
論文 参考訳(メタデータ) (2024-07-05T18:41:16Z) - How many samples are needed to train a deep neural network? [6.042269506496206]
本稿では,ReLUフィードフォワードニューラルネットワークのトレーニングに必要なデータ量について検討する。
私たちの結果は、ニューラルネットワークが"多くの"トレーニングサンプルを必要とするという一般的な信念を裏付けています。
論文 参考訳(メタデータ) (2024-05-26T21:07:21Z) - Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Learning from higher-order statistics, efficiently: hypothesis tests, random features, and neural networks [7.503293567983987]
ニューラルネットワークが高次累積から特徴を抽出する際の効率について検討する。
ニューラルネットワークが2つの分布を2次サンプルの複雑さで区別することを実際に学習していることが示される。
その結果,ニューラルネットワークはスパイクされた累積モデルにおいて,高次相関から情報を効率的に抽出できることが示唆された。
論文 参考訳(メタデータ) (2023-12-22T18:55:25Z) - Sampling weights of deep neural networks [1.2370077627846041]
完全に接続されたニューラルネットワークの重みとバイアスに対して,効率的なサンプリングアルゴリズムと組み合わせた確率分布を導入する。
教師付き学習環境では、内部ネットワークパラメータの反復最適化や勾配計算は不要である。
サンプルネットワークが普遍近似器であることを証明する。
論文 参考訳(メタデータ) (2023-06-29T10:13:36Z) - Diffused Redundancy in Pre-trained Representations [98.55546694886819]
事前訓練された表現で機能がどのようにコード化されているか、より詳しく見ていきます。
与えられた層における学習された表現は拡散冗長性を示す。
我々の発見は、事前訓練されたディープニューラルネットワークによって学習された表現の性質に光を当てた。
論文 参考訳(メタデータ) (2023-05-31T21:00:50Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Statistical Guarantees for Regularized Neural Networks [4.254099382808598]
最小二乗項と正則化器からなる推定器の一般統計保証を開発する。
ニューラルネットワークの正規化推定のための数学的基礎を確立した。
論文 参考訳(メタデータ) (2020-05-30T15:28:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。