論文の概要: Testing for Normality with Neural Networks
- arxiv url: http://arxiv.org/abs/2009.13831v2
- Date: Wed, 7 Oct 2020 07:47:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:52:10.712747
- Title: Testing for Normality with Neural Networks
- Title(参考訳): ニューラルネットワークによる正常性検査
- Authors: Milo\v{s} Simi\'c
- Abstract要約: フィードフォワードニューラルネットワークを構築し,その小さなサンプルを検査することで,正常な分布を正確に検出する。
ネットワークの精度は250-1000要素のより大きなサンプルのセットで96%以上であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we treat the problem of testing for normality as a binary
classification problem and construct a feedforward neural network that can
successfully detect normal distributions by inspecting small samples from them.
The numerical experiments conducted on small samples with no more than 100
elements indicated that the neural network which we trained was more accurate
and far more powerful than the most frequently used and most powerful standard
tests of normality: Shapiro-Wilk, Anderson-Darling, Lilliefors and
Jarque-Berra, as well as the kernel tests of goodness-of-fit. The neural
network had the AUROC score of almost 1, which corresponds to the perfect
binary classifier. Additionally, the network's accuracy was higher than 96% on
a set of larger samples with 250-1000 elements. Since the normality of data is
an assumption of numerous techniques for analysis and inference, the neural
network constructed in this study has a very high potential for use in everyday
practice of statistics, data analysis and machine learning in both science and
industry.
- Abstract(参考訳): 本稿では,正規性テストの問題を二分分類問題として扱うとともに,その小さなサンプルを検査して正常分布を正常に検出できるフィードフォワードニューラルネットワークを構築する。
100要素未満の小さなサンプルで行った数値実験では、我々が訓練したニューラルネットワークは、シャピロ・ヴィルク、アンダーソン・ダーリング、リリーフォルス、ジャーク・ベラといった、最も頻繁に使用される最も強力な標準的テストよりも正確で強力であることが示されました。
ニューラルネットワークは、ほぼ1のaurocスコアを持ち、完全なバイナリ分類器に対応している。
さらに、ネットワークの精度は250-1000要素のより大きなサンプルのセットで96%以上であった。
データの正規性は分析と推論のための数多くのテクニックの仮定であるため、本研究で構築されたニューラルネットワークは、科学と産業の両方における統計学、データ分析、機械学習の日常的な実践において非常に高い可能性を持っている。
関連論文リスト
- Benign Overfitting in Two-Layer ReLU Convolutional Neural Networks for
XOR Data [24.86314525762012]
勾配降下法により訓練されたReLU CNNがベイズ最適精度付近で実現できることを示す。
以上の結果から,CNNは高い相関性のある特徴が存在する場合でも,効率よくXOR問題を学習する能力を有することが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T11:31:37Z) - Sampling weights of deep neural networks [1.2370077627846041]
完全に接続されたニューラルネットワークの重みとバイアスに対して,効率的なサンプリングアルゴリズムと組み合わせた確率分布を導入する。
教師付き学習環境では、内部ネットワークパラメータの反復最適化や勾配計算は不要である。
サンプルネットワークが普遍近似器であることを証明する。
論文 参考訳(メタデータ) (2023-06-29T10:13:36Z) - Diffused Redundancy in Pre-trained Representations [98.55546694886819]
事前訓練された表現で機能がどのようにコード化されているか、より詳しく見ていきます。
与えられた層における学習された表現は拡散冗長性を示す。
我々の発見は、事前訓練されたディープニューラルネットワークによって学習された表現の性質に光を当てた。
論文 参考訳(メタデータ) (2023-05-31T21:00:50Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - The Compact Support Neural Network [6.47243430672461]
本研究では, 標準ドット生成物に基づくニューロンとRBFニューロンを, 形状パラメータの2つの極端な場合として提示する。
トレーニングされた標準ニューラルネットワークから始めて、必要な値まで形状パラメータを徐々に増加させることで、そのようなニューロンによるニューラルネットワークのトレーニングの難しさを回避する方法を示す。
論文 参考訳(メタデータ) (2021-04-01T06:08:09Z) - Statistical Guarantees for Regularized Neural Networks [4.254099382808598]
最小二乗項と正則化器からなる推定器の一般統計保証を開発する。
ニューラルネットワークの正規化推定のための数学的基礎を確立した。
論文 参考訳(メタデータ) (2020-05-30T15:28:47Z) - Predicting Neural Network Accuracy from Weights [25.73213712719546]
トレーニングされたニューラルネットワークの精度は、その重みだけを見て驚くほど正確に予測できることを実験的に示す。
この分野のさらなる研究を促進するために、4つの異なるデータセットでトレーニングされた120kの畳み込みニューラルネットワークのコレクションをリリースする。
論文 参考訳(メタデータ) (2020-02-26T13:06:14Z) - Analyzing Neural Networks Based on Random Graphs [77.34726150561087]
様々なタイプのランダムグラフに対応するアーキテクチャを用いて,ニューラルネットワークの大規模評価を行う。
古典的な数値グラフ不変量は、それ自体が最良のネットワークを選び出すことができない。
また、主に短距離接続を持つネットワークは、多くの長距離接続が可能なネットワークよりも性能が良いことも見出した。
論文 参考訳(メタデータ) (2020-02-19T11:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。