論文の概要: Accuracy estimation of neural networks by extreme value theory
- arxiv url: http://arxiv.org/abs/2511.00490v1
- Date: Sat, 01 Nov 2025 10:52:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.805436
- Title: Accuracy estimation of neural networks by extreme value theory
- Title(参考訳): 極値理論によるニューラルネットワークの精度推定
- Authors: Gero Junike, Marco Oesting,
- Abstract要約: ニューラルネットワークのエラー、すなわち、関数とニューラルネットワークの間の残りのバイアスを定量化する方法は明確ではない。
本稿では,誤差の大きい値の定量化に極値理論を適用することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are able to approximate any continuous function on a compact set. However, it is not obvious how to quantify the error of the neural network, i.e., the remaining bias between the function and the neural network. Here, we propose the application of extreme value theory to quantify large values of the error, which are typically relevant in applications. The distribution of the error beyond some threshold is approximately generalized Pareto distributed. We provide a new estimator of the shape parameter of the Pareto distribution suitable to describe the error of neural networks. Numerical experiments are provided.
- Abstract(参考訳): ニューラルネットワークはコンパクトな集合上の任意の連続関数を近似することができる。
しかしながら、ニューラルネットワークのエラー、すなわち、関数とニューラルネットワークの間の残りのバイアスを定量化する方法は明確ではない。
本稿では,誤差の大きい値の定量化に極値理論を適用することを提案する。
あるしきい値を超えた誤差の分布は、およそ一般化されたパレート分布である。
ニューラルネットワークの誤差を記述するのに適したパレート分布の形状パラメータの新しい推定器を提案する。
数値実験が実施されている。
関連論文リスト
- Uncertainty propagation in feed-forward neural network models [3.987067170467799]
我々はフィードフォワードニューラルネットワークアーキテクチャのための新しい不確実性伝搬法を開発した。
ニューラルネットワーク出力の確率密度関数(PDF)の解析式を導出する。
鍵となる発見は、リークReLU活性化関数の適切な線形化が正確な統計的結果をもたらすことである。
論文 参考訳(メタデータ) (2025-03-27T00:16:36Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Learning Distributions by Generative Adversarial Networks: Approximation
and Generalization [0.6768558752130311]
本研究では,これらのモデルの収束速度を解析することにより,有限サンプルから生成逆数ネットワークがいかによく学習するかを考察する。
我々の分析は、GANの推定誤差を判別器とジェネレータの近似誤差に分解する新しい不等式オラクルに基づいている。
生成元近似誤差に対して、ニューラルネットワークは、およそ低次元のソース分布を高次元のターゲット分布に変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-25T09:26:17Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Approximation bounds for norm constrained neural networks with
applications to regression and GANs [9.645327615996914]
本稿では,ReLUニューラルネットワークの近似誤差の上限値と下限値について,重みの基準値で検証する。
我々はこれらの近似境界を適用し、ノルム制約付きニューラルネットワークを用いて回帰の収束を分析し、GANによる分布推定を行う。
論文 参考訳(メタデータ) (2022-01-24T02:19:05Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。