論文の概要: SEF: A Method for Computing Prediction Intervals by Shifting the Error Function in Neural Networks
- arxiv url: http://arxiv.org/abs/2409.05206v1
- Date: Sun, 8 Sep 2024 19:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 16:58:34.071381
- Title: SEF: A Method for Computing Prediction Intervals by Shifting the Error Function in Neural Networks
- Title(参考訳): SEF:ニューラルネットワークにおける誤差関数のシフトによる予測間隔の計算方法
- Authors: E. V. Aretos, D. G. Sotiropoulos,
- Abstract要約: 本稿では,このカテゴリに属する新しい手法としてSEF(Shifting the Error Function)法を提案する。
提案手法では,1つのニューラルネットワークを3回トレーニングすることで,与えられた問題に対して対応する上境界と下限とを推定する。
この革新的なプロセスは、PIを効果的に生成し、不確実性定量化のための堅牢で効率的な技術をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In today's era, Neural Networks (NN) are applied in various scientific fields such as robotics, medicine, engineering, etc. However, the predictions of neural networks themselves contain a degree of uncertainty that must always be taken into account before any decision is made. This is why many researchers have focused on developing different ways to quantify the uncertainty of neural network predictions. Some of these methods are based on generating prediction intervals (PI) via neural networks for the requested target values. The SEF (Shifting the Error Function) method presented in this paper is a new method that belongs to this category of methods. The proposed approach involves training a single neural network three times, thus generating an estimate along with the corresponding upper and lower bounds for a given problem. A pivotal aspect of the method is the calculation of a parameter from the initial network's estimates, which is then integrated into the loss functions of the other two networks. This innovative process effectively produces PIs, resulting in a robust and efficient technique for uncertainty quantification. To evaluate the effectiveness of our method, a comparison in terms of successful PI generation between the SEF, PI3NN and PIVEN methods was made using two synthetic datasets.
- Abstract(参考訳): 今日の時代には、ニューラルネットワーク(NN)は、ロボット工学、医学、工学など、さまざまな科学分野に適用されている。
しかし、ニューラルネットワーク自体の予測には、決定が下される前に常に考慮しなければならない不確実性の程度が含まれている。
そのため、多くの研究者は、ニューラルネットワークの予測の不確実性を定量化する様々な方法の開発に注力してきた。
これらの手法のいくつかは、要求されたターゲット値に対するニューラルネットワークを介して予測間隔(PI)を生成することに基づいている。
本稿では,このカテゴリに属する新しい手法としてSEF(Shifting the Error Function)法を提案する。
提案手法では,1つのニューラルネットワークを3回トレーニングすることで,与えられた問題に対して対応する上境界と下限とを推定する。
この手法の重要な側面は、初期ネットワークの推定値からパラメータを計算し、他の2つのネットワークの損失関数に統合することである。
この革新的なプロセスは、PIを効果的に生成し、不確実性定量化のための堅牢で効率的な技術をもたらす。
本手法の有効性を評価するため,SEF法,PI3NN法,PIVEN法の比較を行った。
関連論文リスト
- Error Analysis and Numerical Algorithm for PDE Approximation with Hidden-Layer Concatenated Physics Informed Neural Networks [0.9693477883827689]
本稿では,隠れた物理情報ニューラルネットワーク(HLConcPINN)を提案する。
隠れたフィードフォワードニューラルネットワーク、修正されたブロックタイムマーチング戦略、偏微分方程式(PDE)を近似するための物理情報アプローチを組み合わせる。
本手法の近似誤差は, 長期間の地平線を有する動的シミュレーションのトレーニング損失によって効果的に制御できることを示す。
論文 参考訳(メタデータ) (2024-06-10T15:12:53Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - A new approach to generalisation error of machine learning algorithms:
Estimates and convergence [0.0]
本稿では,(一般化)誤差の推定と収束に対する新しいアプローチを提案する。
本研究の結果は,ニューラルネットワークの構造的仮定を伴わない誤差の推定を含む。
論文 参考訳(メタデータ) (2023-06-23T20:57:31Z) - Guaranteed Quantization Error Computation for Neural Network Model
Compression [2.610470075814367]
ニューラルネットワークモデル圧縮技術は、産業システムの組み込みデバイス上でのディープニューラルネットワークの計算問題に対処することができる。
統合されたニューラルネットワークは、フィードフォワードニューラルネットワークとその量子化されたバージョンから構築され、2つのニューラルネットワーク間の正確な出力差を生成する。
論文 参考訳(メタデータ) (2023-04-26T20:21:54Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - A copula-based visualization technique for a neural network [0.0]
機械学習の解釈可能性(英: Interpretability of machine learning)は、人間が意思決定の理由を理解できる範囲として定義される。
我々は、トレーニングされたニューラルネットワークが重要と考える特徴値を明らかにする新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-27T10:32:27Z) - Estimating Uncertainty Intervals from Collaborating Networks [15.467208581231848]
本稿では,2つの損失関数を持つ2つのニューラルネットワークを定義することにより,回帰の予測分布を推定する新しい手法を提案する。
具体的には、あるネットワークは累積分布関数を近似し、2番目のネットワークはその逆を近似する。
我々は、糖尿病患者のA1c値を電子健康記録から予測するなど、CNを2つの合成および6つの実世界のデータセットに対するいくつかの一般的なアプローチと比較した。
論文 参考訳(メタデータ) (2020-02-12T20:10:27Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。