論文の概要: Algorithms and data structures for automatic precision estimation of neural networks
- arxiv url: http://arxiv.org/abs/2509.24607v1
- Date: Mon, 29 Sep 2025 11:13:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.935784
- Title: Algorithms and data structures for automatic precision estimation of neural networks
- Title(参考訳): ニューラルネットワークの自動精度推定のためのアルゴリズムとデータ構造
- Authors: Igor V. Netay,
- Abstract要約: 浮動小数点演算の精度自動推定によりニューラルネットワークライブラリを拡張した。
本稿では,ニューラルネットワークのトレーニングと推論の精度を正確に評価し,高い計算性能を維持するための条件について議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe algorithms and data structures to extend a neural network library with automatic precision estimation for floating point computations. We also discuss conditions to make estimations exact and preserve high computation performance of neural networks training and inference. Numerical experiments show the consequences of significant precision loss for particular values such as inference, gradients and deviations from mathematically predicted behavior. It turns out that almost any neural network accumulates computational inaccuracies. As a result, its behavior does not coincide with predicted by the mathematical model of neural network. This shows that tracking of computational inaccuracies is important for reliability of inference, training and interpretability of results.
- Abstract(参考訳): 本稿では,浮動小数点演算の自動精度推定によるニューラルネットワークライブラリの拡張アルゴリズムとデータ構造について述べる。
また、ニューラルネットワークのトレーニングと推論の精度を正確にし、高い計算性能を維持するための条件についても論じる。
数値実験は、数学的に予測された振る舞いからの推論、勾配、偏差などの特定の値に対する有意な精度損失の結果を示す。
その結果、ほとんどのニューラルネットワークは計算の不正確さを蓄積していることがわかった。
その結果、その振る舞いはニューラルネットワークの数学的モデルによって予測されるものと一致しない。
このことは、計算不正確性の追跡が、推論、トレーニング、そして結果の解釈可能性の信頼性にとって重要であることを示している。
関連論文リスト
- SGD method for entropy error function with smoothing l0 regularization for neural networks [3.108634881604788]
エントロピー誤差関数はニューラルネットワークで広く使われている。
本稿では,フィードフォワードニューラルネットワークの規則化を円滑に行うエントロピー関数を提案する。
ニューラルネットワークを効果的に学習し、より正確な予測を可能にするため、私たちの仕事は新しくなっています。
論文 参考訳(メタデータ) (2024-05-28T19:54:26Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Cardinality-Minimal Explanations for Monotonic Neural Networks [25.212444848632515]
本稿では,単調関数を実装したニューラルモデルに着目して,トラクタビリティを回復できるかどうかを検討する。
関連する決定問題は引き続き難解であるが、有利な時間で解決可能であることを示すことができる。
論文 参考訳(メタデータ) (2022-05-19T23:47:25Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Multigoal-oriented dual-weighted-residual error estimation using deep
neural networks [0.0]
ディープラーニングは、関数を近似する柔軟性の高い強力なツールだと考えられている。
提案手法は,誤差の局所化に付随する問題を解く後続誤差推定法に基づく。
複数のゴール関数に対する後方誤差推定を得るために,効率的で実装が容易なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-21T16:59:44Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Accuracy of neural networks for the simulation of chaotic dynamics:
precision of training data vs precision of the algorithm [0.0]
時系列に適応した3つの異なるニューラルネットワーク技術を用いて,異なる精度でLorenzシステムをシミュレートする。
その結果,ESNネットワークはシステムのダイナミクスを正確に予測する上で優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-08T17:25:37Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。