論文の概要: Intrinsic uncertainties and where to find them
- arxiv url: http://arxiv.org/abs/2107.02526v1
- Date: Tue, 6 Jul 2021 10:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 13:58:12.319169
- Title: Intrinsic uncertainties and where to find them
- Title(参考訳): 固有の不確実性とその発見方法
- Authors: Francesco Farina, Lawrence Phillips, Nicola J Richmond
- Abstract要約: 本稿では,多くの既存手法を記述・拡張する不確実性推定フレームワークを提案する。
本稿では,標準ベンチマークデータセットの実践的観点から,どの形式と組み合わせが最も有用かを検討する。
- 参考スコア(独自算出の注目度): 2.4815579733050153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a framework for uncertainty estimation that both describes and
extends many existing methods. We consider typical hyperparameters involved in
classical training as random variables and marginalise them out to capture
various sources of uncertainty in the parameter space. We investigate which
forms and combinations of marginalisation are most useful from a practical
point of view on standard benchmarking data sets. Moreover, we discuss how some
marginalisations may produce reliable estimates of uncertainty without the need
for extensive hyperparameter tuning and/or large-scale ensembling.
- Abstract(参考訳): 本稿では,多くの既存手法を記述・拡張する不確実性推定フレームワークを提案する。
古典的学習にかかわる典型的なハイパーパラメータをランダム変数とみなし、パラメータ空間における様々な不確実性の原因を捉えている。
本稿では,標準ベンチマークデータセットの実践的観点から,どの形式と組み合わせが最も有用かを検討する。
さらに, 広範囲なハイパーパラメータチューニングや大規模アンサンブルを必要とせず, 信頼性の高い不確実性を推定する方法についても論じる。
関連論文リスト
- Improving Uncertainty Quantification in Large Language Models via Semantic Embeddings [11.33157177182775]
大規模言語モデル(LLM)における正確な不確実性の定量化は、信頼性の高いデプロイメントに不可欠である。
LLMにおける意味的不確実性を測定するための現在の最先端手法は、厳密な双方向の包含基準に依存している。
本研究では,意味的不確実性のよりスムーズでロバストな推定を実現するためにセマンティックな埋め込みを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:41:46Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Uncertainty Quantification and Propagation in Surrogate-based Bayesian Inference [1.1383507019490222]
代理モデルはより複雑なシミュレーションモデルに対する概念近似である。
代理体の不確かさを定量化し、伝播することは、通常、特別な分析ケースに限られる。
本稿では,測定データを用いた代理モデルを用いたベイズ推定の3つの手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T16:31:52Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Information-Theoretic Safe Exploration with Gaussian Processes [89.31922008981735]
未知の(安全でない)制約に反するパラメータを評価できないような、逐次的な意思決定タスクについて検討する。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2022-12-09T15:23:58Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - How certain are your uncertainties? [0.3655021726150368]
ディープラーニング手法の出力の不確実性の尺度は、いくつかの点で有用である。
本研究では、これらの不確実性の測定の安定性について、大きさと空間パターンの両方の観点から検討する。
論文 参考訳(メタデータ) (2022-03-01T05:25:02Z) - Gaussian Process Uniform Error Bounds with Unknown Hyperparameters for
Safety-Critical Applications [71.23286211775084]
未知のハイパーパラメータを持つ設定において、ロバストなガウス過程の均一なエラー境界を導入する。
提案手法はハイパーパラメータの空間における信頼領域を計算し,モデル誤差に対する確率的上限を求める。
実験により、バニラ法やベイズ法よりもバニラ法の方がはるかに優れていることが示された。
論文 参考訳(メタデータ) (2021-09-06T17:10:01Z) - Evaluating Sensitivity to the Stick-Breaking Prior in Bayesian
Nonparametrics [85.31247588089686]
変分ベイズ法はベイズモデルのパラメトリック的および非パラメトリック的側面に対して感性が得られることを示す。
ベイズ感度分析に対する変動的アプローチの理論的および経験的支援を提供する。
論文 参考訳(メタデータ) (2021-07-08T03:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。