論文の概要: Conformal Prediction on Quantifying Uncertainty of Dynamic Systems
- arxiv url: http://arxiv.org/abs/2412.10459v1
- Date: Thu, 12 Dec 2024 10:45:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:00:34.049483
- Title: Conformal Prediction on Quantifying Uncertainty of Dynamic Systems
- Title(参考訳): 力学系の不確かさのコンフォーマル予測
- Authors: Aoming Liang, Qi Liu, Lei Xu, Fahad Sohrab, Weicheng Cui, Changhui Song, Moncef Gaubbouj,
- Abstract要約: 力学系の不確実性評価に共形予測を導入する。
本稿では,コンフォメーション予測手法を用いて,ベンチマーク演算子学習手法による不確実性の評価を行う。
また、偏微分方程式データセットにおいてモンテカルロ・ドロップアウト法とアンサンブル法を比較した。
- 参考スコア(独自算出の注目度): 5.720395427893681
- License:
- Abstract: Numerous studies have focused on learning and understanding the dynamics of physical systems from video data, such as spatial intelligence. Artificial intelligence requires quantitative assessments of the uncertainty of the model to ensure reliability. However, there is still a relative lack of systematic assessment of the uncertainties, particularly the uncertainties of the physical data. Our motivation is to introduce conformal prediction into the uncertainty assessment of dynamical systems, providing a method supported by theoretical guarantees. This paper uses the conformal prediction method to assess uncertainties with benchmark operator learning methods. We have also compared the Monte Carlo Dropout and Ensemble methods in the partial differential equations dataset, effectively evaluating uncertainty through straight roll-outs, making it ideal for time-series tasks.
- Abstract(参考訳): 多くの研究は、空間知能のようなビデオデータから物理系の力学を学習し理解することに焦点を当ててきた。
人工知能は信頼性を確保するためにモデルの不確実性を定量的に評価する必要がある。
しかし、不確実性、特に物理的データの不確実性について、体系的な評価が比較的不十分である。
我々のモチベーションは、力学系の不確実性評価に共形予測を導入し、理論的保証に支えられる方法を提供することである。
本稿では,コンフォメーション予測手法を用いて,ベンチマーク演算子学習手法による不確実性の評価を行う。
我々はまた、偏微分方程式データセットにおけるモンテカルロのドロップアウトとアンサンブルの手法を比較し、ストレートロールアウトによる不確かさを効果的に評価し、時系列タスクに最適である。
関連論文リスト
- Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Quantifying Deep Learning Model Uncertainty in Conformal Prediction [1.4685355149711297]
コンフォーマル予測(Conformal Prediction)は、モデルの不確実性を表現するための有望なフレームワークである。
本稿では,最先端CP手法とその理論的基礎について考察する。
論文 参考訳(メタデータ) (2023-06-01T16:37:50Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Assessment of DeepONet for reliability analysis of stochastic nonlinear
dynamical systems [4.301367153728694]
本稿では,最近提案したDeepONetが負荷を受けるシステムの時間依存信頼性解析および不確実性定量化における有効性について検討する。
従来の機械学習やディープラーニングアルゴリズムとは異なり、DeepONetはオペレータネットワークであり、関数マッピングの関数を学ぶ。
論文 参考訳(メタデータ) (2022-01-31T11:41:08Z) - Structure-Preserving Learning Using Gaussian Processes and Variational
Integrators [62.31425348954686]
本稿では,機械系の古典力学に対する変分積分器と,ガウス過程の回帰による残留力学の学習の組み合わせを提案する。
我々は、既知のキネマティック制約を持つシステムへのアプローチを拡張し、予測の不確実性に関する公式な境界を提供する。
論文 参考訳(メタデータ) (2021-12-10T11:09:29Z) - Uncertainty in Data-Driven Kalman Filtering for Partially Known
State-Space Models [84.18625250574853]
本稿では,ハイブリッドモデルに基づくディープステートトラッキングアルゴリズムであるKalmanNetを用いて,不確実性の評価を行う。
誤差共分散行列は内部特性に基づいて不確実性の測定値として計算可能であることを示す。
システムダイナミクスが分かっている場合、KalmanNetは統計情報にアクセスせずにデータからマッピングを学習し、Kalmanフィルタに類似した不確実性を示す。
論文 参考訳(メタデータ) (2021-10-10T08:52:18Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - STUaNet: Understanding uncertainty in spatiotemporal collective human
mobility [11.436035608461966]
本研究では,内部データ品質と外部不確実性を同時に推定する不確実性学習機構を提案する。
提案手法は予測と不確かさの両面において優れていることを示す。
論文 参考訳(メタデータ) (2021-02-09T01:43:27Z) - Deep Learning based Uncertainty Decomposition for Real-time Control [9.067368638784355]
本稿では,ディープラーニングを用いたトレーニングデータの欠如を検出する新しい手法を提案する。
合成および実世界のデータセットに対する既存のアプローチに対する利点を示す。
さらに、シミュレーションされたクアッドコプターにオンラインデータ効率制御を展開させる上で、この不確実性推定の実用性を実証する。
論文 参考訳(メタデータ) (2020-10-06T10:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。