論文の概要: PDRL: Post-hoc Descriptor-based Residual Learning for Uncertainty-Aware Machine Learning Potentials
- arxiv url: http://arxiv.org/abs/2509.02927v1
- Date: Wed, 03 Sep 2025 01:36:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.381938
- Title: PDRL: Post-hoc Descriptor-based Residual Learning for Uncertainty-Aware Machine Learning Potentials
- Title(参考訳): PDRL:不確実性を考慮した機械学習のためのポストホック記述子に基づく残留学習
- Authors: Shih-Peng Huang, Nontawat Charoenphakdee, Yuta Tsuboi, Yong-Bin Zhuang, Wenwen Li,
- Abstract要約: 我々は、不確実性定量化(UQ)のためのシンプルで効率的なポストホックフレームワークを提案する。
この手法をポストホック記述子に基づく残差ベース学習(PDRL)と呼ぶ。
PDRLはMLIP予測と基底真理値の相違をモデル化し、これらの残基を予測の不確実性のプロキシとして機能させる。
- 参考スコア(独自算出の注目度): 1.8045310746936671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble method is considered the gold standard for uncertainty quantification (UQ) for machine learning interatomic potentials (MLIPs). However, their high computational cost can limit its practicality. Alternative techniques, such as Monte Carlo dropout and deep kernel learning, have been proposed to improve computational efficiency; however, some of these methods cannot be applied to already trained models and may affect the prediction accuracy. In this paper, we propose a simple and efficient post-hoc framework for UQ that leverages the descriptor of a trained graph neural network potential to estimate residual errors. We refer to this method as post-hoc descriptor-based residual-based learning (PDRL). PDRL models the discrepancy between MLIP predictions and ground truth values, allowing these residuals to act as proxies for prediction uncertainty. We explore multiple variants of PDRL and benchmark them against established UQ methods, evaluating both their effectiveness and limitations.
- Abstract(参考訳): エンサンブル法は、機械学習の原子間ポテンシャル(MLIP)に対する不確実性定量化(UQ)のための金の標準であると考えられている。
しかし、その高い計算コストは実用性を制限することができる。
モンテカルロ・ドロップアウトやディープ・カーネル・ラーニングといった別の手法は計算効率を向上させるために提案されているが、これらの手法のいくつかは既に訓練済みのモデルに適用できず、予測精度に影響を与える可能性がある。
本稿では、トレーニングされたグラフニューラルネットワークポテンシャルの記述子を利用して残差誤差を推定する、UQのためのシンプルで効率的なポストホックフレームワークを提案する。
本稿では,この手法をポストホック記述子に基づく残差ベース学習(PDRL)と呼ぶ。
PDRLはMLIP予測と基底真理値の相違をモデル化し、これらの残基を予測の不確実性のプロキシとして機能させる。
我々は、PDRLの複数の変種を探索し、既存のUQ手法と比較し、それらの有効性と限界の両方を評価する。
関連論文リスト
- Rethinking the Trust Region in LLM Reinforcement Learning [72.25890308541334]
PPO(Proximal Policy Optimization)は、大規模言語モデル(LLM)のデファクト標準アルゴリズムとして機能する。
より原則的な制約でクリッピングを代用する多変量確率ポリシー最適化(DPPO)を提案する。
DPPOは既存の方法よりも優れたトレーニングと効率を実現し、RLベースの微調整のためのより堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2026-02-04T18:59:04Z) - BLIPs: Bayesian Learned Interatomic Potentials [47.73617239750485]
機械学習原子間ポテンシャル(MLIP)は、シミュレーションベースの化学の中心的なツールになりつつある。
MLIPは、アクティブな学習パイプラインをガイドする基本となる、構築による不確実性推定を提供していない。
BLIPはスケーラブルでアーキテクチャに依存しない、トレーニングや微調整のためのベイズ的フレームワークである。
論文 参考訳(メタデータ) (2025-08-19T17:28:14Z) - Achieving $\widetilde{\mathcal{O}}(\sqrt{T})$ Regret in Average-Reward POMDPs with Known Observation Models [69.1820058966619]
平均逆無限水平POMDPを未知の遷移モデルで扱う。
この障壁を克服する斬新でシンプルな推定器を提示する。
論文 参考訳(メタデータ) (2025-01-30T22:29:41Z) - Quantifying the Prediction Uncertainty of Machine Learning Models for Individual Data [2.1248439796866228]
本研究では,線形回帰とニューラルネットワークに対するpNMLの学習可能性について検討する。
pNMLは様々なタスクにおけるこれらのモデルの性能と堅牢性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-12-10T13:58:19Z) - Weak Supervision Performance Evaluation via Partial Identification [46.73061437177238]
Programmatic Weak Supervision (PWS) は、地上の真理ラベルに直接アクセスすることなく、教師付きモデルトレーニングを可能にする。
本稿では,モデル評価を部分的同定問題としてフレーミングすることで,この問題に対処する新しい手法を提案する。
提案手法は,従来の弱監督評価手法において,ラベル付きデータを必要とせず,重要な指標に信頼性のあるバウンダリを導出する。
論文 参考訳(メタデータ) (2023-12-07T07:15:11Z) - On Practical Robust Reinforcement Learning: Practical Uncertainty Set
and Double-Agent Algorithm [11.748284119769039]
ロバスト強化学習(RRL)は、マルコフ決定プロセス(MDP)の不確実性に対して最悪のケースパフォーマンスを最適化するための堅牢なポリシーを求めることを目的としている。
論文 参考訳(メタデータ) (2023-05-11T08:52:09Z) - Unmatched uncertainty mitigation through neural network supported model
predictive control [7.036452261968766]
学習ベースMPC(LBMPC)の基本最適化問題において,深層ニューラルネットワーク(DNN)をオラクルとして利用する。
我々は、ニューラルネットワークの最後のレイヤの重みをリアルタイムで更新するデュアル・タイムスケール適応機構を採用している。
その結果,提案手法はリアルタイムに実装可能であり,LBMPCの理論的保証を担っていることがわかった。
論文 参考訳(メタデータ) (2023-04-22T04:49:48Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Deep Reinforcement Learning with Weighted Q-Learning [43.823659028488876]
Q-learningに基づく強化学習アルゴリズムは、複雑な問題の解決に向けて、Deep Reinforcement Learning (DRL)研究を推進している。
Q-Learningは、期待値の雑音の最大過度推定を用いて学習するため、正の偏りがあることが知られている。
提案手法は, 提案手法により, バイアスw.r.t.関連ベースラインを減らし, その優位性を示す実証的な証拠を提供する。
論文 参考訳(メタデータ) (2020-03-20T13:57:40Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。