論文の概要: Bayesian Experimental Design for Model Discrepancy Calibration: A Rivalry between Kullback--Leibler Divergence and Wasserstein Distance
- arxiv url: http://arxiv.org/abs/2601.16425v1
- Date: Fri, 23 Jan 2026 03:34:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.528494
- Title: Bayesian Experimental Design for Model Discrepancy Calibration: A Rivalry between Kullback--Leibler Divergence and Wasserstein Distance
- Title(参考訳): モデル差分校正のためのベイズ実験設計:Kullback-Leibler分枝とWasserstein距離の相違
- Authors: Huchen Yang, Xinghao Dong, Jin-Long Wu,
- Abstract要約: ベイズの実験設計における実用関数の選択は、長くかつ活発なトピックである。
Kullback--Leibler (KL) の発散は最も一般的な選択の1つであるが、最近の研究ではワッサーシュタイン距離を代替として提案している。
KLの発散はモデル不一致の欠如においてより早く収束することを示し、一方、ワッサーシュタイン計量はモデル不一致が無視できない場合、より堅牢な逐次BED結果を提供する。
- 参考スコア(独自算出の注目度): 1.665466637453776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing experiments that systematically gather data from complex physical systems is central to accelerating scientific discovery. While Bayesian experimental design (BED) provides a principled, information-based framework that integrates experimental planning with probabilistic inference, the selection of utility functions in BED is a long-standing and active topic, where different criteria emphasize different notions of information. Although Kullback--Leibler (KL) divergence has been one of the most common choices, recent studies have proposed Wasserstein distance as an alternative. In this work, we first employ a toy example to illustrate an issue of Wasserstein distance - the value of Wasserstein distance of a fixed-shape posterior depends on the relative position of its main mass within the support and can exhibit false rewards unrelated to information gain, especially with a non-informative prior (e.g., uniform distribution). We then further provide a systematic comparison between these two criteria through a classical source inversion problem in the BED literature, revealing that the KL divergence tends to lead to faster convergence in the absence of model discrepancy, while Wasserstein metrics provide more robust sequential BED results if model discrepancy is non-negligible. These findings clarify the trade-offs between KL divergence and Wasserstein metrics for the utility function and provide guidelines for selecting suitable criteria in practical BED applications.
- Abstract(参考訳): 複雑な物理システムからデータを体系的に収集する実験を設計することは、科学的発見の加速の中心である。
ベイズ実験設計(英語版)(BED)は、実験計画と確率的推論を統合する、原則化された情報ベースのフレームワークを提供するが、BEDにおけるユーティリティ関数の選択は、異なる基準が異なる情報の概念を強調する、長く活動的なトピックである。
Kullback--Leibler (KL) の発散は最も一般的な選択の1つであるが、近年の研究ではワッサーシュタイン距離を代替として提案している。
固定形後部のワッサースタイン距離の値は、支持体内の主質量の相対的な位置に依存し、情報ゲインとは無関係な偽報酬(例えば、一様分布)を示すことができる。
さらに、BED文学における古典的情報源逆問題(英語版)によるこれらの2つの基準の体系的比較を行い、モデル不一致がない場合、KLの発散はより早く収束する傾向を示し、一方、ワッサーシュタイン計量はモデル不一致が無視できない場合、より堅牢な逐次的BED結果を提供する。
これらの結果から,ユーティリティ機能に対するKL分散とワッサーシュタインメトリクスのトレードオフを明らかにし,実用的BEDアプリケーションにおいて適切な基準を選択するためのガイドラインを提供する。
関連論文リスト
- Experimental Evidence-Based Sub-Rayleigh Source Discrimination [33.683963082460515]
本研究では,相対的信念比に基づくベイズ的エビデンスに基づく推論フレームワークを提案し,空間モードデマルチプレクシング(SPADE)を用いた1点と2点の非コヒーレントな光点源の識別に応用する。
本手法は,データに含まれる情報のみに依拠し,確率モデルと事前の信念を介し,すべての仮定が入力されるという,アドホックな統計構造を回避する。
論文 参考訳(メタデータ) (2026-01-20T13:49:34Z) - Mutual Wasserstein Discrepancy Minimization for Sequential
Recommendation [82.0801585843835]
逐次リコメンデーションのためのMutual WasserStein差分最小化MSteinに基づく新しい自己教師型学習フレームワークを提案する。
また,ワッサーシュタイン離散度測定に基づく新しい学習損失を提案する。
論文 参考訳(メタデータ) (2023-01-28T13:38:48Z) - Differentiable Invariant Causal Discovery [106.87950048845308]
観測データから因果構造を学ぶことは、機械学習の基本的な課題である。
本稿では,不特定変分因果解法(DICD)を提案する。
合成および実世界のデータセットに関する大規模な実験は、DICDがSHDの36%まで最先端の因果発見手法より優れていることを検証している。
論文 参考訳(メタデータ) (2022-05-31T09:29:07Z) - Parsimony-Enhanced Sparse Bayesian Learning for Robust Discovery of
Partial Differential Equations [5.584060970507507]
Parsimony Enhanced Sparse Bayesian Learning (PeSBL) 法は非線形力学系の部分微分方程式 (PDE) を解析するために開発された。
数値ケーススタディの結果,多くの標準力学系のPDEをPeSBL法を用いて正確に同定できることが示唆された。
論文 参考訳(メタデータ) (2021-07-08T00:56:11Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Bayesian data-driven discovery of partial differential equations with variable coefficients [9.331440154110117]
可変係数を用いたPDE探索のための高度なベイズスパース学習アルゴリズムを提案する。
実験では, 雑音環境下でのベースライン法よりも, tBGL-SS法の方がロバストであることを示す。
論文 参考訳(メタデータ) (2021-02-02T11:05:34Z) - Disentangled Representation Learning with Wasserstein Total Correlation [90.44329632061076]
本稿では,変分オートエンコーダとワッサースタインオートエンコーダの設定に総相関を導入し,非絡み付き潜在表現を学習する。
批評家は、ワッサーシュタインの総相関項を推定する主な目的と共に、敵対的に訓練される。
提案手法は, 再建能力の犠牲が小さく, 絡み合いに匹敵する性能を有することを示す。
論文 参考訳(メタデータ) (2019-12-30T05:31:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。