論文の概要: Distributional Sensitivity Analysis: Enabling Differentiability in Sample-Based Inference
- arxiv url: http://arxiv.org/abs/2508.09347v1
- Date: Tue, 12 Aug 2025 21:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.695471
- Title: Distributional Sensitivity Analysis: Enabling Differentiability in Sample-Based Inference
- Title(参考訳): 分布感性分析:サンプルベース推論における微分可能性の解明
- Authors: Pi-Yueh Chuang, Ahmed Attia, Emil Constantinescu,
- Abstract要約: 任意の次元のランダムベクトルの与えられた実現時の感度を推定するための2つの解析式を提案する。
最初の式は、この感度を 1-次元条件分布のベクトルに付随する逆写像の部分微分として解釈する。
第2の式では対角近似を導入し、計算コストをある程度の精度で削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present two analytical formulae for estimating the sensitivity -- namely, the gradient or Jacobian -- at given realizations of an arbitrary-dimensional random vector with respect to its distributional parameters. The first formula interprets this sensitivity as partial derivatives of the inverse mapping associated with the vector of 1-D conditional distributions. The second formula, intended for optimization methods that tolerate inexact gradients, introduces a diagonal approximation that reduces computational cost at the cost of some accuracy. We additionally provide four second-order numerical algorithms to approximate both formulae when closed forms are unavailable. We performed verification and validation studies to demonstrate the correctness of these numerical algorithms and the effectiveness of the proposed formulae. A nuclear physics application showcases how our work enables uncertainty quantification and parameter inference for quantum correlation functions. Our approach differs from existing methods by avoiding the need for model fitting, knowledge of sampling algorithms, and evaluation of high-dimensional integrals. It is therefore particularly useful for sample-based inverse problems when the sampler operates as a black box or requires expensive physics simulations. Moreover, our method renders arbitrary sampling subroutines differentiable, facilitating their integration into programming frameworks for deep learning and automatic differentiation. Algorithmic details and code implementations are provided in this paper and in our open-source software DistroSA to enable reproducibility and further development.
- Abstract(参考訳): 我々は、その分布パラメータに関する任意の次元のランダムベクトルの所定の実現において、感度、すなわち勾配またはヤコビアンを推定するための2つの解析公式を示す。
最初の式は、この感度を 1-次元条件分布のベクトルに付随する逆写像の部分微分として解釈する。
2つ目の公式は、不正確な勾配を許容する最適化方法を目的としており、ある程度の精度で計算コストを削減できる対角近似を導入している。
さらに, 閉形式が利用できない場合に, 両式を近似する2次数値アルゴリズムを4つ提案する。
我々は,これらの数値アルゴリズムの正しさと提案式の有効性を実証するために,検証と検証を行った。
原子核物理学の応用は、我々の研究が量子相関関数に対して不確実な量子化とパラメータ推論を可能にする方法を示している。
提案手法は,モデルフィッティングやサンプリングアルゴリズムの知識,高次元積分の評価など,既存の手法と異なる。
そのため、サンプルがブラックボックスとして動作する場合や高価な物理シミュレーションを必要とする場合、サンプルベースの逆問題に対して特に有用である。
さらに,本手法は任意のサンプリングサブルーチンを識別可能とし,ディープラーニングと自動微分のためのプログラミングフレームワークへの統合を容易にする。
本稿では,再現性とさらなる開発を可能にするオープンソースソフトウェアであるDistroSAについて,アルゴリズムの詳細と実装について述べる。
関連論文リスト
- Harmonic Path Integral Diffusion [0.4527270266697462]
本稿では,連続多変量確率分布から抽出する新しい手法を提案する。
本手法では,状態空間の起点を中心とするデルタ関数を$t=0$とし,ターゲット分布に$t=1$で変換する。
これらのアルゴリズムは他のサンプリング手法、特にシミュレートおよびパス積分サンプリングと対比し、解析制御、精度、計算効率の点でそれらの利点を強調した。
論文 参考訳(メタデータ) (2024-09-23T16:20:21Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - VI-DGP: A variational inference method with deep generative prior for
solving high-dimensional inverse problems [0.7734726150561089]
本研究では,高次元後方分布を推定するための新しい近似法を提案する。
このアプローチは、深層生成モデルを利用して、空間的に変化するパラメータを生成することができる事前モデルを学ぶ。
提案手法は自動微分方式で完全に実装できる。
論文 参考訳(メタデータ) (2023-02-22T06:48:10Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - Manifold learning-based polynomial chaos expansions for high-dimensional
surrogate models [0.0]
システム記述における不確実性定量化(UQ)のための多様体学習に基づく手法を提案する。
提案手法は高精度な近似を達成でき、UQタスクの大幅な高速化につながる。
論文 参考訳(メタデータ) (2021-07-21T00:24:15Z) - Online Statistical Inference for Stochastic Optimization via
Kiefer-Wolfowitz Methods [8.890430804063705]
The distribution for the Polyak-Ruppert-averaging type Kiefer-Wolfowitz (AKW) estimators。
分布結果は、統計効率と関数クエリの複雑さのトレードオフを反映している。
論文 参考訳(メタデータ) (2021-02-05T19:22:41Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。