論文の概要: Differentiable quantum-trajectory simulation of Lindblad dynamics for QGP transport-coefficient inference
- arxiv url: http://arxiv.org/abs/2601.14399v1
- Date: Tue, 20 Jan 2026 19:03:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.124933
- Title: Differentiable quantum-trajectory simulation of Lindblad dynamics for QGP transport-coefficient inference
- Title(参考訳): QGP輸送係数推論のためのリンドブラッド力学の微分量子軌道シミュレーション
- Authors: Lukas Heinrich, Tom Magorsch,
- Abstract要約: 我々は,クォークグルーオンプラズマの輸送係数のパラメータ推定を,クォーコニウム抑制のオープン量子系に基づくモンテカルロシミュレーションの微分により検討した。
基礎となるシミュレータは大きなヒルベルト空間でリンドブラッド方程式を解くことを必要とし、パラメータ推定は計算コストがかかる。
我々は,モンテカルロ波動関数アルゴリズムにおいて,離散的なジャンプサンプリングにより,スコア関数勾配推定器を適用し,リンドブラッド方程式を解く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study parameter estimation for the transport coefficients of the quark-gluon plasma by differentiating open-quantum-system-based Monte Carlo simulations of quarkonium suppression. The underlying simulator requires solving a Lindblad equation in a large Hilbert space, which makes parameter estimation computationally expensive. We approach the problem using gradient-based optimization. Specifically, we apply the score-function gradient estimator to differentiate through discrete jump sampling in the Monte Carlo wave-function algorithm used to solve the Lindblad equation. The resulting stochastic gradient estimator exhibits sufficiently low variance and can still be estimated in an embarrassingly parallel manner, enabling efficient scaling of the simulations. We implement this gradient estimator in the existing open-source quarkonium suppression code QTraj. To demonstrate its utility for parameter estimation, we infer the two transport coefficients $\hatκ$ and $\hatγ$ using gradient-based optimization on synthetic nuclear modification factor data.
- Abstract(参考訳): 我々は,クォークグルーオンプラズマの輸送係数のパラメータ推定を,クォーコニウム抑制のオープン量子系に基づくモンテカルロシミュレーションの微分により検討した。
基礎となるシミュレータは大きなヒルベルト空間でリンドブラッド方程式を解くことを必要とし、パラメータ推定は計算コストがかかる。
我々は勾配に基づく最適化を用いてこの問題にアプローチする。
具体的には,モンテカルロ波動関数アルゴリズムにおける離散的なジャンプサンプリングにより,スコア関数勾配推定器を適用し,リンドブラッド方程式を解く。
得られた確率勾配推定器は十分な低分散を示し、いまだに恥ずかしく平行に推定でき、シミュレーションの効率的なスケーリングを可能にする。
既存のオープンソースクォーコニウム抑制コードQTrajにこの勾配推定器を実装した。
パラメータ推定の実用性を示すために,合成核修飾係数データに対する勾配に基づく最適化を用いて,2つの輸送係数$\hatκ$と$\hatγ$を推定する。
関連論文リスト
- Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - Semi-Implicit Functional Gradient Flow for Efficient Sampling [30.32233517392456]
本稿では,ガウス雑音を近似系とする摂動粒子を用いた関数勾配ParVI法を提案する。
ニューラルネットワークと一致するスコアをデノナイズすることで推定できる機能的勾配流は,強い理論的収束保証を示す。
さらに,サンプリング中の適切な雑音の大きさを自動的に選択する適応バージョンを提案する。
論文 参考訳(メタデータ) (2024-10-23T15:00:30Z) - Maximum a Posteriori Estimation for Linear Structural Dynamics Models Using Bayesian Optimization with Rational Polynomial Chaos Expansions [0.01578888899297715]
本稿では,MAP推定のための既存のスパースベイズ学習手法の拡張を提案する。
ベイズ最適化手法を導入し,実験設計を適応的に強化する。
疎性誘導学習と実験設計を組み合わせることで,モデル評価の回数を効果的に削減する。
論文 参考訳(メタデータ) (2024-08-07T06:11:37Z) - Unbiased Kinetic Langevin Monte Carlo with Inexact Gradients [0.8749675983608172]
動力学的ランゲヴィンダイナミクスに基づく後進手段の非バイアス化手法を提案する。
提案した推定器は偏りがなく、有限分散となり、中心極限定理を満たす。
以上の結果から、大規模アプリケーションでは、非バイアスアルゴリズムは「ゴールドスタンダード」なハミルトニアン・モンテカルロよりも2~3桁効率が良いことが示された。
論文 参考訳(メタデータ) (2023-11-08T21:19:52Z) - Sampling from Gaussian Process Posteriors using Stochastic Gradient
Descent [43.097493761380186]
勾配アルゴリズムは線形系を解くのに有効な方法である。
最適値に収束しない場合であっても,勾配降下は正確な予測を導出することを示す。
実験的に、勾配降下は十分に大規模または不条件の回帰タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-20T15:07:37Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Adaptive LASSO estimation for functional hidden dynamic geostatistical
model [69.10717733870575]
関数型隠れ統計モデル(f-HD)のためのペナル化極大推定器(PMLE)に基づく新しいモデル選択アルゴリズムを提案する。
このアルゴリズムは反復最適化に基づいており、適応最小限の収縮・セレクタ演算子(GMSOLAS)ペナルティ関数を用いており、これは不給付のf-HD最大線量推定器によって得られる。
論文 参考訳(メタデータ) (2022-08-10T19:17:45Z) - Online Statistical Inference for Stochastic Optimization via
Kiefer-Wolfowitz Methods [8.890430804063705]
The distribution for the Polyak-Ruppert-averaging type Kiefer-Wolfowitz (AKW) estimators。
分布結果は、統計効率と関数クエリの複雑さのトレードオフを反映している。
論文 参考訳(メタデータ) (2021-02-05T19:22:41Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。