論文の概要: The $\alpha$-divergence Improves the Entropy Production Estimation via
Machine Learning
- arxiv url: http://arxiv.org/abs/2303.02901v1
- Date: Mon, 6 Mar 2023 05:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:11:46.628810
- Title: The $\alpha$-divergence Improves the Entropy Production Estimation via
Machine Learning
- Title(参考訳): 機械学習によるエントロピー生産推定を改善する$\alpha$-divergence
- Authors: Euijoon Kwon, Yongjoo Baek
- Abstract要約: 損失関数のホストが存在し、すなわち$alpha$-divergenceの変分表現を実装するものが存在することを示す。
これらの損失関数のうち、$alpha = -0.5$に対応するものは、強い非平衡駆動やスローダイナミクスに対して最も堅牢な性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen a surge of interest in the algorithmic estimation of
stochastic entropy production (EP) from the trajectory data via machine
learning. A crucial element of such algorithms is the identification of a loss
function whose minimization guarantees the accurate EP estimation. In this
study, we show that there exists a host of loss functions, namely those
implementing a variational representation of the $\alpha$-divergence, which can
be used for the EP estimation. Among these loss functions, the one
corresponding to $\alpha = -0.5$ exhibits the most robust performance against
strong nonequilibrium driving or slow dynamics, which adversely affects the
existing method based on the Kullback-Leibler divergence ($\alpha = 0$). To
corroborate our findings, we present an exactly solvable simplification of the
EP estimation problem, whose loss function landscape and stochastic properties
demonstrate the optimality of $\alpha = -0.5$.
- Abstract(参考訳): 近年,機械学習による軌道データから確率エントロピー生成(EP)をアルゴリズムで推定することへの関心が高まっている。
このようなアルゴリズムの重要な要素は、最小化が正確なEP推定を保証する損失関数の同定である。
本研究では,EP推定に使用できる$\alpha$-divergenceの変分表現を実装するような,損失関数のホストが存在することを示す。
これらの損失関数のうち、$\alpha = -0.5$に対応するものは、強い非平衡駆動やスローダイナミクスに対して最も堅牢な性能を示し、これはクルバック・リーバーの発散(\alpha = 0$)に基づいて既存の方法に悪影響を及ぼす。
そこで本研究では,ep推定問題の解法を単純化し,損失関数のランドスケープと確率的性質から,$\alpha = -0.5$ の最適性を示す。
関連論文リスト
- $\alpha$-Divergence Loss Function for Neural Density Ratio Estimation [0.0]
本稿では、簡潔な実装と安定な最適化を提供する$alpha$-divergence損失関数($alpha$-Div)を提案する。
提案した損失関数の安定性を実証的に検証し,DREタスクの推定精度について検討した。
論文 参考訳(メタデータ) (2024-02-03T05:33:01Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Sample Complexity of Variance-reduced Distributionally Robust Q-learning [18.440869985362994]
本稿では,分散性に頑健なQ-ラーニングアルゴリズムと,分散性に欠けるロバストなポリシーを効果的に学習できる分散性のあるQ-ラーニングアルゴリズムを2つ提案する。
一連の数値実験により、分布シフトの処理におけるアルゴリズムの理論的発見と効率性が確認された。
論文 参考訳(メタデータ) (2023-05-28T19:40:46Z) - Robust computation of optimal transport by $\beta$-potential
regularization [79.24513412588745]
最適輸送(OT)は、確率分布間の差を測定する機械学習分野で広く使われているツールである。
我々は、いわゆる$beta$-divergenceに付随するベータポテンシャル項でOTを正規化することを提案する。
提案アルゴリズムで計算した輸送行列は,外乱が存在する場合でも確率分布を頑健に推定するのに役立つことを実験的に実証した。
論文 参考訳(メタデータ) (2022-12-26T18:37:28Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Retire: Robust Expectile Regression in High Dimensions [3.9391041278203978]
ペナル化量子化法と期待回帰法は、高次元データの異方性検出に有用な手段を提供する。
我々は,頑健な期待回帰(退職)を提案し,研究する。
提案手法は半平滑なニュートン座標降下アルゴリズムにより効率よく解けることを示す。
論文 参考訳(メタデータ) (2022-12-11T18:03:12Z) - On the Pitfalls of Heteroscedastic Uncertainty Estimation with
Probabilistic Neural Networks [23.502721524477444]
このアプローチがいかにして非常に貧弱だが安定な推定に繋がるかを示す合成例を示す。
問題を悪化させる特定の条件とともに、犯人をログライクな損失とみなす。
我々は、損失に対する各データポイントの寄与を、$beta$-exponentiated variance estimateによって重み付けする、$beta$-NLLと呼ばれる別の定式化を提案する。
論文 参考訳(メタデータ) (2022-03-17T08:46:17Z) - Improved Convergence Rates for Sparse Approximation Methods in
Kernel-Based Learning [48.08663378234329]
カーネル・リッジ・レグレッションやガウシアン・プロセスのようなカーネル・ベース・モデルは機械学習の応用においてユビキタスである。
既存のスパース近似法は計算コストを大幅に削減することができる。
我々は,Nystr"om法と疎変動ガウス過程近似法に対して,新しい信頼区間を提供する。
論文 参考訳(メタデータ) (2022-02-08T17:22:09Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。