論文の概要: Deep importance sampling using tensor trains with application to a
priori and a posteriori rare event estimation
- arxiv url: http://arxiv.org/abs/2209.01941v2
- Date: Thu, 25 May 2023 01:03:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 23:56:20.367911
- Title: Deep importance sampling using tensor trains with application to a
priori and a posteriori rare event estimation
- Title(参考訳): テンソルトレインを用いた深部重要なサンプリングと前兆および後遺症事象推定への応用
- Authors: Tiangang Cui, Sergey Dolgov, Robert Scheichl
- Abstract要約: 本研究では,高次元問題における希少事象確率推定に適した重要度サンプリング手法を提案する。
次数保存変換の合成による参照分布のプッシュフォワードとして、一般的な重要サンプリング問題における最適重要性分布を近似する。
正方形テンソル-トレイン分解は、密度近似による秩序保存された高次元変換を構築するためのスケーラブルなアンザッツを提供する。
- 参考スコア(独自算出の注目度): 2.4815579733050153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a deep importance sampling method that is suitable for estimating
rare event probabilities in high-dimensional problems. We approximate the
optimal importance distribution in a general importance sampling problem as the
pushforward of a reference distribution under a composition of order-preserving
transformations, in which each transformation is formed by a squared
tensor-train decomposition. The squared tensor-train decomposition provides a
scalable ansatz for building order-preserving high-dimensional transformations
via density approximations. The use of composition of maps moving along a
sequence of bridging densities alleviates the difficulty of directly
approximating concentrated density functions. To compute expectations over
unnormalized probability distributions, we design a ratio estimator that
estimates the normalizing constant using a separate importance distribution,
again constructed via a composition of transformations in tensor-train format.
This offers better theoretical variance reduction compared with self-normalized
importance sampling, and thus opens the door to efficient computation of rare
event probabilities in Bayesian inference problems. Numerical experiments on
problems constrained by differential equations show little to no increase in
the computational complexity with the event probability going to zero, and
allow to compute hitherto unattainable estimates of rare event probabilities
for complex, high-dimensional posterior densities.
- Abstract(参考訳): 本研究では,高次元問題における希少事象確率推定に適した重要度サンプリング手法を提案する。
次数保存変換の合成による基準分布のプッシュフォワードとして, 一般重要サンプリング問題における最適重要度分布を近似し, それぞれの変換を2乗テンソル-トレイン分解により生成する。
2乗テンソル-トレイン分解は、密度近似による秩序保存高次元変換を構築するためのスケーラブルなアンサッツを提供する。
架橋密度の列に沿って移動する地図の組成を使用することで、集中密度関数を直接近似する困難さが軽減される。
本研究では,非正規化確率分布に対する期待値を計算するために,テンソル-トレイン形式の変換の合成によって構築した,別の重要分布を用いて正規化定数を推定する比推定器を設計する。
これにより、自己正規化重要度サンプリングよりも理論的な分散の低減が得られ、ベイズ推論問題における稀な事象確率の効率的な計算への扉を開くことができる。
微分方程式に制約された問題に関する数値実験では、事象確率がゼロとなると計算複雑性がほとんど増減せず、複雑で高次元の後方密度に対して稀な事象確率の予測が不可能となる。
関連論文リスト
- TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Nonparametric Probabilistic Regression with Coarse Learners [1.8275108630751844]
我々は, 密度の形状や形状について最小限の仮定で, 正確な条件密度を計算することができることを示す。
このアプローチをさまざまなデータセットで実証し、特に大きなデータセットで競合性能を示す。
論文 参考訳(メタデータ) (2022-10-28T16:25:26Z) - Reliable amortized variational inference with physics-based latent
distribution correction [0.4588028371034407]
ニューラルネットワークは、既存のモデルとデータのペアの後方分布を近似するように訓練される。
このアプローチの精度は、高忠実度トレーニングデータの可用性に依存する。
補正ステップは, ソース実験数の変化, ノイズ分散, 先行分布の変化に対して, 償却された変分推論の頑健さを向上することを示す。
論文 参考訳(メタデータ) (2022-07-24T02:38:54Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Density Ratio Estimation via Infinitesimal Classification [85.08255198145304]
そこで我々は, DRE-inftyを提案する。 DRE-inftyは, 密度比推定(DRE)を, より簡単なサブプロブレムに還元する手法である。
モンテカルロ法にインスパイアされ、中間ブリッジ分布の無限連続体を介して2つの分布の間を滑らかに補間する。
提案手法は,複雑な高次元データセット上での相互情報推定やエネルギーベースモデリングなどの下流タスクにおいて良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-22T06:26:29Z) - Alternating linear scheme in a Bayesian framework for low-rank tensor
approximation [5.833272638548154]
ベイズ推論問題を解くことにより、与えられたテンソルの低ランク表現を見つける。
本稿では,テンソルトレイン方式で無音変換を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-21T10:15:30Z) - Deep composition of tensor-trains using squared inverse Rosenblatt
transports [0.6091702876917279]
本稿では, 逆ローゼンブラット輸送の関数テンソル-トレイン近似を一般化する。
我々は、この輸送を2乗テンソル-トレイン分解から効率的に計算する手法を開発した。
結果として生じる深い逆ローゼンブラット輸送は、テンソル近似とランダム変数への写像の能力を大きく拡張する。
論文 参考訳(メタデータ) (2020-07-14T11:04:18Z) - Optimal Change-Point Detection with Training Sequences in the Large and
Moderate Deviations Regimes [72.68201611113673]
本稿では,情報理論の観点から,新しいオフライン変化点検出問題について検討する。
基礎となる事前および変更後分布の知識は分かっておらず、利用可能なトレーニングシーケンスからのみ学習できると仮定する。
論文 参考訳(メタデータ) (2020-03-13T23:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。