論文の概要: Deep composition of tensor-trains using squared inverse Rosenblatt
transports
- arxiv url: http://arxiv.org/abs/2007.06968v3
- Date: Tue, 19 Oct 2021 02:51:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 14:34:57.740304
- Title: Deep composition of tensor-trains using squared inverse Rosenblatt
transports
- Title(参考訳): 正方形逆ローゼンブラット輸送を用いたテンソル列の深部構成
- Authors: Tiangang Cui and Sergey Dolgov
- Abstract要約: 本稿では, 逆ローゼンブラット輸送の関数テンソル-トレイン近似を一般化する。
我々は、この輸送を2乗テンソル-トレイン分解から効率的に計算する手法を開発した。
結果として生じる深い逆ローゼンブラット輸送は、テンソル近似とランダム変数への写像の能力を大きく拡張する。
- 参考スコア(独自算出の注目度): 0.6091702876917279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Characterising intractable high-dimensional random variables is one of the
fundamental challenges in stochastic computation. The recent surge of transport
maps offers a mathematical foundation and new insights for tackling this
challenge by coupling intractable random variables with tractable reference
random variables. This paper generalises the functional tensor-train
approximation of the inverse Rosenblatt transport recently developed by Dolgov
et al. (Stat Comput 30:603--625, 2020) to a wide class of high-dimensional
non-negative functions, such as unnormalised probability density functions.
First, we extend the inverse Rosenblatt transform to enable the transport to
general reference measures other than the uniform measure. We develop an
efficient procedure to compute this transport from a squared tensor-train
decomposition which preserves the monotonicity. More crucially, we integrate
the proposed order-preserving functional tensor-train transport into a nested
variable transformation framework inspired by the layered structure of deep
neural networks. The resulting deep inverse Rosenblatt transport significantly
expands the capability of tensor approximations and transport maps to random
variables with complicated nonlinear interactions and concentrated density
functions. We demonstrate the efficiency of the proposed approach on a range of
applications in statistical learning and uncertainty quantification, including
parameter estimation for dynamical systems and inverse problems constrained by
partial differential equations.
- Abstract(参考訳): 難解な高次元確率変数の特徴付けは確率計算における基本的な課題の1つである。
最近のトランスポートマップの急増は、難解な確率変数と扱いやすい参照確率変数を結合することで、この課題に取り組むための数学的基礎と新しい洞察を提供する。
本稿では,Dolgovらにより最近開発された逆ローゼンブラット輸送(Stat Comput 30:603--625, 2020)の関数テンソル-トレイン近似を,非正規化確率密度関数などの高次元非負関数に一般化する。
まず、一様測度以外の一般的な基準測度への輸送を可能にするために、逆ローゼンブラット変換を拡張する。
単調性を保存する2乗テンソル-トレイン分解からこの輸送を効率よく計算する手法を開発した。
さらに,提案する順序保存型テンソルトレイントランスポートを,ディープニューラルネットワークの階層構造に触発されたネスト可変変換フレームワークに統合する。
結果の深い逆ローゼンブラット輸送は、複雑な非線形相互作用と集中密度関数を持つ確率変数へのテンソル近似と輸送写像の能力を著しく拡張する。
本稿では,統計学習や不確実性定量化の応用において,動的系のパラメータ推定や偏微分方程式に制約された逆問題を含む,提案手法の有効性を示す。
関連論文リスト
- Variance-Reducing Couplings for Random Features: Perspectives from Optimal Transport [57.73648780299374]
ランダム機能(RF)は、機械学習におけるカーネルメソッドをスケールアップするための一般的なテクニックであり、正確なカーネル評価をモンテカルロ推定に置き換える。
我々は、理論的洞察と数値アルゴリズムを用いて最適な輸送の統一的な枠組みを用いて、ユークリッドおよび離散入力空間上で定義されたカーネルに対して、新しい高性能なRF結合を開発する。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Trivialized Momentum Facilitates Diffusion Generative Modeling on Lie Groups [37.78638937228254]
本稿では、自明化と呼ばれる手法がユークリッド空間における拡散モデルの有効性をリー群に伝達する方法を示す。
モーメント変数は、データ分布と固定されたサンプル分布の間の位置変数の移動を支援するためにアルゴリズムによって導入された。
得られた方法は、タンパク質およびRNAのねじれ角の生成および洗練されたトーラスデータセットに対する最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-05-25T23:53:07Z) - Radiative transport in a periodic structure with band crossings [52.24960876753079]
任意の空間次元におけるシュリンガー方程式の半古典モデル(英語版)を導出する。
決定論的シナリオとランダムシナリオの両方を考慮する。
特定の応用として、ランダムなグラフェン中のウェーブパケットの有効ダイナミクスを導出する。
論文 参考訳(メタデータ) (2024-02-09T23:34:32Z) - TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - Arbitrary Distributions Mapping via SyMOT-Flow: A Flow-based Approach Integrating Maximum Mean Discrepancy and Optimal Transport [2.7309692684728617]
本稿では,2つの未知分布からの標本間の対称最大平均誤差を最小化することにより,可逆変換を訓練するSyMOT-Flowと呼ばれる新しいモデルを提案する。
結果として得られる変換はより安定で正確なサンプル生成をもたらす。
論文 参考訳(メタデータ) (2023-08-26T08:39:16Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Theory on variational high-dimensional tensor networks [2.0307382542339485]
ランダムな高次元ネットワーク状態の創発的統計特性とテンソルネットワークのトレーニング可能性について検討する。
変動高次元ネットワークが大域的損失関数のバレンプラトーに悩まされていることを証明した。
この結果は、将来の理論的研究と実践的応用の道を開くものである。
論文 参考訳(メタデータ) (2023-03-30T15:26:30Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Deep importance sampling using tensor trains with application to a
priori and a posteriori rare event estimation [2.4815579733050153]
本研究では,高次元問題における希少事象確率推定に適した重要度サンプリング手法を提案する。
次数保存変換の合成による参照分布のプッシュフォワードとして、一般的な重要サンプリング問題における最適重要性分布を近似する。
正方形テンソル-トレイン分解は、密度近似による秩序保存された高次元変換を構築するためのスケーラブルなアンザッツを提供する。
論文 参考訳(メタデータ) (2022-09-05T12:44:32Z) - Conditional Deep Inverse Rosenblatt Transports [2.0625936401496237]
統計的学習における条件付き信念の特徴付けの計算負担を軽減するために,新しいオフラインオンライン手法を提案する。
オフライン段階では、テンソル-トレイン形式において、信念ランダム変数と観察ランダム変数の合同法則を学習する。
オンラインフェーズでは、結果の順序保存条件付きトランスポートマップを使用して、新しい観測情報を得た条件付き信念をリアルタイムに評価する。
論文 参考訳(メタデータ) (2021-06-08T08:23:11Z) - Variational Transport: A Convergent Particle-BasedAlgorithm for Distributional Optimization [106.70006655990176]
分散最適化問題は機械学習や統計学で広く発生する。
本稿では,変分輸送と呼ばれる粒子に基づく新しいアルゴリズムを提案する。
目的関数がpolyak-Lojasiewicz (PL) (Polyak, 1963) の機能バージョンと滑らかな条件を満たすとき、変分輸送は線形に収束することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。