論文の概要: Fitted Value Iteration Methods for Bicausal Optimal Transport
- arxiv url: http://arxiv.org/abs/2306.12658v2
- Date: Thu, 2 Nov 2023 01:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 17:22:35.943997
- Title: Fitted Value Iteration Methods for Bicausal Optimal Transport
- Title(参考訳): Bicausal Optimal Transportのためのフィット値反復法
- Authors: Erhan Bayraktar, Bingyan Han
- Abstract要約: We developed a fit value iteration (FVI) method to compute bicausal optimal transport (OT)。
動的プログラミングの定式化に基づいて、FVIは関数クラスを採用し、二元関数の値関数を近似する。
本研究では, 適切な構造を持つ多層ニューラルネットワークが, サンプル複雑性証明に必要な重要な仮定を満たすことを実証する。
- 参考スコア(独自算出の注目度): 4.459996749171579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a fitted value iteration (FVI) method to compute bicausal optimal
transport (OT) where couplings have an adapted structure. Based on the dynamic
programming formulation, FVI adopts a function class to approximate the value
functions in bicausal OT. Under the concentrability condition and approximate
completeness assumption, we prove the sample complexity using (local)
Rademacher complexity. Furthermore, we demonstrate that multilayer neural
networks with appropriate structures satisfy the crucial assumptions required
in sample complexity proofs. Numerical experiments reveal that FVI outperforms
linear programming and adapted Sinkhorn methods in scalability as the time
horizon increases, while still maintaining acceptable accuracy.
- Abstract(参考訳): 結合が適合した構造を持つ二因果最適輸送(OT)を計算するための適合値反復(FVI)法を開発した。
動的プログラミングの定式化に基づいて、FVIは関数クラスを採用し、二元関数の値関数を近似する。
集中性条件と近似完全性仮定の下で、(局所)ラデマッハ複雑性を用いてサンプル複雑性を証明した。
さらに、適切な構造を持つ多層ニューラルネットワークが、サンプル複雑性証明に必要な重要な仮定を満たすことを示した。
数値実験により、FVIは線形プログラミングと適応したシンクホーン法を時間的水平線が大きくなるにつれて性能が向上し、精度は維持されていることが明らかになった。
関連論文リスト
- Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Generative modeling of time-dependent densities via optimal transport
and projection pursuit [3.069335774032178]
本稿では,時間的モデリングのための一般的なディープラーニングアルゴリズムの代替として,安価に提案する。
我々の手法は最先端の解法と比較して非常に競争力がある。
論文 参考訳(メタデータ) (2023-04-19T13:50:13Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Contrastive Conditional Neural Processes [45.70735205041254]
条件付きニューラル・プロセス(CNP)は、メタラーニング環境下でのプロセスの機能に近い確率的推論でニューラルネットワークをブリッジする。
2つの補助的コントラスト分岐が階層的に設定される。すなわち、インストラクテーション時間的コントラスト学習(tt TCL)とクロスストラクテーション関数コントラスト学習(tt FCL)である。
実験により、tt TCLは観測の高レベルの抽象化を捉えるのに対し、tt FCLは基底関数の同定に役立ち、より効率的な表現を提供することを示す。
論文 参考訳(メタデータ) (2022-03-08T10:08:45Z) - A Stochastic Bundle Method for Interpolating Networks [18.313879914379008]
本稿では,実験的な損失をゼロにすることができるディープニューラルネットワークのトレーニング手法を提案する。
各イテレーションにおいて,本手法は目的学習近似のバンドルとして知られる最大線形近似を構成する。
論文 参考訳(メタデータ) (2022-01-29T23:02:30Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。