論文の概要: Learning Directed Graphical Models with Optimal Transport
- arxiv url: http://arxiv.org/abs/2305.15927v3
- Date: Fri, 2 Feb 2024 13:53:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 20:30:18.441464
- Title: Learning Directed Graphical Models with Optimal Transport
- Title(参考訳): 最適輸送を用いた直接グラフモデル学習
- Authors: Vy Vo, Trung Le, Long-Tung Vuong, He Zhao, Edwin Bonilla, Dinh Phung
- Abstract要約: 最適輸送レンズによるパラメータ学習問題に対する新たな視点を提供する。
我々は、理論的な枠組みを開発し、我々のアプローチの柔軟性と汎用性を示す広範な実証的な証拠でそれを支援する。
実験を通して,本手法は地中構造パラメータを復元するだけでなく,下流のアプリケーションでも比較可能か,あるいは良好に動作することを示す。
- 参考スコア(独自算出の注目度): 25.1842025879406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating the parameters of a probabilistic directed graphical model from
incomplete data remains a long-standing challenge. This is because, in the
presence of latent variables, both the likelihood function and posterior
distribution are intractable without further assumptions about structural
dependencies or model classes. While existing learning methods are
fundamentally based on likelihood maximization, here we offer a new view of the
parameter learning problem through the lens of optimal transport. This
perspective licenses a general framework that operates on any directed graphs
without making unrealistic assumptions on the posterior over the latent
variables or resorting to black-box variational approximations. We develop a
theoretical framework and support it with extensive empirical evidence
demonstrating the flexibility and versatility of our approach. Across
experiments, we show that not only can our method recover the ground-truth
parameters but it also performs comparably or better on downstream
applications, notably the non-trivial task of discrete representation learning.
- Abstract(参考訳): 不完全なデータから確率的有向グラフィカルモデルのパラメータを推定することは長年の課題である。
これは、潜在変数の存在下では、構造依存やモデルクラスについてのさらなる仮定なしに、可能性関数と後方分布の両方が難解であるからである。
既設の学習手法は, 帰結の最大化を基本としているが, 最適移動のレンズを通してパラメータ学習問題の新たな視点を提供する。
この観点は、潜在変数の後方に非現実的な仮定をせず、あるいはブラックボックスの変分近似に頼ることなく、任意の有向グラフ上で動く一般的なフレームワークをライセンスする。
我々は理論的な枠組みを開発し、我々のアプローチの柔軟性と汎用性を示す広範な実証的な証拠でそれを支援する。
実験を通して,本手法は基底パラメータを復元できるだけでなく,下流アプリケーション,特に離散表現学習の非自明なタスクにおいて,比較可能あるいはよりよい性能を発揮することを示した。
関連論文リスト
- The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Planning with Diffusion for Flexible Behavior Synthesis [125.24438991142573]
我々は、できるだけ多くの軌道最適化パイプラインをモデリング問題に折り畳むことがどう見えるか検討する。
我々の技術的アプローチの核心は、軌道を反復的にデノベーションすることで計画する拡散確率モデルにある。
論文 参考訳(メタデータ) (2022-05-20T07:02:03Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - Dream to Explore: Adaptive Simulations for Autonomous Systems [3.0664963196464448]
ベイズ的非パラメトリック法を適用し,力学系制御の学習に挑戦する。
ガウス過程を用いて潜在世界力学を探索することにより、強化学習で観測される一般的なデータ効率の問題を緩和する。
本アルゴリズムは,ログの変動的下界を最適化することにより,世界モデルと政策を共同で学習する。
論文 参考訳(メタデータ) (2021-10-27T04:27:28Z) - Control-Oriented Model-Based Reinforcement Learning with Implicit
Differentiation [11.219641045667055]
そこで本研究では,暗黙の微分を用いたモデル学習において,期待値を直接最適化するエンド・ツー・エンドのアプローチを提案する。
モデル不特定化方式におけるアプローチの利点を、確率に基づく手法と比較した理論的および実証的な証拠を提供する。
論文 参考訳(メタデータ) (2021-06-06T23:15:49Z) - Amortised Learning by Wake-Sleep [14.777274711706651]
我々は、覚醒時のモンテカルロ戦略を用いて、最大値のパラメータ更新を直接見積もる関数を学習する。
蓄積学習は、生成モデルから潜伏者や観察者のサンプルをシミュレートするときに可能となる。
論文 参考訳(メタデータ) (2020-02-22T17:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。