論文の概要: Improved Variational Bayesian Phylogenetic Inference with Normalizing
Flows
- arxiv url: http://arxiv.org/abs/2012.00459v1
- Date: Tue, 1 Dec 2020 13:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 08:22:31.670508
- Title: Improved Variational Bayesian Phylogenetic Inference with Normalizing
Flows
- Title(参考訳): 正規化流れによる変分ベイズ系統推定の改良
- Authors: Cheng Zhang
- Abstract要約: 本稿では, 深層学習技術を用いた系統的後生推定の促進に向けた第一歩として, 新たなVBPI, VBPI-NFを提案する。
VBPI-NFは正規化フローを使用して、異なる木のトポロジーをまたいで一般化する柔軟な分岐長さ分布のリッチなファミリーを提供する。
- 参考スコア(独自算出の注目度): 7.119831726757417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Bayesian phylogenetic inference (VBPI) provides a promising
general variational framework for efficient estimation of phylogenetic
posteriors. However, the current diagonal Lognormal branch length approximation
would significantly restrict the quality of the approximating distributions. In
this paper, we propose a new type of VBPI, VBPI-NF, as a first step to empower
phylogenetic posterior estimation with deep learning techniques. By handling
the non-Euclidean branch length space of phylogenetic models with carefully
designed permutation equivariant transformations, VBPI-NF uses normalizing
flows to provide a rich family of flexible branch length distributions that
generalize across different tree topologies. We show that VBPI-NF significantly
improves upon the vanilla VBPI on a benchmark of challenging real data Bayesian
phylogenetic inference problems. Further investigation also reveals that the
structured parameterization in those permutation equivariant transformations
can provide additional amortization benefit.
- Abstract(参考訳): variational bayesian phylogenetic inference (vbpi) は、系統的後方の効率的な推定のための、有望な一般的な変分的枠組みを提供する。
しかし、現在の対角形対数正規分岐長近似は近似分布の品質を著しく制限する。
本稿では, 深層学習技術を用いた系統的後生推定の活用に向けた第一歩として, 新たなVBPI, VBPI-NFを提案する。
系統学モデルの非ユークリッド分岐長空間を注意深く設計された置換同変変換で扱うことにより、vbpi-nfは正規化フローを使用して、異なるツリートポロジーにまたがる柔軟な分岐長分布のリッチな族を提供する。
vbpi-nfは実データベイズ型系統推定問題のベンチマークにおいてバニラvbpiを著しく改善することを示した。
さらに、これらの置換同変変換における構造的パラメタライゼーションが、さらなるアモーティゼーションの恩恵をもたらすことも明らかにした。
関連論文リスト
- PhyloGFN: Phylogenetic inference with generative flow networks [59.56365488043478]
本稿では,系統学における2つの中核的問題に対処するための生成フローネットワーク(GFlowNets)の枠組みを紹介する。
GFlowNetsは複雑な構造をサンプリングするのに適しているため、木トポロジー上の多重モード後部分布を探索し、サンプリングするのに自然な選択である。
我々は, 実際のベンチマークデータセット上で, 様々な, 高品質な進化仮説を生成できることを実証した。
論文 参考訳(メタデータ) (2023-10-12T23:46:08Z) - Improved Variational Bayesian Phylogenetic Inference using Mixtures [4.551386476350572]
VBPI-Mixturesは系統後部分布の精度を高めるために設計されたアルゴリズムである。
VBPI-Mixturesは、VBPIがモデル化に失敗するツリートポロジー上の分布をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-02T07:18:48Z) - Bayesian Renormalization [68.8204255655161]
ベイズ統計的推論にインスパイアされた再正規化に対する完全情報理論的アプローチを提案する。
ベイズ再正規化の主な洞察は、フィッシャー計量が創発的RGスケールの役割を担う相関長を定義することである。
本研究では,ベイズ正規化方式が既存のデータ圧縮法やデータ生成法とどのように関係しているかを考察する。
論文 参考訳(メタデータ) (2023-05-17T18:00:28Z) - Prior Density Learning in Variational Bayesian Phylogenetic Parameters
Inference [1.03590082373586]
本稿では,勾配に基づく手法とニューラルネットワークに基づくパラメータ化を用いて,それらのパラメータを学習することで,先行密度の剛性を緩和する手法を提案する。
実験の結果, 分岐長と進化モデルパラメータを推定する上で, 提案手法は強力であることが示唆された。
論文 参考訳(メタデータ) (2023-02-06T01:29:15Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - Fat-Tailed Variational Inference with Anisotropic Tail Adaptive Flows [53.32246823168763]
脂肪尾密度は、一般に、ロバストモデルとスケール混合における後縁および辺縁分布として生じる。
我々はまず、尾が尾崩壊の速度にどのように影響するかを定量化することで、リプシッツフローの尾に関する以前の理論を改善した。
次に、テール異方性に敏感なテールパラメータの代替理論を開発する。
論文 参考訳(メタデータ) (2022-05-16T18:03:41Z) - A Variational Approach to Bayesian Phylogenetic Inference [11.498534296596555]
ベイズ系統解析のための変分フレームワークを提案する。
我々はマルコフ勾配法による変分近似を訓練し、連続的および離散的な変分パラメータに対する推定器を採用する。
論文 参考訳(メタデータ) (2022-04-16T08:23:48Z) - A Variational Bayesian Approach to Learning Latent Variables for
Acoustic Knowledge Transfer [55.20627066525205]
本稿では,ディープニューラルネットワーク(DNN)モデルにおける潜伏変数の分布を学習するための変分ベイズ(VB)アプローチを提案する。
我々の提案するVBアプローチは,ターゲットデバイスにおいて良好な改善が得られ,しかも,13の最先端知識伝達アルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2021-10-16T15:54:01Z) - Statistical Guarantees for Transformation Based Models with Applications
to Implicit Variational Inference [8.333191406788423]
非パラメトリック推論における非線形潜在変数モデル(NL-LVM)の使用に関する理論的正当性を提供する。
我々はNL-LVMを用いて、GP-IVIとみなす変分分布の暗黙の族を構築する。
私たちの知る限りでは、暗黙の変分推論の理論的保証を提供するための最初の研究である。
論文 参考訳(メタデータ) (2020-10-23T21:06:29Z) - Quantitative Understanding of VAE as a Non-linearly Scaled Isometric
Embedding [52.48298164494608]
変分オートエンコーダ(VAE)は、各入力データに対応する潜伏変数の後方パラメータを推定する。
本稿では,VAEの微分幾何学的および情報理論的解釈を通じて,VAEの特性を定量的に理解する。
論文 参考訳(メタデータ) (2020-07-30T02:37:46Z) - Statistical Foundation of Variational Bayes Neural Networks [0.456877715768796]
変分ベイズ(VB)は、真の後部からのサンプルの生成に伴う計算コストと時間の複雑さを回避するための有用な代替手段を提供する。
本稿では, フィードフォワード人工ニューラルネットワークモデルにおける平均場変動後部(VP)の後方整合性の基本的結果について述べる。
論文 参考訳(メタデータ) (2020-06-29T03:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。