論文の概要: Neural Backward Filtering Forward Guiding
- arxiv url: http://arxiv.org/abs/2601.23030v1
- Date: Fri, 30 Jan 2026 14:39:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.503569
- Title: Neural Backward Filtering Forward Guiding
- Title(参考訳): ニューラル後方フィルタリングフォワードガイド
- Authors: Gefan Yang, Frank van der Meulen, Stefan Sommer,
- Abstract要約: 木上の非線形連続過程における推論は、観測が疎(リーフのみ)であり、トポロジーが複雑であるときに困難である。
離散遷移と連続拡散の両方のための統一的なフレームワークであるニューラル・バックワード・フィルタリング・フォワード・ガイド(NBFFG)を提案する。
- 参考スコア(独自算出の注目度): 2.676349883103404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inference in non-linear continuous stochastic processes on trees is challenging, particularly when observations are sparse (leaf-only) and the topology is complex. Exact smoothing via Doob's $h$-transform is intractable for general non-linear dynamics, while particle-based methods degrade in high dimensions. We propose Neural Backward Filtering Forward Guiding (NBFFG), a unified framework for both discrete transitions and continuous diffusions. Our method constructs a variational posterior by leveraging an auxiliary linear-Gaussian process. This auxiliary process yields a closed-form backward filter that serves as a ``guide'', steering the generative path toward high-likelihood regions. We then learn a neural residual--parameterized as a normalizing flow or a controlled SDE--to capture the non-linear discrepancies. This formulation allows for an unbiased path-wise subsampling scheme, reducing the training complexity from tree-size dependent to path-length dependent. Empirical results show that NBFFG outperforms baselines on synthetic benchmarks, and we demonstrate the method on a high-dimensional inference task in phylogenetic analysis with reconstruction of ancestral butterfly wing shapes.
- Abstract(参考訳): 木上の非線形連続確率過程における推論は、特に観測が疎(リーフのみ)で位相が複雑である場合、困難である。
Doobの$h$-transformによる厳密な平滑化は一般の非線形力学には難解であるが、粒子法は高次元で劣化する。
離散遷移と連続拡散の両方のための統一的なフレームワークであるニューラル・バックワード・フィルタリング・フォワード・ガイド(NBFFG)を提案する。
本手法は, 補助線形ガウス過程を応用して, 変分後部を構成する。
この補助過程は、'guide' として機能する閉形式の後方フィルタを生成し、高線状領域への生成経路を操る。
次に、正規化フローや制御されたSDEとしてパラメータ化されたニューラル残差を学習し、非線形不一致を捉える。
この定式化により、未バイアスのパスワイドサブサンプリングスキームが可能となり、パス長に依存したツリーサイズからトレーニングの複雑さを低減できる。
実験結果から,NBFFGは合成ベンチマークのベースラインよりも優れており,祖先の蝶の翼形状を復元した系統解析における高次元推論タスクの手法を実証した。
関連論文リスト
- Entropic Mirror Descent for Linear Systems: Polyak's Stepsize and Implicit Bias [55.72269695392027]
本稿では,線形系を解くためにエントロピックミラー降下を適用することに焦点を当てる。
収束解析の主な課題は、領域の非有界性に起因する。
制限的な仮定を課さずにこれを克服するために、Polyak型階段の変種を導入する。
論文 参考訳(メタデータ) (2025-05-05T12:33:18Z) - Solving High-dimensional Inverse Problems Using Amortized Likelihood-free Inference with Noisy and Incomplete Data [43.43717668587333]
本研究では,高次元逆問題に対する正規化フローに基づく確率論的逆転法を提案する。
提案手法は,データ圧縮のための要約ネットワークとパラメータ推定のための推論ネットワークの2つの補完ネットワークで構成されている。
提案手法を地下水水文学における逆問題に適用し,空間的に疎らな時系列観測に基づく対流電界の後方分布を推定する。
論文 参考訳(メタデータ) (2024-12-05T19:13:17Z) - Deep Horseshoe Gaussian Processes [0.0]
直交指数核を持つディープ・ガウス過程に基づく新しい単純前処理であるディープ・ホースシュー・ガウス過程(Deep Horseshoe Gaussian process)を紹介する。
ランダムな設計による非パラメトリック回帰では、関連する後続分布が2次損失の点で未知の真の回帰曲線を復元することを示す。
収束速度は、回帰関数の滑らかさと組成の両面に同時に適応する。
論文 参考訳(メタデータ) (2024-03-04T05:30:43Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Implicit Regularization for Group Sparsity [33.487964460794764]
正方形回帰損失に対する勾配勾配は, 明示的な正則化を伴わずに, 群間隔構造を持つ解に偏りを示す。
一般雑音設定における回帰問題の勾配ダイナミクスを解析し,最小最適誤差率を求める。
サイズ 1 群の退化の場合、我々の手法は疎線形回帰の新しいアルゴリズムを生み出す。
論文 参考訳(メタデータ) (2023-01-29T20:54:03Z) - Towards extraction of orthogonal and parsimonious non-linear modes from
turbulent flows [0.0]
本稿では,非線形モードの最小およびほぼ直交の集合を学習するための深い確率-神経-ネットワークアーキテクチャを提案する。
我々のアプローチは、$beta$-variational autoencoders($beta$-VAEs)と畳み込みニューラルネットワーク(CNNs)に基づいている。
論文 参考訳(メタデータ) (2021-09-03T13:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。