論文の概要: Neural Bridge Processes
- arxiv url: http://arxiv.org/abs/2508.07220v1
- Date: Sun, 10 Aug 2025 07:44:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.761232
- Title: Neural Bridge Processes
- Title(参考訳): ニューラルブリッジプロセス
- Authors: Jian Xu, Yican Liu, Qibin Zhao, John Paisley, Delu Zeng,
- Abstract要約: 本稿では,入力xが拡散軌道全体の動的アンカーとして機能する関数をモデル化する手法を提案する。
合成データ,脳波信号レグレッション,画像レグレッションタスクにおいてNBPを検証し,ベースラインよりも大幅に改善した。
- 参考スコア(独自算出の注目度): 21.702709965353804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning stochastic functions from partially observed context-target pairs is a fundamental problem in probabilistic modeling. Traditional models like Gaussian Processes (GPs) face scalability issues with large datasets and assume Gaussianity, limiting their applicability. While Neural Processes (NPs) offer more flexibility, they struggle with capturing complex, multi-modal target distributions. Neural Diffusion Processes (NDPs) enhance expressivity through a learned diffusion process but rely solely on conditional signals in the denoising network, resulting in weak input coupling from an unconditional forward process and semantic mismatch at the diffusion endpoint. In this work, we propose Neural Bridge Processes (NBPs), a novel method for modeling stochastic functions where inputs x act as dynamic anchors for the entire diffusion trajectory. By reformulating the forward kernel to explicitly depend on x, NBP enforces a constrained path that strictly terminates at the supervised target. This approach not only provides stronger gradient signals but also guarantees endpoint coherence. We validate NBPs on synthetic data, EEG signal regression and image regression tasks, achieving substantial improvements over baselines. These results underscore the effectiveness of DDPM-style bridge sampling in enhancing both performance and theoretical consistency for structured prediction tasks.
- Abstract(参考訳): 部分的に観測された文脈-対象対から確率関数を学ぶことは確率的モデリングの基本的な問題である。
Gaussian Processes(GP)のような従来のモデルは、大規模なデータセットでスケーラビリティの問題に直面し、Gaussianityを仮定し、適用性を制限する。
Neural Processs(NP)はより柔軟性を提供するが、複雑なマルチモーダルなターゲット分布の取得に苦労する。
ニューラル拡散プロセス(NDP)は、学習拡散過程を通じて表現性を向上するが、デノナイジングネットワークにおける条件信号のみに依存するため、非条件前処理からの弱い入力結合と拡散終端における意味的ミスマッチが生じる。
本研究では,入力xが拡散軌道全体の動的アンカーとして機能する確率関数をモデル化する新しい手法であるニューラルブリッジプロセス(NBP)を提案する。
フォワードカーネルをxに明示的に依存するように再構成することで、NBPは監督対象で厳格に終了する制約された経路を強制する。
このアプローチは、より強い勾配信号を提供するだけでなく、エンドポイントのコヒーレンスも保証する。
合成データ,脳波信号レグレッション,画像レグレッションタスクにおいてNBPを検証し,ベースラインよりも大幅に改善した。
これらの結果は,構造予測タスクの性能および理論的整合性の向上におけるDDPM型橋梁サンプリングの有効性を裏付けるものである。
関連論文リスト
- Towards Scalable and Deep Graph Neural Networks via Noise Masking [59.058558158296265]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで顕著に成功している。
計算とストレージのコストが高いため、大きなグラフにスケールすることは困難です。
既存のモデル単純化作業と互換性のあるプラグアンドプレイモジュールであるノイズマスキング(RMask)を用いたランダムウォークを提案する。
論文 参考訳(メタデータ) (2024-12-19T07:48:14Z) - Probabilistically Rewired Message-Passing Neural Networks [41.554499944141654]
メッセージパッシンググラフニューラルネットワーク(MPNN)は、グラフ構造化入力を処理する強力なツールとして登場した。
MPNNは、潜在的なノイズや欠落した情報を無視して、固定された入力グラフ構造で動作する。
確率的に再構成されたMPNN(PR-MPNN)を考案し、より有益なものを省略しながら、関連するエッジを追加することを学習する。
論文 参考訳(メタデータ) (2023-10-03T15:43:59Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Neural Diffusion Processes [12.744250155946503]
そこで我々は, 関数上の豊富な分布から, 有限限界を通してサンプルを学習するニューラル拡散過程 (NDP) を提案する。
我々はNDPが真のベイズ後部に近い機能的分布を捉えることを実証的に示す。
NDPは、回帰、暗黙のハイパーマージン化、非ガウスの後方予測、グローバル最適化など、様々な下流タスクを可能にする。
論文 参考訳(メタデータ) (2022-06-08T16:13:04Z) - Meta-Learning Stationary Stochastic Process Prediction with
Convolutional Neural Processes [32.02612871707347]
提案するConvNPは,ニューラルプロセス(NP)に翻訳等価性を付与し,畳み込み条件NPを拡張して予測分布への依存性を許容する。
本研究では,1DにおけるConvNPの強い性能と一般化能力,回帰画像補完,実時間データを用いた各種タスクについて述べる。
論文 参考訳(メタデータ) (2020-07-02T18:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。