論文の概要: Distance-informed Neural Processes
- arxiv url: http://arxiv.org/abs/2508.18903v1
- Date: Tue, 26 Aug 2025 10:19:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.80063
- Title: Distance-informed Neural Processes
- Title(参考訳): 距離インフォームドニューラルプロセス
- Authors: Aishwarya Venkataramanan, Joachim Denzler,
- Abstract要約: 距離インフォームド・ニューラル・プロセス(DNP)は,グローバルな局所構造と距離を考慮した局所構造を組み合わせた不確実性推定を改善する。
実験の結果、DNPは高い予測性能を示し、回帰および分類タスクにおける不確実性校正を改善した。
- 参考スコア(独自算出の注目度): 6.717752897431761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the Distance-informed Neural Process (DNP), a novel variant of Neural Processes that improves uncertainty estimation by combining global and distance-aware local latent structures. Standard Neural Processes (NPs) often rely on a global latent variable and struggle with uncertainty calibration and capturing local data dependencies. DNP addresses these limitations by introducing a global latent variable to model task-level variations and a local latent variable to capture input similarity within a distance-preserving latent space. This is achieved through bi-Lipschitz regularization, which bounds distortions in input relationships and encourages the preservation of relative distances in the latent space. This modeling approach allows DNP to produce better-calibrated uncertainty estimates and more effectively distinguish in- from out-of-distribution data. Empirical results demonstrate that DNP achieves strong predictive performance and improved uncertainty calibration across regression and classification tasks.
- Abstract(参考訳): 本稿では,大域的および距離対応の局所潜伏構造を組み合わせることにより,不確実性評価を改善するニューラル・プロセスの新たな変種であるディスタンス・インフォームド・ニューラル・プロセス(DNP)を提案する。
標準ニューラルプロセス(NP)は、しばしばグローバルな潜在変数に依存し、不確実な校正とローカルデータの依存関係の取得に苦労する。
DNPは、タスクレベルの変動をモデル化するためのグローバル潜時変数と、距離保存された潜時空間内の入力類似性をキャプチャするローカル潜時変数を導入することで、これらの制限に対処する。
これは、入力関係における歪みを束縛し、潜在空間における相対距離の保存を促進するビ・リプシッツ正則化によって達成される。
このモデリングアプローチにより、DNPはより良い校正された不確実性推定を作成でき、より効果的に分布外データと区別できる。
実験の結果、DNPは高い予測性能を示し、回帰および分類タスクにおける不確実性校正を改善した。
関連論文リスト
- Enhancing Uncertainty Estimation and Interpretability via Bayesian Non-negative Decision Layer [55.66973223528494]
本研究では, ディープニューラルネットワークを条件付きベイズ非負因子分析として再構成したベイズ非負決定層(BNDL)を開発した。
BNDLは複雑な依存関係をモデル化し、堅牢な不確実性推定を提供する。
また,BNDLが効果的に不整合学習を達成できるという理論的保証も提供する。
論文 参考訳(メタデータ) (2025-05-28T10:23:34Z) - Exploring Pseudo-Token Approaches in Transformer Neural Processes [0.0]
ISANP(Set Attentive Neural Processs)について紹介する。
ISANPはTransformer Neural Processs (TNP) と競合し、1次元回帰、画像補完、文脈帯域幅、ベイズ最適化において最先端のモデルを上回る。
ISANPは、より大きなデータセットによくスケールする、パフォーマンスと計算の複雑さの調整可能なバランスを提供する。
論文 参考訳(メタデータ) (2025-04-19T22:47:59Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Neural variational Data Assimilation with Uncertainty Quantification using SPDE priors [28.804041716140194]
ディープラーニングコミュニティの最近の進歩は、ニューラルネットワークと変分データ同化フレームワークを通じて、この問題に対処することができる。
本研究では、部分微分方程式(SPDE)とガウス過程(GP)の理論を用いて状態の空間的および時間的共分散を推定する。
論文 参考訳(メタデータ) (2024-02-02T19:18:12Z) - Density Regression and Uncertainty Quantification with Bayesian Deep
Noise Neural Networks [4.376565880192482]
ディープニューラルネットワーク(DNN)モデルは、幅広い教師付き学習アプリケーションにおいて最先端の予測精度を達成した。
DNN予測の不確実性を正確に定量化することは、依然として難しい課題である。
本稿では,ベイジアンディープノイズニューラルネットワーク (B-DeepNoise) を提案する。ベイジアンDNNは,ランダムノイズ変数をすべての隠蔽層に拡張することにより,標準ベイジアンDNNを一般化する。
予測精度,不確実性定量化精度,不確実性定量化効率の点で優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-12T02:47:29Z) - Tackling covariate shift with node-based Bayesian neural networks [26.64657196802115]
ノードベースのBNNは、各隠れノードに潜在確率変数を乗じ、重みの点推定を学習することで不確実性を誘導する。
本稿では、これらの潜伏雑音変数を、訓練中の単純およびドメインに依存しないデータ摂動の暗黙的表現として解釈する。
論文 参考訳(メタデータ) (2022-06-06T08:56:19Z) - Global Convolutional Neural Processes [52.85558458799716]
我々は,潜伏NPFにおけるSOTAログ類似化を実現するGloBal Convolutional Neural Process(GBCoNP)を構築する。
離散化された入力空間上の集合である大域的不確実性表現 p(z) を設計する。
学習した先行データは、1D、2D、新たに提案された時空間のCOVIDデータセットなど、さまざまなシナリオで分析される。
論文 参考訳(メタデータ) (2021-09-02T03:32:50Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Doubly Stochastic Variational Inference for Neural Processes with
Hierarchical Latent Variables [37.43541345780632]
本稿では,Double Variational Neural Process (DSVNP) と呼ぶニューラル・プロセス(NP)モデルを提案する。
本モデルでは,大域的潜伏変数と局所潜伏変数を組み合わせて予測を行い,このモデルをいくつかの実験で評価し,多出力回帰における競合予測性能と分類における不確実性評価を示す。
論文 参考訳(メタデータ) (2020-08-21T13:32:12Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - NP-PROV: Neural Processes with Position-Relevant-Only Variances [113.20013269514327]
位置関連性オンリーバリアース(NP-PROV)を有するニューラルプロセスと呼ばれる新しいメンバーを提案する。
NP-PROVは、その位置の関数値に関係なく、コンテキストポイントに近いターゲットポイントが小さな不確実性を持つという仮説を立てている。
我々は, NP-PROVが有界分散を維持しつつ, 最先端の可能性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-06-15T06:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。