論文の概要: NP-PROV: Neural Processes with Position-Relevant-Only Variances
- arxiv url: http://arxiv.org/abs/2007.00767v1
- Date: Mon, 15 Jun 2020 06:11:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:30:00.123509
- Title: NP-PROV: Neural Processes with Position-Relevant-Only Variances
- Title(参考訳): NP-PROV: 位置関連性のみを有するニューラルプロセス
- Authors: Xuesong Wang, Lina Yao, Xianzhi Wang, Feiping Nie
- Abstract要約: 位置関連性オンリーバリアース(NP-PROV)を有するニューラルプロセスと呼ばれる新しいメンバーを提案する。
NP-PROVは、その位置の関数値に関係なく、コンテキストポイントに近いターゲットポイントが小さな不確実性を持つという仮説を立てている。
我々は, NP-PROVが有界分散を維持しつつ, 最先端の可能性を実現することができることを示す。
- 参考スコア(独自算出の注目度): 113.20013269514327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Processes (NPs) families encode distributions over functions to a
latent representation, given context data, and decode posterior mean and
variance at unknown locations. Since mean and variance are derived from the
same latent space, they may fail on out-of-domain tasks where fluctuations in
function values amplify the model uncertainty. We present a new member named
Neural Processes with Position-Relevant-Only Variances (NP-PROV). NP-PROV
hypothesizes that a target point close to a context point has small
uncertainty, regardless of the function value at that position. The resulting
approach derives mean and variance from a function-value-related space and a
position-related-only latent space separately. Our evaluation on synthetic and
real-world datasets reveals that NP-PROV can achieve state-of-the-art
likelihood while retaining a bounded variance when drifts exist in the function
value.
- Abstract(参考訳): ニューラルプロセス(NP)ファミリーは、関数上の分布を、与えられたコンテキストデータである潜在表現にエンコードし、未知の場所での後方平均と分散をデコードする。
平均と分散は同じ潜在空間から導かれるので、関数値の変動がモデルの不確実性を増幅する領域外タスクでは失敗する。
本稿では,NP-PROV(Neural Processes with Position-Relevant-Only Variances)という新しいメンバーを紹介する。
NP-PROVは、その位置の関数値に関係なく、コンテキストポイントに近いターゲットポイントが小さな不確実性を持つという仮説を立てている。
結果として得られるアプローチは、関数値関連空間と位置関連のみの潜在空間から平均と分散を別々に導き出す。
本研究では, NP-PROVが関数値内にドリフトが存在する場合の有界分散を保ちながら, 最先端の可能性が得られることを示す。
関連論文リスト
- Martingale Posterior Neural Processes [14.913697718688931]
ニューラルネットワーク(NP)は、データストリームが与えられたニューラルネットワークで暗黙的に定義されたプロセスを推定する。
我々は最近ベイズ推論の代替として開発されたマーチンゲール後部に基づいて異なるアプローチをとる。
生成した将来のデータの不確実性は、暗黙的に定義されたベイズ後部の不確実性に対応していることを示す。
論文 参考訳(メタデータ) (2023-04-19T05:58:18Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Transformer Neural Processes: Uncertainty-Aware Meta Learning Via
Sequence Modeling [26.377099481072992]
本稿では,不確実性を考慮したメタ学習のためのトランスフォーマーニューラルプロセス(TNP)を提案する。
我々は自己回帰的可能性に基づく目的を通してTNPを学習し、それを新しいトランスフォーマーベースのアーキテクチャでインスタンス化する。
我々は,TNPが様々なベンチマーク問題に対して最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2022-07-09T02:28:58Z) - Global Convolutional Neural Processes [52.85558458799716]
我々は,潜伏NPFにおけるSOTAログ類似化を実現するGloBal Convolutional Neural Process(GBCoNP)を構築する。
離散化された入力空間上の集合である大域的不確実性表現 p(z) を設計する。
学習した先行データは、1D、2D、新たに提案された時空間のCOVIDデータセットなど、さまざまなシナリオで分析される。
論文 参考訳(メタデータ) (2021-09-02T03:32:50Z) - Federated Functional Gradient Boosting [75.06942944563572]
フェデレーション学習における機能最小化に関する研究
FFGB.C と FFGB.L は、特徴分布がより均一になるにつれて収束半径が 0 に縮まる。
論文 参考訳(メタデータ) (2021-03-11T21:49:19Z) - Probabilistic Numeric Convolutional Neural Networks [80.42120128330411]
画像や時系列などの連続的な入力信号は、不規則にサンプリングされたり、値が欠けていたりすることは、既存のディープラーニング手法では困難である。
ガウス過程(GP)として特徴を表す確率的畳み込みニューラルネットワークを提案する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
実験では,SuperPixel-MNISTデータセットの先行技術と医療時間2012データセットの競合性能から,提案手法の誤差を3倍に削減できることが示されている。
論文 参考訳(メタデータ) (2020-10-21T10:08:21Z) - Doubly Stochastic Variational Inference for Neural Processes with
Hierarchical Latent Variables [37.43541345780632]
本稿では,Double Variational Neural Process (DSVNP) と呼ぶニューラル・プロセス(NP)モデルを提案する。
本モデルでは,大域的潜伏変数と局所潜伏変数を組み合わせて予測を行い,このモデルをいくつかの実験で評価し,多出力回帰における競合予測性能と分類における不確実性評価を示す。
論文 参考訳(メタデータ) (2020-08-21T13:32:12Z) - Bootstrapping Neural Processes [114.97111530885093]
ニューラル・プロセス(NP)は、ニューラルネットワークを用いた幅広いプロセスのクラスを暗黙的に定義する。
NPは、プロセスの不確実性は単一の潜在変数によってモデル化されるという仮定に依存している。
本稿では,ブートストラップを用いたNPファミリーの新規拡張であるBoostrapping Neural Process (BNP)を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:23:34Z) - Meta-Learning Stationary Stochastic Process Prediction with
Convolutional Neural Processes [32.02612871707347]
提案するConvNPは,ニューラルプロセス(NP)に翻訳等価性を付与し,畳み込み条件NPを拡張して予測分布への依存性を許容する。
本研究では,1DにおけるConvNPの強い性能と一般化能力,回帰画像補完,実時間データを用いた各種タスクについて述べる。
論文 参考訳(メタデータ) (2020-07-02T18:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。