論文の概要: Bootstrapping Neural Processes
- arxiv url: http://arxiv.org/abs/2008.02956v2
- Date: Tue, 27 Oct 2020 04:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 00:35:10.059540
- Title: Bootstrapping Neural Processes
- Title(参考訳): ブートストラップ型ニューラルプロセス
- Authors: Juho Lee, Yoonho Lee, Jungtaek Kim, Eunho Yang, Sung Ju Hwang, Yee
Whye Teh
- Abstract要約: ニューラル・プロセス(NP)は、ニューラルネットワークを用いた幅広いプロセスのクラスを暗黙的に定義する。
NPは、プロセスの不確実性は単一の潜在変数によってモデル化されるという仮定に依存している。
本稿では,ブートストラップを用いたNPファミリーの新規拡張であるBoostrapping Neural Process (BNP)を提案する。
- 参考スコア(独自算出の注目度): 114.97111530885093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike in the traditional statistical modeling for which a user typically
hand-specify a prior, Neural Processes (NPs) implicitly define a broad class of
stochastic processes with neural networks. Given a data stream, NP learns a
stochastic process that best describes the data. While this "data-driven" way
of learning stochastic processes has proven to handle various types of data,
NPs still rely on an assumption that uncertainty in stochastic processes is
modeled by a single latent variable, which potentially limits the flexibility.
To this end, we propose the Boostrapping Neural Process (BNP), a novel
extension of the NP family using the bootstrap. The bootstrap is a classical
data-driven technique for estimating uncertainty, which allows BNP to learn the
stochasticity in NPs without assuming a particular form. We demonstrate the
efficacy of BNP on various types of data and its robustness in the presence of
model-data mismatch.
- Abstract(参考訳): ユーザが事前に手作業で指定する従来の統計モデルとは異なり、ニューラル・プロセス(NP)は暗黙的にニューラルネットワークによる幅広い確率的プロセスを定義する。
データストリームが与えられたら、NPはデータを最もよく記述する確率過程を学ぶ。
この「データ駆動」な確率過程の学習方法は様々な種類のデータを扱うことが証明されているが、NPは確率過程の不確実性は単一の潜在変数によってモデル化され、柔軟性が制限されるという仮定に依存している。
そこで本研究では,ブートストラップを用いたNPファミリーの新規拡張であるBoostrapping Neural Process (BNP)を提案する。
ブートストラップは不確実性を推定するための古典的なデータ駆動手法であり、BNPは特定の形式を仮定することなくNPの確率性を学ぶことができる。
各種データに対するBNPの有効性とモデル-データミスマッチの有無によるロバスト性を示す。
関連論文リスト
- In-Context In-Context Learning with Transformer Neural Processes [50.57807892496024]
In-context In-context Learning pseudo-token TNP (ICICL-TNP) を開発した。
ICICL-TNPは、データポイントとデータセットのセットの両方を条件付けし、コンテキスト内での学習を可能にする。
複数の実験において,文脈内学習の重要性とICICL-TNPの有効性を実証した。
論文 参考訳(メタデータ) (2024-06-19T12:26:36Z) - Martingale Posterior Neural Processes [14.913697718688931]
ニューラルネットワーク(NP)は、データストリームが与えられたニューラルネットワークで暗黙的に定義されたプロセスを推定する。
我々は最近ベイズ推論の代替として開発されたマーチンゲール後部に基づいて異なるアプローチをとる。
生成した将来のデータの不確実性は、暗黙的に定義されたベイズ後部の不確実性に対応していることを示す。
論文 参考訳(メタデータ) (2023-04-19T05:58:18Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Latent Bottlenecked Attentive Neural Processes [71.18817592128207]
LBANP(Latent Bottlenecked Attentive Neural Processs)について
LBANPは、コンテキストデータポイントの数によらず、クエリ処理の複雑さを持つ。
LBANPは,メタ回帰,画像補完,コンテキスト的マルチアームバンディットに関する最先端技術と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-15T19:21:41Z) - Conditional Neural Processes for Molecules [0.0]
ニューラルプロセス(NPs)はガウス過程(GPs)に類似した特性を持つ伝達学習のモデルである
本稿では,MLモデルのベンチマークのためのドッキングスコアのデータセットであるDOCKSTRINGに対して,条件付きニューラルプロセス(CNP)を適用する。
CNPは、QSARモデリングに共通する教師付き学習ベースラインに対して、数ショットの学習タスクにおいて、競合する性能を示す。
論文 参考訳(メタデータ) (2022-10-17T16:10:12Z) - Transformer Neural Processes: Uncertainty-Aware Meta Learning Via
Sequence Modeling [26.377099481072992]
本稿では,不確実性を考慮したメタ学習のためのトランスフォーマーニューラルプロセス(TNP)を提案する。
我々は自己回帰的可能性に基づく目的を通してTNPを学習し、それを新しいトランスフォーマーベースのアーキテクチャでインスタンス化する。
我々は,TNPが様々なベンチマーク問題に対して最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2022-07-09T02:28:58Z) - NP-Match: When Neural Processes meet Semi-Supervised Learning [133.009621275051]
半教師付き学習(SSL)は近年広く研究されており、ラベル付きデータへの依存を減らすためにラベル付きデータを活用する効果的な方法である。
本研究では,ニューラルネットワーク(NP)を半教師付き画像分類タスクに調整し,NP-Matchと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-07-03T15:24:31Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - The Gaussian Neural Process [39.81327564209865]
条件付きNPのトレーニングに使用される標準最大形目的の厳密な分析を行う。
本稿では, 予測相関をモデル化し, 翻訳を取り入れ, 普遍的近似保証を提供し, 促進性能を示すニューラルプロセスファミリー (gnp) の新しいメンバーを提案する。
論文 参考訳(メタデータ) (2021-01-10T19:15:27Z) - Message Passing Neural Processes [3.0969191504482247]
本稿では,モデル内の関係構造を明示的に利用するMPNP(Message Passing Neural Processs)を紹介する。
MPNPは、既存のベンチマークと新たに提案されたCAとCola-Branchedタスクに基づいて、より低いサンプリングレートで成長する。
本稿では、密度に基づくCAルールセットに対する強力な一般化と、任意のラベリングと数発の学習設定に挑戦する際の顕著な向上について報告する。
論文 参考訳(メタデータ) (2020-09-29T09:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。