論文の概要: Practical Conditional Neural Processes Via Tractable Dependent
Predictions
- arxiv url: http://arxiv.org/abs/2203.08775v1
- Date: Wed, 16 Mar 2022 17:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 13:42:20.855151
- Title: Practical Conditional Neural Processes Via Tractable Dependent
Predictions
- Title(参考訳): トラクタブル依存予測を用いた実用的条件付きニューラルプロセス
- Authors: Stratis Markou and James Requeima and Wessel P. Bruinsma and Anna
Vaughan and Richard E. Turner
- Abstract要約: 条件付きニューラルプロセス(CNP)は、ディープラーニングの柔軟性を利用して、よく校正された予測を生成するメタラーニングモデルである。
CNPは相関予測を生成せず、多くの見積もりや意思決定タスクに不適当である。
本稿では,相関予測を行い,精度の高い学習を支援するニューラル・プロセス・モデルを提案する。
- 参考スコア(独自算出の注目度): 25.15531845287349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional Neural Processes (CNPs; Garnelo et al., 2018a) are meta-learning
models which leverage the flexibility of deep learning to produce
well-calibrated predictions and naturally handle off-the-grid and missing data.
CNPs scale to large datasets and train with ease. Due to these features, CNPs
appear well-suited to tasks from environmental sciences or healthcare.
Unfortunately, CNPs do not produce correlated predictions, making them
fundamentally inappropriate for many estimation and decision making tasks.
Predicting heat waves or floods, for example, requires modelling dependencies
in temperature or precipitation over time and space. Existing approaches which
model output dependencies, such as Neural Processes (NPs; Garnelo et al.,
2018b) or the FullConvGNP (Bruinsma et al., 2021), are either complicated to
train or prohibitively expensive. What is needed is an approach which provides
dependent predictions, but is simple to train and computationally tractable. In
this work, we present a new class of Neural Process models that make correlated
predictions and support exact maximum likelihood training that is simple and
scalable. We extend the proposed models by using invertible output
transformations, to capture non-Gaussian output distributions. Our models can
be used in downstream estimation tasks which require dependent function
samples. By accounting for output dependencies, our models show improved
predictive performance on a range of experiments with synthetic and real data.
- Abstract(参考訳): Conditional Neural Processs (CNPs; Garnelo et al., 2018a)は、ディープラーニングの柔軟性を活用して、よく校正された予測を生成し、オフザグリッドと欠落したデータを自然に処理するメタ学習モデルである。
CNPは大規模なデータセットにスケールし、簡単にトレーニングできる。
これらの特徴により、CNPは環境科学や医療のタスクに適しているように見える。
残念ながら、CNPは相関予測を生成せず、多くの見積もりや意思決定タスクには基本的に不適切である。
例えば、熱波や洪水を予測するには、時間と空間の温度や降水の依存性をモデル化する必要がある。
ニューラルプロセス (NPs, Garnelo et al., 2018b) やFullConvGNP (Bruinsma et al., 2021) のような既存の出力依存をモデル化するアプローチは、訓練に複雑か、あるいは違法に高価である。
必要なのは、依存した予測を提供するアプローチですが、訓練や計算が簡単なアプローチです。
そこで本研究では,相関予測を行い,単純でスケーラブルな最大確率トレーニングを支援するニューラルプロセスモデルを提案する。
提案モデルを可逆出力変換を用いて拡張し,非ガウス出力分布をキャプチャする。
我々のモデルは、依存関数サンプルを必要とする下流推定タスクで使用できる。
出力依存を考慮したモデルでは, 合成データと実データを用いた実験で予測性能が向上した。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Convolutional Conditional Neural Processes [6.532867867011488]
この理論は神経過程を3つの方法で前進させる。
ConvNPは、変換分散と呼ばれる対称性で構築することで、データ効率を向上させる。
GNPは神経過程の予測において依存関係を直接パラメライズする。
AR CNPは、モデルやトレーニング手順を変更することなく、ニューラルネットワークをトレーニングし、テスト時には、自己回帰的な方法でモデルをロールアウトする。
論文 参考訳(メタデータ) (2024-08-18T19:53:38Z) - Autoregressive Conditional Neural Processes [20.587835119831595]
条件付きニューラルプロセス(CNP)は魅力的なメタラーニングモデルである。
それらはよく校正された予測を生成し、単純な最大極大手順で訓練することができる。
CNPは、予測において依存関係をモデル化できない。
我々は、モデルやトレーニング手順を変更することなく、テスト時にCNPをどのように展開するかを変更することを提案する。
論文 参考訳(メタデータ) (2023-03-25T13:34:12Z) - Latent Bottlenecked Attentive Neural Processes [71.18817592128207]
LBANP(Latent Bottlenecked Attentive Neural Processs)について
LBANPは、コンテキストデータポイントの数によらず、クエリ処理の複雑さを持つ。
LBANPは,メタ回帰,画像補完,コンテキスト的マルチアームバンディットに関する最先端技術と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-15T19:21:41Z) - Conditional Neural Processes for Molecules [0.0]
ニューラルプロセス(NPs)はガウス過程(GPs)に類似した特性を持つ伝達学習のモデルである
本稿では,MLモデルのベンチマークのためのドッキングスコアのデータセットであるDOCKSTRINGに対して,条件付きニューラルプロセス(CNP)を適用する。
CNPは、QSARモデリングに共通する教師付き学習ベースラインに対して、数ショットの学習タスクにおいて、競合する性能を示す。
論文 参考訳(メタデータ) (2022-10-17T16:10:12Z) - Efficient Gaussian Neural Processes for Regression [7.149677544861951]
条件付きニューラルプロセス(CNP)は、よく校正された予測を生成し、テスト時に高速な推論を可能にし、単純な最大精度手順でトレーニングできる。
CNPの制限は、出力の依存性をモデル化できないことである。
出力依存をモデル化する別の方法を提案する。
論文 参考訳(メタデータ) (2021-08-22T09:31:50Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Bootstrapping Neural Processes [114.97111530885093]
ニューラル・プロセス(NP)は、ニューラルネットワークを用いた幅広いプロセスのクラスを暗黙的に定義する。
NPは、プロセスの不確実性は単一の潜在変数によってモデル化されるという仮定に依存している。
本稿では,ブートストラップを用いたNPファミリーの新規拡張であるBoostrapping Neural Process (BNP)を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:23:34Z) - Meta-Learning Stationary Stochastic Process Prediction with
Convolutional Neural Processes [32.02612871707347]
提案するConvNPは,ニューラルプロセス(NP)に翻訳等価性を付与し,畳み込み条件NPを拡張して予測分布への依存性を許容する。
本研究では,1DにおけるConvNPの強い性能と一般化能力,回帰画像補完,実時間データを用いた各種タスクについて述べる。
論文 参考訳(メタデータ) (2020-07-02T18:25:27Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。