論文の概要: Meta-Learning Stationary Stochastic Process Prediction with
Convolutional Neural Processes
- arxiv url: http://arxiv.org/abs/2007.01332v2
- Date: Fri, 20 Nov 2020 10:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 13:24:10.671752
- Title: Meta-Learning Stationary Stochastic Process Prediction with
Convolutional Neural Processes
- Title(参考訳): 畳み込み神経プロセスを用いたメタラーニング定常確率過程予測
- Authors: Andrew Y. K. Foong, Wessel P. Bruinsma, Jonathan Gordon, Yann Dubois,
James Requeima, Richard E. Turner
- Abstract要約: 提案するConvNPは,ニューラルプロセス(NP)に翻訳等価性を付与し,畳み込み条件NPを拡張して予測分布への依存性を許容する。
本研究では,1DにおけるConvNPの強い性能と一般化能力,回帰画像補完,実時間データを用いた各種タスクについて述べる。
- 参考スコア(独自算出の注目度): 32.02612871707347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stationary stochastic processes (SPs) are a key component of many
probabilistic models, such as those for off-the-grid spatio-temporal data. They
enable the statistical symmetry of underlying physical phenomena to be
leveraged, thereby aiding generalization. Prediction in such models can be
viewed as a translation equivariant map from observed data sets to predictive
SPs, emphasizing the intimate relationship between stationarity and
equivariance. Building on this, we propose the Convolutional Neural Process
(ConvNP), which endows Neural Processes (NPs) with translation equivariance and
extends convolutional conditional NPs to allow for dependencies in the
predictive distribution. The latter enables ConvNPs to be deployed in settings
which require coherent samples, such as Thompson sampling or conditional image
completion. Moreover, we propose a new maximum-likelihood objective to replace
the standard ELBO objective in NPs, which conceptually simplifies the framework
and empirically improves performance. We demonstrate the strong performance and
generalization capabilities of ConvNPs on 1D regression, image completion, and
various tasks with real-world spatio-temporal data.
- Abstract(参考訳): 定常確率過程(SP)は、オフザグリッド時空間データなど、多くの確率モデルの主要な構成要素である。
これにより、基礎となる物理現象の統計的対称性を活用でき、一般化を助長できる。
このようなモデルの予測は、観測されたデータセットから予測SPへの変換同変写像と見なすことができ、定常性と等価性の間の親密な関係を強調する。
そこで我々は,畳み込み型ニューラルネットワーク(ConvNP, Convolutional Neural Process, ConvNP, Convolutional Neural Process)を提案する。
後者では、トンプソンサンプリングや条件付き画像補完など、コヒーレントなサンプルを必要とする設定でconvnpをデプロイすることができる。
さらに,このフレームワークを概念的に単純化し,性能を実証的に改善する,標準のELBOをNPで置き換える,新たな最大形目的を提案する。
実世界の時空間データを用いた1次元回帰、画像補完、各種タスクにおけるConvNPの性能と一般化能力を示す。
関連論文リスト
- Rényi Neural Processes [14.11793373584558]
本稿では,事前の誤特定の影響を改善するためにR'enyi Neural Processs (RNP)を提案する。
密度比 $fracpq$ は (1-$alpha$) の差分勾配で後方に関してスケールする。
実験の結果,最先端のNPファミリーモデルよりも一貫したログライクな改善が見られた。
論文 参考訳(メタデータ) (2024-05-25T00:14:55Z) - Spectral Convolutional Conditional Neural Processes [4.52069311861025]
条件付きニューラルプロセス(CNP)は、プロセスのパラメータ化にニューラルネットワークの柔軟性を利用する確率モデルの一群である。
本稿では、周波数領域における関数のより効率的な表現を可能にするNPsファミリーに新たに追加されたスペクトル畳み込み条件ニューラルネットワーク(SConvCNPs)を提案する。
論文 参考訳(メタデータ) (2024-04-19T21:13:18Z) - Logistic-beta processes for dependent random probabilities with beta marginals [58.91121576998588]
本稿では,ロジスティック・ベータプロセスと呼ばれる新しいプロセスを提案する。
空間や時間などの離散領域と連続領域の両方への依存をモデル化でき、相関カーネルを通じて柔軟な依存構造を持つ。
本研究は,非パラメトリック二分回帰と条件密度推定の例による効果をシミュレーション研究と妊娠結果応用の両方で説明する。
論文 参考訳(メタデータ) (2024-02-10T21:41:32Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Adversarially Contrastive Estimation of Conditional Neural Processes [39.77675002999259]
条件付きニューラルプロセス(CNP)は関数上の分布を定式化し、正確な条件付き確率で関数観測を生成する。
我々は,正規最大推定値以外の逆トレーニング方式でCNPを校正する手法を提案する。
生成関数再構成から下流回帰および分類タスクに至るまで,本手法が主流のCNPメンバーに適合することが実証された。
論文 参考訳(メタデータ) (2023-03-23T02:58:14Z) - Latent Bottlenecked Attentive Neural Processes [71.18817592128207]
LBANP(Latent Bottlenecked Attentive Neural Processs)について
LBANPは、コンテキストデータポイントの数によらず、クエリ処理の複雑さを持つ。
LBANPは,メタ回帰,画像補完,コンテキスト的マルチアームバンディットに関する最先端技術と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-15T19:21:41Z) - Correcting Model Bias with Sparse Implicit Processes [0.9187159782788579]
SIP(Sparse Implicit Processes)は,データ生成機構がモデルによって入力されるものと強く異なる場合,モデルバイアスを補正できることを示す。
合成データセットを用いて、SIPは、初期推定モデルの正確な予測よりもデータをよりよく反映する予測分布を提供することができることを示す。
論文 参考訳(メタデータ) (2022-07-21T18:00:01Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - Contrastive Conditional Neural Processes [45.70735205041254]
条件付きニューラル・プロセス(CNP)は、メタラーニング環境下でのプロセスの機能に近い確率的推論でニューラルネットワークをブリッジする。
2つの補助的コントラスト分岐が階層的に設定される。すなわち、インストラクテーション時間的コントラスト学習(tt TCL)とクロスストラクテーション関数コントラスト学習(tt FCL)である。
実験により、tt TCLは観測の高レベルの抽象化を捉えるのに対し、tt FCLは基底関数の同定に役立ち、より効率的な表現を提供することを示す。
論文 参考訳(メタデータ) (2022-03-08T10:08:45Z) - Probabilistic Numeric Convolutional Neural Networks [80.42120128330411]
画像や時系列などの連続的な入力信号は、不規則にサンプリングされたり、値が欠けていたりすることは、既存のディープラーニング手法では困難である。
ガウス過程(GP)として特徴を表す確率的畳み込みニューラルネットワークを提案する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
実験では,SuperPixel-MNISTデータセットの先行技術と医療時間2012データセットの競合性能から,提案手法の誤差を3倍に削減できることが示されている。
論文 参考訳(メタデータ) (2020-10-21T10:08:21Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。