論文の概要: Sparse Gaussian Neural Processes
- arxiv url: http://arxiv.org/abs/2504.01650v1
- Date: Wed, 02 Apr 2025 12:00:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:24:48.779794
- Title: Sparse Gaussian Neural Processes
- Title(参考訳): スパースガウスニューラルプロセス
- Authors: Tommy Rochussen, Vincent Fortuin,
- Abstract要約: メタ学習型スパースガウス過程推論モデル群を紹介する。
これにより、スパースガウス過程による新しいタスクの迅速な予測が可能になる。
また、ニューラルプロセスにおいて、初めて前の手動で引き起こすこともできる。
- 参考スコア(独自算出の注目度): 7.050045034682338
- License:
- Abstract: Despite significant recent advances in probabilistic meta-learning, it is common for practitioners to avoid using deep learning models due to a comparative lack of interpretability. Instead, many practitioners simply use non-meta-models such as Gaussian processes with interpretable priors, and conduct the tedious procedure of training their model from scratch for each task they encounter. While this is justifiable for tasks with a limited number of data points, the cubic computational cost of exact Gaussian process inference renders this prohibitive when each task has many observations. To remedy this, we introduce a family of models that meta-learn sparse Gaussian process inference. Not only does this enable rapid prediction on new tasks with sparse Gaussian processes, but since our models have clear interpretations as members of the neural process family, it also allows manual elicitation of priors in a neural process for the first time. In meta-learning regimes for which the number of observed tasks is small or for which expert domain knowledge is available, this offers a crucial advantage.
- Abstract(参考訳): 近年の確率論的メタラーニングの進歩にもかかわらず、相対的な解釈可能性の欠如により、深層学習モデルの使用を避けることが一般的である。
代わりに、多くの実践者は単にガウス的プロセスのような非メタモデルを使用し、解釈可能な事前処理を行い、遭遇する各タスクに対して、モデルをスクラッチからトレーニングする退屈な手順を実行します。
これは限られた数のデータポイントを持つタスクに当てはまるが、正確なガウス過程推論の3乗計算コストは、各タスクが多くの観測値を持つ場合にこれを禁止している。
これを解決するために,メタ学習のスパースガウス過程推論を行うモデル群を紹介する。
これはガウス過程が疎い新しいタスクの迅速な予測を可能にするだけでなく、我々のモデルはニューラルプロセスファミリーのメンバーとして明確な解釈を持っているため、初めてニューラルプロセスにおける事前の手動推論を可能にする。
観察されたタスクの数が少ないメタラーニング体制や、専門家のドメイン知識が利用できるメタラーニング体制では、これは決定的な優位性を提供する。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
我々は、訓練されたニューラル演算子におけるベイズの不確実性定量化を近似するための新しいフレームワークLUNOを紹介する。
我々の手法はモデル線形化を利用して(ガウス的)重み空間の不確実性をニューラル作用素の予測に推し進める。
これは関数型プログラミングのカリー化の概念の確率的バージョンとして解釈でき、関数値(ガウス的)ランダムプロセスの信念を導出することを示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Mixtures of Gaussian process experts based on kernel stick-breaking
processes [0.6396288020763143]
本稿では,カーネルスティックブレーキングプロセスに基づくガウスプロセスエキスパートの混合モデルを提案する。
我々のモデルは直感的な魅力を維持しつつ、既存のモデルの性能を改善している。
モデル挙動と予測性能の改善は、6つのデータセットを用いた実験で実証された。
論文 参考訳(メタデータ) (2023-04-26T21:23:01Z) - MARS: Meta-Learning as Score Matching in the Function Space [79.73213540203389]
本稿では,一連の関連するデータセットから帰納バイアスを抽出する手法を提案する。
機能的ベイズニューラルネットワーク推論を用いて、前者をプロセスとみなし、関数空間で推論を行う。
本手法は,データ生成プロセスのスコア関数をメタラーニングすることにより,複雑な事前知識をシームレスに獲得し,表現することができる。
論文 参考訳(メタデータ) (2022-10-24T15:14:26Z) - Can deep neural networks learn process model structure? An assessment
framework and analysis [0.2580765958706854]
本稿では,新しい適合度,精度,一般化の指標を補完する評価手法を提案する。
このフレームワークを単純な制御-フローの振る舞いを持つ複数のプロセスモデルに適用する。
以上の結果から, 単純化モデルにおいても, オーバーフィッティング対策の注意深い調整が必要であることが示唆された。
論文 参考訳(メタデータ) (2022-02-24T09:44:13Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Bayesian Meta-Learning Through Variational Gaussian Processes [0.0]
ガウス過程に基づくメタラーニングを拡張し、高品質で任意のガウス的でない不確実性予測を可能にする。
提案手法は,既存のベイズメタラーニングベースラインよりも優れている。
論文 参考訳(メタデータ) (2021-10-21T10:44:23Z) - Last Layer Marginal Likelihood for Invariance Learning [12.00078928875924]
我々は、より大きな確率関数のクラスに対する推論を行うことができるような、限界確率に対する新しい下界を導入する。
我々は、最後の層にガウス的プロセスを持つアーキテクチャを使用することで、このアプローチをニューラルネットワークに導入することに取り組んでいます。
論文 参考訳(メタデータ) (2021-06-14T15:40:51Z) - Mat\'ern Gaussian Processes on Graphs [67.13902825728718]
我々は、マタン・ガウス過程の偏微分方程式のキャラクタリゼーションを利用して、そのアナログを無向グラフに対して研究する。
得られたガウス過程がユークリッドアナログやユークリッドアナログの様々な魅力的な性質を継承することを示す。
これにより、グラフのMat'ern Gaussianプロセスがミニバッチや非共役設定に使用できる。
論文 参考訳(メタデータ) (2020-10-29T13:08:07Z) - Mat\'ern Gaussian processes on Riemannian manifolds [81.15349473870816]
ガウス過程の広く用いられるマタン類を一般化する方法を示す。
また、Mat'ern から広く用いられる2乗指数過程への一般化も拡張する。
論文 参考訳(メタデータ) (2020-06-17T21:05:42Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。