論文の概要: Deep Gaussian Processes for Functional Maps
- arxiv url: http://arxiv.org/abs/2510.22068v1
- Date: Fri, 24 Oct 2025 23:05:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.491156
- Title: Deep Gaussian Processes for Functional Maps
- Title(参考訳): 関数写像の深いガウス過程
- Authors: Matthew Lowery, Zhitong Xu, Da Long, Keyan Chen, Daniel S. Johnson, Yang Bai, Varun Shankar, Shandian Zhe,
- Abstract要約: 関数・オン・ファンクショナル・レグレッション(Function-on-function regression)とも呼ばれる関数空間間の学習は、関数データ解析において重要な役割を果たす。
既存のアプローチでは、複雑な非線形性を捉えることができず、ノイズやスパース、不規則にサンプリングされたデータの下で信頼性の高い不確実性を欠いている。
これらの問題に対処するために,DGPFM(Deep Gaussian Processes for Functional Maps)を提案する。
本手法は, GPからサンプリングしたカーネル, GP, 非線形アクティベーションの積分変換を利用して, GPに基づく線形および非線形変換の系列を設計する。
- 参考スコア(独自算出の注目度): 15.327037938888154
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Learning mappings between functional spaces, also known as function-on-function regression, plays a crucial role in functional data analysis and has broad applications, e.g. spatiotemporal forecasting, curve prediction, and climate modeling. Existing approaches, such as functional linear models and neural operators, either fall short of capturing complex nonlinearities or lack reliable uncertainty quantification under noisy, sparse, and irregularly sampled data. To address these issues, we propose Deep Gaussian Processes for Functional Maps (DGPFM). Our method designs a sequence of GP-based linear and nonlinear transformations, leveraging integral transforms of kernels, GP interpolation, and nonlinear activations sampled from GPs. A key insight simplifies implementation: under fixed locations, discrete approximations of kernel integral transforms collapse into direct functional integral transforms, enabling flexible incorporation of various integral transform designs. To achieve scalable probabilistic inference, we use inducing points and whitening transformations to develop a variational learning algorithm. Empirical results on real-world and PDE benchmark datasets demonstrate that the advantage of DGPFM in both predictive performance and uncertainty calibration.
- Abstract(参考訳): 関数・オン・ファンクショナル・レグレッション(Function-on-function regression)とも呼ばれる関数空間間のマッピングの学習は、関数データ解析において重要な役割を担い、例えば時空間予測、曲線予測、気候モデリングなど幅広い応用がある。
関数線形モデルやニューラル演算子のような既存のアプローチは、複雑な非線形性を捕捉できないか、ノイズ、スパース、不規則サンプルデータの下での確実な定量化が欠如している。
これらの問題に対処するため,DGPFM (Deep Gaussian Processes for Functional Maps) を提案する。
提案手法は, GP からサンプリングしたカーネルの積分変換, GP 補間, 非線形活性化を利用して, GP に基づく線形および非線形変換の系列を設計する。
固定位置下では、カーネル積分変換の離散近似が直接機能的積分変換に崩壊し、様々な積分変換の設計を柔軟に組み込むことができる。
スケーラブルな確率的推論を実現するために,変分学習アルゴリズムを開発するために,点の誘導と変分変換を用いる。
実世界およびPDEベンチマークデータセットにおける実験結果から、DGPFMの利点は予測性能と不確実性校正の両方にあることが示された。
関連論文リスト
- Effect Decomposition of Functional-Output Computer Experiments via Orthogonal Additive Gaussian Processes [8.723426955657347]
FANOVA(Functional ANOVA)は、分散に基づく感度分析ツールである。
本研究では,データ駆動直交効果の分解を効率的に行う関数出力直交加法的ガウス過程(FOAGP)を提案する。
FOAGPフレームワークはまた、局所的なソボの指標と期待される条件分散感度指標の分析的な定式化も提供する。
論文 参考訳(メタデータ) (2025-06-15T03:24:55Z) - Amortized Variational Inference for Deep Gaussian Processes [0.0]
ディープガウス過程(DGP)はガウス過程(GP)の多層一般化である
本稿では,DGPに対して,各観測を変動パラメータにマッピングする推論関数を学習するアモータライズされた変分推論を導入する。
本手法は, 計算コストの低い従来の手法よりも, 同様に, あるいはより優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-18T20:23:27Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods [0.0]
ガウス過程(GP)モデルは確率的機械学習において強力なツールである。
モデルの意思決定プロセスを透過的で説明可能なものにすることの必要性は、現在、研究の大きな焦点となっている。
本稿では,非ガウス的GPモデルに対して,積分グラディエントに基づく説明可能性を適用する手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T14:11:00Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Learning Nonparametric Volterra Kernels with Gaussian Processes [0.0]
本稿では、ガウス過程(GP)を用いて表現されたカーネルを持つボルテラ級数を用いて、非線形作用素の非パラメトリックベイズ学習法を提案する。
NVKMは、演算子への入力関数が観測されず、GP先行を持つとき、単出力と多重出力の両方の回帰のための強力な方法を構成し、非線形および非パラメトリック潜在力モデルと見なすことができる。
論文 参考訳(メタデータ) (2021-06-10T08:21:00Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。