論文の概要: Linked Deep Gaussian Process Emulation for Model Networks
- arxiv url: http://arxiv.org/abs/2306.01212v1
- Date: Fri, 2 Jun 2023 00:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 17:12:07.360818
- Title: Linked Deep Gaussian Process Emulation for Model Networks
- Title(参考訳): モデルネットワークのためのlinked deep gaussian process emulation
- Authors: Deyu Ming and Daniel Williamson
- Abstract要約: 本研究では,隠れた層を部分的に露出した深いガウス過程として,コンピュータモデルのネットワークを概念化する。
本稿では,LGPフレームワークの重要な強度を保持する部分露光深層ネットワークの推論手法を開発した。
私たちのメソッドは R パッケージ $texttdgpsi$ で実装されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern scientific problems are often multi-disciplinary and require
integration of computer models from different disciplines, each with distinct
functional complexities, programming environments, and computation times.
Linked Gaussian process (LGP) emulation tackles this challenge through a
divide-and-conquer strategy that integrates Gaussian process emulators of the
individual computer models in a network. However, the required stationarity of
the component Gaussian process emulators within the LGP framework limits its
applicability in many real-world applications. In this work, we conceptualize a
network of computer models as a deep Gaussian process with partial exposure of
its hidden layers. We develop a method for inference for these partially
exposed deep networks that retains a key strength of the LGP framework, whereby
each model can be emulated separately using a DGP and then linked together. We
show in both synthetic and empirical examples that our linked deep Gaussian
process emulators exhibit significantly better predictive performance than
standard LGP emulators in terms of accuracy and uncertainty quantification.
They also outperform single DGPs fitted to the network as a whole because they
are able to integrate information from the partially exposed hidden layers. Our
methods are implemented in an R package $\texttt{dgpsi}$ that is freely
available on CRAN.
- Abstract(参考訳): 現代の科学的な問題はしばしば学際的であり、異なる分野のコンピュータモデルの統合を必要とし、それぞれ異なる機能的複雑性、プログラミング環境、計算時間を持つ。
Linked Gaussian Process (LGP) エミュレーション(英語版)は、ネットワーク内の個々のコンピュータモデルのガウス的プロセスエミュレータを統合する分割・コンキュータ戦略を通じてこの問題に取り組む。
しかし、lgpフレームワーク内のコンポーネントgaussianプロセスエミュレータに必要な定常性は、多くの実世界のアプリケーションでその適用性を制限する。
本研究では,コンピュータモデルのネットワークを,隠れた層の部分的露出を伴う深いガウス過程として概念化する。
本稿では,LGP フレームワークの重要な強度を保持する部分露光深層ネットワークの推論手法を開発し,DGP を用いて各モデルを個別にエミュレートし,それらを結合する手法を提案する。
本稿では, ガウスプロセスエミュレータが標準LGPエミュレータよりも精度と不確かさの点で有意に優れた予測性能を示すことを示す。
また、部分的に隠された層から情報を統合できるため、ネットワーク全体に適合する単一のDGPよりも優れています。
私たちのメソッドはRパッケージ$\texttt{dgpsi}$で実装されています。
関連論文リスト
- Polynomial Chaos Expanded Gaussian Process [2.287415292857564]
複雑で未知のプロセスでは、大域的モデルは最初実験空間全体にわたって生成される。
本研究では,グローバルな実験空間とローカルな実験空間の両方を効果的に表現するモデルの必要性に対処する。
論文 参考訳(メタデータ) (2024-05-02T07:11:05Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Hierarchical shrinkage Gaussian processes: applications to computer code
emulation and dynamical system recovery [5.694170341269015]
GPフレームワーク内に累積収縮前処理を組み込んだ新しい階層縮小GP(HierGP)を提案する。
実験解析において,HierGPはエフェクト・スパシティ,遺伝性,階層性といったよく知られた原理を暗黙的に組み込んでいることを示す。
モデルトレーニングと予測のための効率的な後方サンプリングアルゴリズムを提案し、HierGPの望ましい整合性を証明した。
論文 参考訳(メタデータ) (2023-02-01T21:00:45Z) - Bayesian Emulation for Computer Models with Multiple Partial
Discontinuities [0.0]
エミュレータは、コンピュータモデルを評価するのが遅いことを模倣する高速な統計構造である。
本稿では,不連続性を尊重する慎重に設計された相関構造に基づくTENSEフレームワークを紹介する。
我々は, TENSE フレームワークを TNO Challenge II に適用し, OLYMPUS 貯水池モデルをエミュレートした。
論文 参考訳(メタデータ) (2022-10-19T11:14:57Z) - Multi-fidelity Hierarchical Neural Processes [79.0284780825048]
多要素代理モデリングは、異なるシミュレーション出力を融合させることで計算コストを削減する。
本稿では,多階層型階層型ニューラルネットワーク(MF-HNP)を提案する。
疫学および気候モデリングタスクにおけるMF-HNPの評価を行い、精度と不確実性評価の観点から競合性能を達成した。
論文 参考訳(メタデータ) (2022-06-10T04:54:13Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - DistIR: An Intermediate Representation and Simulator for Efficient
Neural Network Distribution [15.086401550425125]
DistIRは分散計算のための表現であり、効率的な解析のために調整されている。
本研究では、DistIRとそのシミュレータが1000以上の構成にまたがる複雑な分散空間を高速にグリッドで探索する方法を示す。
論文 参考訳(メタデータ) (2021-11-09T21:32:51Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Deep Generative Models that Solve PDEs: Distributed Computing for
Training Large Data-Free Models [25.33147292369218]
科学機械学習(SciML)の最近の進歩は、複雑な偏微分方程式(PDE)を解く新しいニューラルネットワークアーキテクチャを訓練する可能性を開く。
本稿では、これらの大規模SciMLモデルをトレーニングする2つの課題を解決するために、データ並列分散ディープラーニングのためのソフトウェアフレームワークについて報告する。
私たちのフレームワークは、(a)プロセス数に依存しない損失整合性、(b)同期バッチ正規化、(c)分散高階最適化方法など、いくつかのアウトオブボックス機能を提供します。
論文 参考訳(メタデータ) (2020-07-24T22:42:35Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。