論文の概要: Gated Linear Model induced U-net for surrogate modeling and uncertainty
quantification
- arxiv url: http://arxiv.org/abs/2111.05123v1
- Date: Mon, 8 Nov 2021 03:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 14:41:49.818665
- Title: Gated Linear Model induced U-net for surrogate modeling and uncertainty
quantification
- Title(参考訳): 代理モデルと不確実性定量化のためのGated Linear ModelによるU-net
- Authors: Sai Krishna Mendu and Souvik Chakraborty
- Abstract要約: 提案したディープラーニングアーキテクチャは、よく知られたU-netアーキテクチャとGaussian Gated Linear Network(GGLN)を統合して開発されている。
提案したGLU-netは、不確実性伝搬問題を画像回帰のイメージとして扱うため、極めてデータ効率が高い。
ケーススタディは,提案手法のロバスト性を示すために,トレーニングサンプルサイズと入力次元を変化させることによって実施される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a novel deep learning based surrogate model for solving
high-dimensional uncertainty quantification and uncertainty propagation
problems. The proposed deep learning architecture is developed by integrating
the well-known U-net architecture with the Gaussian Gated Linear Network (GGLN)
and referred to as the Gated Linear Network induced U-net or GLU-net. The
proposed GLU-net treats the uncertainty propagation problem as an image to
image regression and hence, is extremely data efficient. Additionally, it also
provides estimates of the predictive uncertainty. The network architecture of
GLU-net is less complex with 44\% fewer parameters than the contemporary works.
We illustrate the performance of the proposed GLU-net in solving the Darcy flow
problem under uncertainty under the sparse data scenario. We consider the
stochastic input dimensionality to be up to 4225. Benchmark results are
generated using the vanilla Monte Carlo simulation. We observe the proposed
GLU-net to be accurate and extremely efficient even when no information about
the structure of the inputs is provided to the network. Case studies are
performed by varying the training sample size and stochastic input
dimensionality to illustrate the robustness of the proposed approach.
- Abstract(参考訳): 本研究では,高次元の不確実性定量化と不確実性伝播問題を解決するための,新しい深層学習に基づくサロゲートモデルを提案する。
提案したディープラーニングアーキテクチャは、よく知られたU-netアーキテクチャをGaussian Gated Linear Network (GGLN)と統合し、Gated Linear Network induced U-netまたはGLU-netと呼ぶ。
提案するglu-netは不確実性伝播問題を画像として画像回帰に扱うため,データ効率が極めて高い。
さらに、予測の不確実性の推定も提供する。
GLU-netのネットワークアーキテクチャは、現在の作業よりも44倍のパラメータで複雑ではない。
スパースデータシナリオにおける不確実性の下でのDarcyフロー問題の解法として提案したGLU-netの性能について述べる。
確率的入力次元は4225までとみなす。
バニラモンテカルロシミュレーションを用いてベンチマーク結果を生成する。
提案したGLU-netは,入力構造に関する情報がネットワークに提供されていなくても,正確かつ極めて効率的である。
提案手法のロバスト性を説明するために,トレーニングサンプルサイズと確率的入力次元を変化させてケーススタディを行う。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Positional Encoder Graph Quantile Neural Networks for Geographic Data [4.277516034244117]
我々は,PE-GNN,Quantile Neural Networks,および再校正技術を完全非パラメトリックフレームワークに統合する新しい手法である,位置グラフ量子ニューラルネットワーク(PE-GQNN)を紹介する。
ベンチマークデータセットの実験では、PE-GQNNは予測精度と不確実性の定量化の両方で既存の最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-09-27T16:02:12Z) - Adaptive Anomaly Detection in Network Flows with Low-Rank Tensor Decompositions and Deep Unrolling [9.20186865054847]
異常検出(AD)は、将来の通信システムのレジリエンスを確保するための重要な要素として、ますます認識されている。
この研究は、不完全測定を用いたネットワークフローにおけるADについて考察する。
本稿では,正規化モデル適合性に基づくブロック帰属凸近似アルゴリズムを提案する。
ベイズ的アプローチに触発されて、我々はモデルアーキテクチャを拡張し、フローごとのオンライン適応とステップごとの統計処理を行う。
論文 参考訳(メタデータ) (2024-09-17T19:59:57Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Probabilistic MIMO U-Net: Efficient and Accurate Uncertainty Estimation
for Pixel-wise Regression [1.4528189330418977]
機械学習における不確実性推定は、予測モデルの信頼性と解釈可能性を高めるための最重要課題である。
画素ワイド回帰タスクに対するMIMO(Multiple-Input Multiple-Output)フレームワークの適応について述べる。
論文 参考訳(メタデータ) (2023-08-14T22:08:28Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - Deep Capsule Encoder-Decoder Network for Surrogate Modeling and
Uncertainty Quantification [0.0]
提案するフレームワークは,Capsule Network (CapsNet) アーキテクチャを画像から画像への回帰エンコーダ・デコーダネットワークに適応させることにより開発されている。
性能評価の結果,提案手法は正確で効率的で頑健であることが示唆された。
論文 参考訳(メタデータ) (2022-01-19T17:45:01Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。