論文の概要: Graph Neural Networks as Fast and High-fidelity Emulators for
Finite-Element Ice Sheet Modeling
- arxiv url: http://arxiv.org/abs/2402.05291v1
- Date: Wed, 7 Feb 2024 22:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 17:09:10.062929
- Title: Graph Neural Networks as Fast and High-fidelity Emulators for
Finite-Element Ice Sheet Modeling
- Title(参考訳): 有限要素氷板モデリングのための高速・高忠実エミュレータとしてのグラフニューラルネットワーク
- Authors: Maryam Rahnemoonfar, Younghyun Koo
- Abstract要約: 氷床・海面系モデル(ISSM)の有限要素構造を保存するため,高速な代理モデルとしてグラフニューラルネットワーク(GNN)を開発した。
GNNは古典的畳み込みニューラルネットワーク(CNN)と多層知覚(MLP)よりも精度良く氷厚と速度を再現する
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although the finite element approach of the Ice-sheet and Sea-level System
Model (ISSM) solves ice dynamics problems governed by Stokes equations quickly
and accurately, such numerical modeling requires intensive computation on
central processing units (CPU). In this study, we develop graph neural networks
(GNN) as fast surrogate models to preserve the finite element structure of
ISSM. Using the 20-year transient simulations in the Pine Island Glacier (PIG),
we train and test three GNNs: graph convolutional network (GCN), graph
attention network (GAT), and equivariant graph convolutional network (EGCN).
These GNNs reproduce ice thickness and velocity with better accuracy than the
classic convolutional neural network (CNN) and multi-layer perception (MLP). In
particular, GNNs successfully capture the ice mass loss and acceleration
induced by higher basal melting rates in the PIG. When our GNN emulators are
implemented on graphic processing units (GPUs), they show up to 50 times faster
computational time than the CPU-based ISSM simulation.
- Abstract(参考訳): 氷床・海水準系モデル(ISSM)の有限要素法はストークス方程式が支配する氷力学の問題を迅速かつ正確に解くが、そのような数値モデリングは中央処理ユニット(CPU)に集約的な計算を必要とする。
本研究では,ISSMの有限要素構造を保存するための高速代理モデルとしてグラフニューラルネットワーク(GNN)を開発した。
Pine Island Glacier (PIG) における20年間の過渡シミュレーションを用いて、グラフ畳み込みネットワーク(GCN)、グラフ注意ネットワーク(GAT)、同変グラフ畳み込みネットワーク(EGCN)の3つのGNNを訓練・試験する。
これらのGNNは、古典的畳み込みニューラルネットワーク(CNN)や多層知覚(MLP)よりも精度良く氷厚と速度を再現する。
特に、GNNはPIGの高基底融解速度によって引き起こされる氷の質量減少と加速をうまく捉えた。
GNNエミュレータをグラフィック処理ユニット(GPU)に実装すると、CPUベースのISSMシミュレーションよりも最大50倍高速な計算時間が得られる。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Continuous Spiking Graph Neural Networks [43.28609498855841]
連続グラフニューラルネットワーク(CGNN)は、既存の離散グラフニューラルネットワーク(GNN)を一般化する能力によって注目されている。
本稿では,2階ODEを用いたCOS-GNNの高次構造について紹介する。
我々は、COS-GNNが爆発や消滅の問題を効果的に軽減し、ノード間の長距離依存関係を捕捉できるという理論的証明を提供する。
論文 参考訳(メタデータ) (2024-04-02T12:36:40Z) - Adaptive Least Mean Squares Graph Neural Networks and Online Graph
Signal Estimation [3.6448362316632115]
時間変化グラフ信号のオンライン推定のための効率的なニューラルネットワークアーキテクチャを提案する。
Adaptive Least Mean Squares Graph Neural Networks (LMS-GNN)は、適応グラフフィルタとグラフニューラルネットワーク(GNN)の組み合わせである。
実世界の温度データを用いて実験したところ,我々のLMS-GNNはグラフベースの手法よりも正確なオンライン予測を実現していることがわかった。
論文 参考訳(メタデータ) (2024-01-27T05:47:12Z) - Learning CO$_2$ plume migration in faulted reservoirs with Graph Neural
Networks [0.3914676152740142]
我々は,CO$$ plumeマイグレーションに対する断層の影響を捉えるグラフベースのニューラルモデルを開発した。
本研究では, 断層を有する合成貯留層において, ガス飽和度と細孔圧力の経時的変化を正確に予測できることを実証した。
この研究は、複雑な断層と破壊を伴う地下流れを正確にかつ迅速にモデル化するためのGNNベースの手法の可能性を強調している。
論文 参考訳(メタデータ) (2023-06-16T06:47:47Z) - A Finite Element-Inspired Hypergraph Neural Network: Application to
Fluid Dynamics Simulations [4.984601297028257]
ディープラーニング研究の新たなトレンドは、連続体力学シミュレーションにおけるグラフニューラルネットワーク(GNN)の適用に焦点を当てている。
本稿では,ノードをエッジではなく要素で接続することでハイパーグラフを構築する手法を提案する。
本稿では,この手法を有限要素インスパイアされたハイパーグラフニューラルネットワーク(FEIH($phi$)-GNN)と呼ぶ。
論文 参考訳(メタデータ) (2022-12-30T04:10:01Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Absence of Barren Plateaus in Quantum Convolutional Neural Networks [0.0]
量子畳み込みニューラルネットワーク(QCNN)が提案されている。
我々はQCNNアーキテクチャのパラメータの勾配スケーリングを厳格に分析する。
論文 参考訳(メタデータ) (2020-11-05T16:46:13Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。