論文の概要: Equivariant geometric learning for digital rock physics: estimating
formation factor and effective permeability tensors from Morse graph
- arxiv url: http://arxiv.org/abs/2104.05608v1
- Date: Mon, 12 Apr 2021 16:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 19:23:05.957314
- Title: Equivariant geometric learning for digital rock physics: estimating
formation factor and effective permeability tensors from Morse graph
- Title(参考訳): ディジタルロック物理における等変幾何学習:モースグラフから生成因子と有効透水性テンソルを推定する
- Authors: Chen Cai, Nikolaos Vlassis, Lucas Magee, Ran Ma, Zeyu Xiong, Bahador
Bahmani, Teng-Fong Wong, Yusu Wang, WaiChing Sun
- Abstract要約: 本論文では、マイクロCT画像から生成因子と有効透過率を直接予測するSE(3)等価グラフニューラルネットワーク(GNN)手法を提案する。
FFTソルバは形成因子と有効透磁率の両方を計算するために確立され、気孔空間の位相と幾何学は永続化ベースのモースグラフで表される。
- 参考スコア(独自算出の注目度): 7.355408124040856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a SE(3)-equivariant graph neural network (GNN) approach that
directly predicting the formation factor and effective permeability from
micro-CT images. FFT solvers are established to compute both the formation
factor and effective permeability, while the topology and geometry of the pore
space are represented by a persistence-based Morse graph. Together, they
constitute the database for training, validating, and testing the neural
networks. While the graph and Euclidean convolutional approaches both employ
neural networks to generate low-dimensional latent space to represent the
features of the micro-structures for forward predictions, the SE(3) equivariant
neural network is found to generate more accurate predictions, especially when
the training data is limited. Numerical experiments have also shown that the
new SE(3) approach leads to predictions that fulfill the material frame
indifference whereas the predictions from classical convolutional neural
networks (CNN) may suffer from spurious dependence on the coordinate system of
the training data. Comparisons among predictions inferred from training the CNN
and those from graph convolutional neural networks (GNN) with and without the
equivariant constraint indicate that the equivariant graph neural network seems
to perform better than the CNN and GNN without enforcing equivariant
constraints.
- Abstract(参考訳): マイクロCT画像から生成因子と透過性を直接予測するSE(3)-equivariant graph neural network (GNN) を提案する。
FFTソルバは形成係数と有効透過性の両方を計算するために確立され、孔空間の位相と幾何学は永続性に基づくモースグラフで表される。
それらは共に、ニューラルネットワークのトレーニング、検証、テストのためのデータベースを構成する。
グラフとユークリッド畳み込みのアプローチはどちらも、フォワード予測のためのミクロ構造の特徴を表現するために低次元潜在空間を生成するためにニューラルネットワークを使用しているが、SE(3)同変ニューラルネットワークは、特にトレーニングデータが制限された場合、より正確な予測を生成する。
数値実験により、新しいSE(3)アプローチは、材料フレームの差分を満たす予測につながるが、古典的畳み込みニューラルネットワーク(CNN)からの予測は、トレーニングデータの座標系に急激な依存を被ることが示されている。
cnnとグラフ畳み込みニューラルネットワーク(gnn)のトレーニングから推定される予測と等価制約の有無による予測の比較は、等価グラフニューラルネットワークが等価制約を課さずにcnnやgnnよりも良く機能していることを示している。
関連論文リスト
- Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Neural networks for geospatial data [0.0]
NN-GLSは、GPモデルの非線形平均に対する新しいニューラルネットワーク推定アルゴリズムである。
NN-GLSはグラフニューラルネットワーク(GNN)の特殊型として表現されていることを示す。
これは空間データに対するニューラルネットワークアルゴリズムにおける最初の結果整合性である。
論文 参考訳(メタデータ) (2023-04-18T17:52:23Z) - Optimal rates of approximation by shallow ReLU$^k$ neural networks and
applications to nonparametric regression [12.21422686958087]
本研究では、浅いReLU$k$のニューラルネットワークに対応する変動空間の近似能力について検討する。
滑らかさの低い関数に対しては、変動ノルムの観点から近似率が確立される。
浅層ニューラルネットワークは,H"古い関数の学習に最適な最小値が得られることを示す。
論文 参考訳(メタデータ) (2023-04-04T06:35:02Z) - Parameter Convex Neural Networks [13.42851919291587]
本研究では,ある条件下でのニューラルネットワークのパラメータに関して凸である指数的多層ニューラルネットワーク(EMLP)を提案する。
後期実験では,指数グラフ畳み込みネットワーク(EGCN)を同じアーキテクチャで構築し,グラフ分類データセット上で実験を行う。
論文 参考訳(メタデータ) (2022-06-11T16:44:59Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - CCasGNN: Collaborative Cascade Prediction Based on Graph Neural Networks [0.49269463638915806]
カスケード予測は,ネットワーク内の情報拡散をモデル化することを目的とした。
グラフニューラルネットワークとリカレントニューラルネットワークによるネットワーク構造とシーケンス特徴の組み合わせに関する研究
本稿では,個々のプロファイル,構造特徴,シーケンス情報を考慮した新しいCCasGNNを提案する。
論文 参考訳(メタデータ) (2021-12-07T11:37:36Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。