論文の概要: Deep learning and multi-level featurization of graph representations of
microstructural data
- arxiv url: http://arxiv.org/abs/2210.00854v1
- Date: Thu, 29 Sep 2022 14:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:37:28.646497
- Title: Deep learning and multi-level featurization of graph representations of
microstructural data
- Title(参考訳): 微細構造データのグラフ表現の深層学習と多層化
- Authors: Reese Jones, Cosmin Safta, Ari Frankel
- Abstract要約: 均質化は、外部負荷に対するミクロ構造のサンプルの平均応答を予測するタスクを示す。
そこで本研究では,初期入力フィールドの離散化と分節化を考慮に入れたグラフ上に隠れた特徴を深く学習する手法を開発した。
この縮小表現は、その後のマルチレベル/スケールグラフ畳み込みネットワークモデルの基礎となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many material response functions depend strongly on microstructure, such as
inhomogeneities in phase or orientation. Homogenization presents the task of
predicting the mean response of a sample of the microstructure to external
loading for use in subgrid models and structure-property explorations. Although
many microstructural fields have obvious segmentations, learning directly from
the graph induced by the segmentation can be difficult because this
representation does not encode all the information of the full field. We
develop a means of deep learning of hidden features on the reduced graph given
the native discretization and a segmentation of the initial input field. The
features are associated with regions represented as nodes on the reduced graph.
This reduced representation is then the basis for the subsequent
multi-level/scale graph convolutional network model. There are a number of
advantages of reducing the graph before fully processing with convolutional
layers it, such as interpretable features and efficiency on large meshes. We
demonstrate the performance of the proposed network relative to convolutional
neural networks operating directly on the native discretization of the data
using three physical exemplars.
- Abstract(参考訳): 多くの材料応答関数は、位相や配向の不均一性など、微細構造に強く依存する。
均質化(homogenization)は、サブグリッドモデルや構造プロパティ探索で使用する外部負荷に対するミクロ組織サンプルの平均応答を予測するタスクである。
多くのミクロ構造体は明白なセグメンテーションを持つが、この表現は全場の情報を符号化しないため、セグメンテーションによって誘導されるグラフから直接学ぶことは困難である。
我々は,初期入力フィールドの分割とネイティブ離散化を考慮に入れて,縮小グラフ上の隠れた特徴の深層学習手法を開発した。
これらの特徴は、縮小グラフのノードとして表される領域に関連付けられている。
この縮小表現は、その後のマルチレベル/スケールグラフ畳み込みネットワークモデルの基礎となる。
畳み込み層で完全に処理する前にグラフを減らすには、解釈可能な機能や大規模メッシュでの効率性など、多くのメリットがある。
3つの物理例を用いてデータのネイティブな離散化を直接操作する畳み込みニューラルネットワークに対して提案したネットワークの性能を示す。
関連論文リスト
- Unitary convolutions for learning on graphs and groups [0.9899763598214121]
我々は、訓練中により安定したより深いネットワークを可能にするユニタリグループ畳み込みについて研究する。
論文の主な焦点はグラフニューラルネットワークであり、ユニタリグラフの畳み込みがオーバー・スムーシングを確実に回避していることを示す。
実験結果から,ベンチマークデータセット上でのユニタリグラフ畳み込みネットワークの競合性能が確認できた。
論文 参考訳(メタデータ) (2024-10-07T21:09:14Z) - Message Detouring: A Simple Yet Effective Cycle Representation for
Expressive Graph Learning [4.085624738017079]
グラフ全体のサイクル表現を階層的に特徴付けるために,テキストデツーリングの概念を導入する。
メッセージのデツーリングは、さまざまなベンチマークデータセットにおいて、現在の競合するアプローチを大幅に上回る可能性がある。
論文 参考訳(メタデータ) (2024-02-12T22:06:37Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Spectral Embedding of Graph Networks [76.27138343125985]
ローカルノードの類似性と接続性、グローバル構造をトレードオフする教師なしグラフ埋め込みを導入する。
埋め込みは一般化されたグラフ Laplacian に基づいており、固有ベクトルは1つの表現においてネットワーク構造と近傍近傍の両方をコンパクトにキャプチャする。
論文 参考訳(メタデータ) (2020-09-30T04:59:10Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。