論文の概要: MG-GNN: Multigrid Graph Neural Networks for Learning Multilevel Domain
Decomposition Methods
- arxiv url: http://arxiv.org/abs/2301.11378v1
- Date: Thu, 26 Jan 2023 19:44:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 17:26:08.812889
- Title: MG-GNN: Multigrid Graph Neural Networks for Learning Multilevel Domain
Decomposition Methods
- Title(参考訳): mg-gnn:多レベル領域分割法学習のためのマルチグリッドグラフニューラルネットワーク
- Authors: Ali Taghibakhshi, Nicolas Nytko, Tareq Uz Zaman, Scott MacLachlan,
Luke Olson, Matthew West
- Abstract要約: 2レベル領域分割法において最適化されたパラメータを学習するためのマルチグリッドグラフニューラルネットワーク(MG-GNN)を提案する。
MG-GNNは、この最適化のために人気のある階層グラフネットワークアーキテクチャよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain decomposition methods (DDMs) are popular solvers for discretized
systems of partial differential equations (PDEs), with one-level and multilevel
variants. These solvers rely on several algorithmic and mathematical
parameters, prescribing overlap, subdomain boundary conditions, and other
properties of the DDM. While some work has been done on optimizing these
parameters, it has mostly focused on the one-level setting or special cases
such as structured-grid discretizations with regular subdomain construction. In
this paper, we propose multigrid graph neural networks (MG-GNN), a novel GNN
architecture for learning optimized parameters in two-level DDMs\@. We train
MG-GNN using a new unsupervised loss function, enabling effective training on
small problems that yields robust performance on unstructured grids that are
orders of magnitude larger than those in the training set. We show that MG-GNN
outperforms popular hierarchical graph network architectures for this
optimization and that our proposed loss function is critical to achieving this
improved performance.
- Abstract(参考訳): ドメイン分解法 (DDM) は、偏微分方程式 (PDE) の離散化系(英語版)の1レベルおよび多レベル変種に対する一般的な解法である。
これらの解法はいくつかのアルゴリズム的および数学的パラメータ、重なり合い、サブドメイン境界条件、その他のDDMの性質に依存している。
これらのパラメータを最適化する作業がいくつか行われているが、主に1レベル設定や、通常のサブドメイン構成による構造化グリッド離散化のような特別なケースに焦点を当てている。
本稿では,2レベルDDMで最適化されたパラメータを学習するための新しいGNNアーキテクチャである,マルチグリッドグラフニューラルネットワーク(MG-GNN)を提案する。
我々は,新しい教師なし損失関数を用いてmg-gnnを訓練し,非構造化グリッドの頑健な性能をもたらす小さな問題に対する効果的なトレーニングを可能にした。
この最適化のためにmg-gnnは一般的な階層グラフネットワークアーキテクチャよりも優れており,提案する損失関数は性能向上に不可欠である。
関連論文リスト
- Enhancing GNNs Performance on Combinatorial Optimization by Recurrent Feature Update [0.09986418756990156]
本稿では,組合せ最適化(CO)問題を効率よく解くために,GNNのパワーを活用して,QRF-GNNと呼ぶ新しいアルゴリズムを提案する。
QUBO緩和による損失関数の最小化による教師なし学習に依存している。
実験の結果、QRF-GNNは既存の学習ベースアプローチを大幅に上回り、最先端の手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-07-23T13:34:35Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - AGNN: Alternating Graph-Regularized Neural Networks to Alleviate
Over-Smoothing [29.618952407794776]
グラフ畳み込み層(GCL)とグラフ埋め込み層(GEL)からなる交代グラフ正規化ニューラルネットワーク(AGNN)を提案する。
GELはラプラシアン埋め込み項を含むグラフ正規化最適化から導かれる。
AGNNは、いくつかの多層または多次グラフニューラルネットワークのパフォーマンス比較を含む、多数の実験を通じて評価されている。
論文 参考訳(メタデータ) (2023-04-14T09:20:03Z) - Agglomeration of Polygonal Grids using Graph Neural Networks with
applications to Multigrid solvers [0.0]
計算メッシュの接続グラフを分割するグラフニューラルネットワーク(GNN)を提案する。
GNNはメッシュのグラフ構造と幾何学的情報の両方を自然に同時に処理する利点がある。
機械学習(ML)戦略では、品質指標のパフォーマンスが向上し、GNNはオンラインでの計算コストの低減を特徴としている。
論文 参考訳(メタデータ) (2022-10-31T16:30:48Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - ASGNN: Graph Neural Networks with Adaptive Structure [41.83813812538167]
本稿では,アダプティブ構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
論文 参考訳(メタデータ) (2022-10-03T15:10:40Z) - A Bipartite Graph Neural Network Approach for Scalable Beamforming
Optimization [19.747638780327257]
マルチユーザ・シングルインプット・シングルアウトプット(MU-MISO)システムの最適化のために,Deep Learning(DL)技術が集中的に研究されている。
本稿では,アンテナ,すなわちユーザ数に関して,ビームフォーミングネットワークのためのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-07-12T07:59:21Z) - Contrastive Adaptive Propagation Graph Neural Networks for Efficient
Graph Learning [65.08818785032719]
グラフネットワーク(GNN)は、構造認識特徴の抽出と伝播によってグラフデータの処理に成功している。
近年,地域と高階の双方からなる拡張された隣人を直接扱えるように,近隣住民に焦点を絞った局所的伝播計画から拡張的伝播計画へと発展してきた。
優れた性能にもかかわらず、既存のアプローチは、局所的および高次隣人の影響を適応的に調整できる効率的で学習可能な拡張伝搬スキームを構築するのにはまだ不十分である。
論文 参考訳(メタデータ) (2021-12-02T10:35:33Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。