論文の概要: Towards Scale-Invariant Graph-related Problem Solving by Iterative
Homogeneous Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2010.13547v1
- Date: Mon, 26 Oct 2020 12:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:21:50.731921
- Title: Towards Scale-Invariant Graph-related Problem Solving by Iterative
Homogeneous Graph Neural Networks
- Title(参考訳): 反復同次グラフニューラルネットワークによるスケール不変グラフ関連問題の解法に向けて
- Authors: Hao Tang, Zhiao Huang, Jiayuan Gu, Bao-Liang Lu, Hao Su
- Abstract要約: 現在のグラフニューラルネットワーク(GNN)は、多くのグラフ解析問題を解く際に、スケール(グラフサイズ、グラフ径、エッジウェイトなど)に関する一般化性に欠ける。
まず,グラフサイズに対する共通グラフ理論アルゴリズムの反復回数の依存性に着想を得て,GNNにおけるメッセージパッシングプロセスの終了を,進捗に応じて順応的に学習する。
第二に、多くのグラフ理論アルゴリズムがグラフの重みに関して均一であるという事実に着想を得て、一般のGを変換するために、普遍的同次関数近似器である同次変換層を導入する。
- 参考スコア(独自算出の注目度): 39.370875358317946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current graph neural networks (GNNs) lack generalizability with respect to
scales (graph sizes, graph diameters, edge weights, etc..) when solving many
graph analysis problems. Taking the perspective of synthesizing graph theory
programs, we propose several extensions to address the issue. First, inspired
by the dependency of the iteration number of common graph theory algorithms on
graph size, we learn to terminate the message passing process in GNNs
adaptively according to the computation progress. Second, inspired by the fact
that many graph theory algorithms are homogeneous with respect to graph
weights, we introduce homogeneous transformation layers that are universal
homogeneous function approximators, to convert ordinary GNNs to be homogeneous.
Experimentally, we show that our GNN can be trained from small-scale graphs but
generalize well to large-scale graphs for a number of basic graph theory
problems. It also shows generalizability for applications of multi-body
physical simulation and image-based navigation problems.
- Abstract(参考訳): 現在のグラフニューラルネットワーク(GNN)は、多くのグラフ解析問題を解く際に、スケール(グラフサイズ、グラフ径、エッジウェイトなど)に関する一般化性に欠ける。
グラフ理論プログラムの合成の観点から,この問題に対処するいくつかの拡張を提案する。
まず、グラフサイズに対する共通グラフ理論アルゴリズムの繰り返し数に依存することから着想を得て、GNNにおけるメッセージパッシング処理を計算の進捗に応じて適応的に終了させる。
第二に、グラフ理論のアルゴリズムがグラフの重みに関して均質であるという事実に着想を得て、一般のGNNを均質に変換するために、普遍的同質関数近似器である同質変換層を導入する。
実験により,GNNは小規模なグラフから学習できるが,多数の基本グラフ理論問題に対して,大規模グラフによく応用できることを示した。
また,多体物理シミュレーションや画像に基づくナビゲーション問題に対する一般化可能性を示す。
関連論文リスト
- Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Geometric instability of graph neural networks on large graphs [0.0]
グラフニューラルネットワーク(GNN)による埋め込みの幾何学的不安定性の解析
このような不安定性を測定するために,グラフネイティブグラフグラフグラム(GGI)を提案する。
これにより、ノード分類とリンク予測の両方のために、GNN埋め込みの様々な不安定な振る舞いを大きなグラフ上で研究することができる。
論文 参考訳(メタデータ) (2023-08-19T20:10:54Z) - Learning Graph Algorithms With Recurrent Graph Neural Networks [8.873449722727026]
我々は、単純なグラフ問題を末尾から末尾まで小さなグラフで学習し、より大きなインスタンスに拡張する、反復的なアーキテクチャ設計に重点を置いている。
We use (i) skip connection, (ii) state regularization, and (iii) edge convolutions to guide GNNs to extrapolation。
論文 参考訳(メタデータ) (2022-12-09T15:42:22Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - The Exact Class of Graph Functions Generated by Graph Neural Networks [43.25172578943894]
グラフ関数と出力が同一のグラフニューラルネットワーク(GNN)?
本稿では,この疑問に完全に答え,GNNで表現可能なグラフ問題のクラスを特徴付ける。
この条件は2次的に多くの制約をチェックすることで効率よく検証できることを示す。
論文 参考訳(メタデータ) (2022-02-17T18:54:27Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - MathNet: Haar-Like Wavelet Multiresolution-Analysis for Graph
Representation and Learning [31.42901131602713]
本稿では,マルチレゾリューション・ハール型ウェーブレット(MathNet)を用いたグラフニューラルネットワークのためのフレームワークを提案する。
提案したMathNetは、特にデータセットにおいて、既存のGNNモデルよりも優れている。
論文 参考訳(メタデータ) (2020-07-22T05:00:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。