論文の概要: Almost Surely Asymptotically Constant Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2403.03880v3
- Date: Fri, 08 Nov 2024 12:26:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:52:09.061870
- Title: Almost Surely Asymptotically Constant Graph Neural Networks
- Title(参考訳): ほぼ確実に漸近的に一定なグラフニューラルネットワーク
- Authors: Sam Adam-Day, Michael Benedikt, İsmail İlkan Ceylan, Ben Finkelshtein,
- Abstract要約: 出力は定数関数に収束し、これらの分類器が一様に表現できる上限となることを示す。
この強い収束現象は、芸術モデルを含む非常に幅広い種類のGNNに適用される。
我々はこれらの知見を実証的に検証し、収束現象がランダムグラフだけでなく、実世界のグラフにも現れることを観察した。
- 参考スコア(独自算出の注目度): 7.339728196535312
- License:
- Abstract: We present a new angle on the expressive power of graph neural networks (GNNs) by studying how the predictions of real-valued GNN classifiers, such as those classifying graphs probabilistically, evolve as we apply them on larger graphs drawn from some random graph model. We show that the output converges to a constant function, which upper-bounds what these classifiers can uniformly express. This strong convergence phenomenon applies to a very wide class of GNNs, including state of the art models, with aggregates including mean and the attention-based mechanism of graph transformers. Our results apply to a broad class of random graph models, including sparse and dense variants of the Erd\H{o}s-R\'enyi model, the stochastic block model, and the Barab\'asi-Albert model. We empirically validate these findings, observing that the convergence phenomenon appears not only on random graphs but also on some real-world graphs.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(GNN)の表現力に対する新しい角度について,グラフを確率的に分類するなど,実数値のGNN分類器の予測が,ランダムなグラフモデルから引き出されたより大きなグラフに適用されるにつれてどのように進化するかを検討する。
出力は定数関数に収束し、これらの分類器が一様に表現できる上限となることを示す。
この強い収束現象は、平均やグラフ変換器の注意に基づくメカニズムを含む、最先端のモデルを含む非常に幅広い種類のGNNに適用される。
この結果は、Erd\H{o}s-R\'enyiモデル、確率ブロックモデル、Barab\asi-Albertモデルなど、幅広いランダムグラフモデルに適用できる。
我々はこれらの知見を実証的に検証し、収束現象がランダムグラフだけでなく、実世界のグラフにも現れることを観察した。
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Stability and Generalization Capabilities of Message Passing Graph
Neural Networks [4.691259009382681]
グラフ分類におけるMPNNの一般化能力について検討する。
経験的損失と統計的損失の間の一般化ギャップに非漸近的境界を導出する。
これは、グラフに適用されたMPNNが、グラフが識別する幾何学的モデルに適用されたMPNNを近似することを示すことで証明される。
論文 参考訳(メタデータ) (2022-02-01T18:37:53Z) - On the Power of Edge Independent Graph Models [22.085932117823738]
本研究では,エッジ独立乱数グラフモデルの限界について検討する。
有界重なり条件の下では、エッジ独立モデルは本質的に、高い三角形やその他の部分グラフ密度を持つグラフを生成する能力に制限されていることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:12:14Z) - Generalization of graph network inferences in higher-order graphical
models [5.33024001730262]
確率的グラフィカルモデルは、複雑な統計構造を記述する強力なツールを提供する。
辺化のような推論は 一般グラフでは難解です
我々は,多変数相互作用を含むグラフィカルモデル上での高速な近似推定を実現するために,Recurrent Factor Graph Neural Network (RF-GNN) を定義する。
論文 参考訳(メタデータ) (2021-07-12T20:51:27Z) - Hyperbolic Variational Graph Neural Network for Modeling Dynamic Graphs [77.33781731432163]
我々は,ノード表現の推論を目的とした双曲空間における動的グラフ表現を初めて学習する。
本稿では,HVGNNと呼ばれる新しいハイパーボリック変動グラフネットワークを提案する。
特に,動力学をモデル化するために,理論的に接地した時間符号化手法に基づく時間gnn(tgnn)を導入する。
論文 参考訳(メタデータ) (2021-04-06T01:44:15Z) - Beyond Low-Pass Filters: Adaptive Feature Propagation on Graphs [6.018995094882323]
グラフニューラルネットワーク(GNN)は、グラフ上の予測タスクのために広く研究されている。
ほとんどのGNNは、局所的ホモフィリー、すなわち地域住民の強い類似性を仮定している。
基本となるホモフィリーによって制限されることなく、任意のグラフを扱うことができる柔軟なGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-03-26T00:35:36Z) - Graph and graphon neural network stability [122.06927400759021]
グラフネットワーク(GNN)は、ネットワークデータの有意義な表現を生成するためにグラフ構造の知識に依存する学習アーキテクチャである。
我々は,GNNの安定性を,グラファイトと呼ばれるカーネルオブジェクトを用いて解析する。
論文 参考訳(メタデータ) (2020-10-23T16:55:56Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z) - The Power of Graph Convolutional Networks to Distinguish Random Graph
Models: Short Version [27.544219236164764]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において広く使われている手法である。
サンプルグラフの埋め込みに基づいて異なるランダムグラフモデルを区別するGCNのパワーについて検討する。
論文 参考訳(メタデータ) (2020-02-13T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。