論文の概要: Scalable Implicit Graphon Learning
- arxiv url: http://arxiv.org/abs/2410.17464v1
- Date: Tue, 22 Oct 2024 22:44:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:57:07.967398
- Title: Scalable Implicit Graphon Learning
- Title(参考訳): スケーラブルなインシシデントグラフ学習
- Authors: Ali Azizpour, Nicolas Zilberstein, Santiago Segarra,
- Abstract要約: 本稿では、暗黙的ニューラルネットワーク(INR)とグラフニューラルネットワーク(GNN)を組み合わせて、観測されたグラフからグラフを推定するスケーラブルな手法を提案する。
合成グラフと実世界のグラフでSIGLを評価し,既存の手法より優れ,大規模グラフに効果的にスケール可能であることを示した。
- 参考スコア(独自算出の注目度): 25.015678499211404
- License:
- Abstract: Graphons are continuous models that represent the structure of graphs and allow the generation of graphs of varying sizes. We propose Scalable Implicit Graphon Learning (SIGL), a scalable method that combines implicit neural representations (INRs) and graph neural networks (GNNs) to estimate a graphon from observed graphs. Unlike existing methods, which face important limitations like fixed resolution and scalability issues, SIGL learns a continuous graphon at arbitrary resolutions. GNNs are used to determine the correct node ordering, improving graph alignment. Furthermore, we characterize the asymptotic consistency of our estimator, showing that more expressive INRs and GNNs lead to consistent estimators. We evaluate SIGL in synthetic and real-world graphs, showing that it outperforms existing methods and scales effectively to larger graphs, making it ideal for tasks like graph data augmentation.
- Abstract(参考訳): グラフはグラフの構造を表す連続モデルであり、様々な大きさのグラフを生成することができる。
本稿では,暗黙的ニューラル表現(INR)とグラフニューラルネットワーク(GNN)を組み合わせたスケーラブルな手法であるSIGLを提案する。
固定解像度やスケーラビリティの問題といった重要な制限に直面している既存の方法とは異なり、SIGLは任意の解像度で連続的なグラフを学習する。
GNNは正しいノード順序を決定し、グラフアライメントを改善するために使用される。
さらに、我々は、より表現力のあるINRとGNNが一貫した推定に繋がることを示すため、予測器の漸近一貫性を特徴づける。
合成グラフや実世界のグラフでSIGLを評価し、既存の手法よりも優れており、グラフデータ拡張のようなタスクに最適であることを示す。
関連論文リスト
- Graph Distillation with Eigenbasis Matching [43.59076214528843]
実グラフの代わりに固有基底マッチング(GDEM)を用いたグラフ蒸留を提案する。
GDEMは実グラフと合成グラフの固有基底とノード特徴を整列する。
実グラフのスペクトルを直接再現することで、GNNの影響を防止できる。
論文 参考訳(メタデータ) (2023-10-13T15:48:12Z) - Graph Neural Tangent Kernel: Convergence on Large Graphs [7.624781434274796]
グラフニューラルネットワーク(GNN)は、グラフ機械学習タスクにおいて顕著なパフォーマンスを達成する。
グラフニューラルカーネル(GNTK)とグラフトンを用いた大規模グラフGNNのトレーニングダイナミクスについて検討する。
論文 参考訳(メタデータ) (2023-01-25T19:52:58Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph and graphon neural network stability [122.06927400759021]
グラフネットワーク(GNN)は、ネットワークデータの有意義な表現を生成するためにグラフ構造の知識に依存する学習アーキテクチャである。
我々は,GNNの安定性を,グラファイトと呼ばれるカーネルオブジェクトを用いて解析する。
論文 参考訳(メタデータ) (2020-10-23T16:55:56Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。