論文の概要: A Few Moments Please: Scalable Graphon Learning via Moment Matching
- arxiv url: http://arxiv.org/abs/2506.04206v1
- Date: Wed, 04 Jun 2025 17:51:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.505295
- Title: A Few Moments Please: Scalable Graphon Learning via Moment Matching
- Title(参考訳): モーメントマッチングによるスケーラブルなグラフ学習
- Authors: Reza Ramezanpour, Victor M. Tenorio, Antonio G. Marques, Ashutosh Sabharwal, Santiago Segarra,
- Abstract要約: 本稿では,モーメントマッチングによるグラフオンを直接復元する,スケーラブルなグラフオン推定器を提案する。
また、モーメントマイクアップ(MomentMixup)というデータ拡張技術を導入し、モーメント空間でミキサアップを行い、グラファイトベースの学習を強化する。
- 参考スコア(独自算出の注目度): 32.65958390286061
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graphons, as limit objects of dense graph sequences, play a central role in the statistical analysis of network data. However, existing graphon estimation methods often struggle with scalability to large networks and resolution-independent approximation, due to their reliance on estimating latent variables or costly metrics such as the Gromov-Wasserstein distance. In this work, we propose a novel, scalable graphon estimator that directly recovers the graphon via moment matching, leveraging implicit neural representations (INRs). Our approach avoids latent variable modeling by training an INR--mapping coordinates to graphon values--to match empirical subgraph counts (i.e., moments) from observed graphs. This direct estimation mechanism yields a polynomial-time solution and crucially sidesteps the combinatorial complexity of Gromov-Wasserstein optimization. Building on foundational results, we establish a theoretical guarantee: when the observed subgraph motifs sufficiently represent those of the true graphon (a condition met with sufficiently large or numerous graph samples), the estimated graphon achieves a provable upper bound in cut distance from the ground truth. Additionally, we introduce MomentMixup, a data augmentation technique that performs mixup in the moment space to enhance graphon-based learning. Our graphon estimation method achieves strong empirical performance--demonstrating high accuracy on small graphs and superior computational efficiency on large graphs--outperforming state-of-the-art scalable estimators in 75\% of benchmark settings and matching them in the remaining cases. Furthermore, MomentMixup demonstrated improved graph classification accuracy on the majority of our benchmarks.
- Abstract(参考訳): グラフは、密度の高いグラフ列の制限対象として、ネットワークデータの統計解析において中心的な役割を果たす。
しかし、既存のグラフオン推定手法は、遅延変数の推定やGromov-Wasserstein距離のような高価なメトリクスに依存するため、大規模ネットワークのスケーラビリティや分解能に依存しない近似に苦慮することが多い。
そこで本研究では,暗黙的ニューラル表現(INR)を利用して,モーメントマッチングによって直接グラフを復元する,新しいスケーラブルなグラフオン推定器を提案する。
提案手法は,観測されたグラフから経験的部分グラフ数(即ちモーメント)をマッチングするために,INRの座標をグラノン値にマッピングすることで潜時変動モデリングを回避する。
この直接推定機構は多項式時間解を導き、グロモフ=ワッサーシュタイン最適化の組合せ複雑性を決定的に左右する。
観測された部分グラフモチーフが真のグラフロンのモチーフ(十分に大きなあるいは多数のグラフサンプルで満たされた条件)を十分に表すと、推定されたグラフロンは、地上の真実から切り離された距離で証明可能な上限を達成する。
さらに、モーメントマイクアップ(MomentMixup)というデータ拡張技術を導入し、モーメント空間でミキサアップを行い、グラファイトベースの学習を強化する。
提案手法は,小グラフ上での高精度化と大規模グラフ上での計算効率の向上を実証し,75 % のベンチマーク設定において,最先端のスケーラブルな推定器の性能向上を実現した。
さらに、MomentMixupは、ベンチマークの大部分でグラフ分類精度を改善した。
関連論文リスト
- Scalable Implicit Graphon Learning [25.015678499211404]
本稿では、暗黙的ニューラルネットワーク(INR)とグラフニューラルネットワーク(GNN)を組み合わせて、観測されたグラフからグラフを推定するスケーラブルな手法を提案する。
合成グラフと実世界のグラフでSIGLを評価し,既存の手法より優れ,大規模グラフに効果的にスケール可能であることを示した。
論文 参考訳(メタデータ) (2024-10-22T22:44:24Z) - Sparse Training of Discrete Diffusion Models for Graph Generation [45.103518022696996]
SparseDiffは、ほとんど全ての大きなグラフがスパースであるという観察に基づく、新しい拡散モデルである。
エッジのサブセットを選択することで、SparseDiffは、ノイズ発生過程とノイズ発生ネットワーク内のスパースグラフ表現を効果的に活用する。
本モデルでは,小規模・大規模両方のデータセットにおいて,複数のメトリクスにわたる最先端性能を示す。
論文 参考訳(メタデータ) (2023-11-03T16:50:26Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - Sparse Graph Learning from Spatiotemporal Time Series [16.427698929775023]
本稿では,グラフ上の分布として関係依存を学習するグラフ学習フレームワークを提案する。
提案手法は,エンドツーエンドの予測アーキテクチャのグラフ学習コンポーネントと同様に,スタンドアローンのグラフ識別手法として利用できることを示す。
論文 参考訳(メタデータ) (2022-05-26T17:02:43Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Just SLaQ When You Approximate: Accurate Spectral Distances for
Web-Scale Graphs [6.72542623686684]
本研究では,数十億のノードとエッジを持つグラフ間のスペクトル距離を計算するための,効率的かつ効率的な近似手法であるSLaQを提案する。
SLaQは既存の手法よりも優れており、近似精度は数桁向上することが多い。
論文 参考訳(メタデータ) (2020-03-03T01:25:07Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。