論文の概要: From Moments to Models: Graphon Mixture-Aware Mixup and Contrastive Learning
- arxiv url: http://arxiv.org/abs/2510.03690v1
- Date: Sat, 04 Oct 2025 06:03:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.198223
- Title: From Moments to Models: Graphon Mixture-Aware Mixup and Contrastive Learning
- Title(参考訳): モーメントからモデルへ:グラファイア・ミクチャー・アウェア・ミックスアップとコントラスト・ラーニング
- Authors: Ali Azizpour, Reza Ramezanpour, Ashutosh Sabharwal, Santiago Segarra,
- Abstract要約: 本稿では,グラフトンで表される基礎となるグラフ生成モデルの混合として,データを明示的にモデル化する統合フレームワークを提案する。
これにより、混合成分を解離させ、それらの異なる生成機構を同定することができる。
教師なし学習では、MGCLは最先端の結果を達成し、8つのデータセットの平均ランクを得る。
教師付き学習では、GMAMは既存の戦略を一貫して上回り、7つのデータセットのうち6つで新しい最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 37.00052626796266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world graph datasets often consist of mixtures of populations, where graphs are generated from multiple distinct underlying distributions. However, modern representation learning approaches, such as graph contrastive learning (GCL) and augmentation methods like Mixup, typically overlook this mixture structure. In this work, we propose a unified framework that explicitly models data as a mixture of underlying probabilistic graph generative models represented by graphons. To characterize these graphons, we leverage graph moments (motif densities) to cluster graphs arising from the same model. This enables us to disentangle the mixture components and identify their distinct generative mechanisms. This model-aware partitioning benefits two key graph learning tasks: 1) It enables a graphon-mixture-aware mixup (GMAM), a data augmentation technique that interpolates in a semantically valid space guided by the estimated graphons, instead of assuming a single graphon per class. 2) For GCL, it enables model-adaptive and principled augmentations. Additionally, by introducing a new model-aware objective, our proposed approach (termed MGCL) improves negative sampling by restricting negatives to graphs from other models. We establish a key theoretical guarantee: a novel, tighter bound showing that graphs sampled from graphons with small cut distance will have similar motif densities with high probability. Extensive experiments on benchmark datasets demonstrate strong empirical performance. In unsupervised learning, MGCL achieves state-of-the-art results, obtaining the top average rank across eight datasets. In supervised learning, GMAM consistently outperforms existing strategies, achieving new state-of-the-art accuracy in 6 out of 7 datasets.
- Abstract(参考訳): 実世界のグラフデータセットは、しばしば集団の混合で構成され、グラフは複数の異なる基礎分布から生成される。
しかし、グラフコントラスト学習(GCL)やMixupのような拡張手法のような現代の表現学習アプローチは、一般的にこの混合構造を見落としている。
本研究では,グラフトンで表される確率的グラフ生成モデルの混合として,データを明示的にモデル化する統合フレームワークを提案する。
これらのグラフを特徴づけるために、同じモデルから生じるクラスタグラフにグラフモーメント(モチーフ密度)を利用する。
これにより、混合成分を解離させ、それらの異なる生成機構を同定することができる。
このモデル対応のパーティショニングは、2つの主要なグラフ学習タスクに役立ちます。
1) クラス毎に1つのグラフオンを仮定するのではなく, 推定したグラフオンによって導かれる意味論的に有効な空間に補間するデータ拡張技術である。
2) GCLでは、モデル適応および原則拡張が可能である。
さらに,新たなモデル認識目標を導入することにより,提案手法(MGCL)は,他のモデルからのグラフに対する負の値を制限することにより,負のサンプリングを改善する。
我々は重要な理論的保証を確立する: 小さいカット距離のグラフからサンプリングされたグラフが、高い確率で同様のモチーフ密度を持つことを示す、より厳密な境界を持つ。
ベンチマークデータセットに関する大規模な実験は、強い経験的性能を示している。
教師なし学習では、MGCLは最先端の結果を達成し、8つのデータセットの平均ランクを得る。
教師付き学習では、GMAMは既存の戦略を一貫して上回り、7つのデータセットのうち6つで新しい最先端の精度を達成する。
関連論文リスト
- Model-Driven Graph Contrastive Learning [25.015678499211404]
本稿では,モデル駆動型グラフコントラスト学習(GCL)フレームワークであるtextbfMGCL$を提案する。
GCLは表現型ノードやグラフ表現を学習するための強力な自己教師型フレームワークとして登場した。
ベンチマークデータセットの実験では、MGCLが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-06-06T16:17:22Z) - M3C: A Framework towards Convergent, Flexible, and Unsupervised Learning
of Mixture Graph Matching and Clustering [57.947071423091415]
本稿では,理論収束を保証する学習自由度アルゴリズムであるM3Cを提案する。
我々は、新しいエッジワイド親和性学習と擬似ラベル選択を組み込んだ教師なしモデルUM3Cを開発した。
提案手法は,最先端のグラフマッチングと混合グラフマッチングとクラスタリングの手法を精度と効率の両面で優れている。
論文 参考訳(メタデータ) (2023-10-27T19:40:34Z) - Permutation Equivariant Graph Framelets for Heterophilous Graph Learning [6.679929638714752]
本研究では,Haar型グラフフレームレットの構築により,マルチスケール抽出を実現する手法を開発した。
ヘテロ親和性グラフの特定のデータセット上で,我々のモデルが最高の性能を達成できることが示される。
論文 参考訳(メタデータ) (2023-06-07T09:05:56Z) - Micro and Macro Level Graph Modeling for Graph Variational Auto-Encoders [16.302222204710276]
本稿では,ノードレベルの特性とグラフレベルの統計を協調的にモデル化する,新しいマルチレベルフレームワークを提案する。
本稿では,ノードレベルとグラフレベルの損失を組み合わせたグラフ生成のための新しいマイクロマクロトレーニング手法を提案する。
実験の結果,GraphVAEモデルにマイクロマクロモデリングを追加することで,5つのベンチマークデータセットにおいて最大2桁のグラフ品質スコアが向上することがわかった。
論文 参考訳(メタデータ) (2022-10-30T13:45:21Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - G-Mixup: Graph Data Augmentation for Graph Classification [55.63157775049443]
Mixupは、2つのランダムサンプル間の特徴とラベルを補間することにより、ニューラルネットワークの一般化とロバスト性を改善する上で優位性を示している。
グラフ分類のためのグラフを増補するために$mathcalG$-Mixupを提案し、グラフの異なるクラスのジェネレータ(すなわちグラフ)を補間する。
実験により、$mathcalG$-MixupはGNNの一般化とロバスト性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-02-15T04:09:44Z) - Towards Graph Self-Supervised Learning with Contrastive Adjusted Zooming [48.99614465020678]
本稿では,グラフコントラスト適応ズームによる自己教師付きグラフ表現学習アルゴリズムを提案する。
このメカニズムにより、G-Zoomはグラフから複数のスケールから自己超越信号を探索して抽出することができる。
我々は,実世界のデータセットに関する広範な実験を行い,提案したモデルが常に最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-20T22:45:53Z) - Stochastic Iterative Graph Matching [11.128153575173213]
本稿では,グラフマッチング問題に対処する新しいモデルであるIterative Graph MAtchingを提案する。
我々のモデルはグラフ対のマッチングの分布を定義し、モデルが様々な可能なマッチングを探索できるようにする。
我々は、生化学やコンピュータビジョンの応用と同様に、合成グラフデータセットにまたがる広範な実験を行う。
論文 参考訳(メタデータ) (2021-06-04T02:05:35Z) - Adaptive Graph Auto-Encoder for General Data Clustering [90.8576971748142]
グラフベースのクラスタリングは、クラスタリング領域において重要な役割を果たす。
グラフ畳み込みニューラルネットワークに関する最近の研究は、グラフ型データにおいて驚くべき成功を収めている。
本稿では,グラフの生成的視点に応じて適応的にグラフを構成する汎用データクラスタリングのためのグラフ自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-02-20T10:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。