論文の概要: AH-UGC: Adaptive and Heterogeneous-Universal Graph Coarsening
- arxiv url: http://arxiv.org/abs/2505.15842v1
- Date: Sun, 18 May 2025 09:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.802166
- Title: AH-UGC: Adaptive and Heterogeneous-Universal Graph Coarsening
- Title(参考訳): AH-UGC:適応性と不均一なグラフ粗化
- Authors: Mohit Kataria, Shreyash Bhilwade, Sandeep Kumar, Jayadeva,
- Abstract要約: Locality Sensitive Hashing(LSH)とConsistent Hashingを組み合わせて$textitadaptive graph coarsening$を有効にする新しいフレームワークを紹介します。
我々のアプローチは適応性と不均一な粗大化の両方をサポートする最初の統一されたフレームワークである。
- 参考スコア(独自算出の注目度): 4.831609704970507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: $\textbf{Graph Coarsening (GC)}$ is a prominent graph reduction technique that compresses large graphs to enable efficient learning and inference. However, existing GC methods generate only one coarsened graph per run and must recompute from scratch for each new coarsening ratio, resulting in unnecessary overhead. Moreover, most prior approaches are tailored to $\textit{homogeneous}$ graphs and fail to accommodate the semantic constraints of $\textit{heterogeneous}$ graphs, which comprise multiple node and edge types. To overcome these limitations, we introduce a novel framework that combines Locality Sensitive Hashing (LSH) with Consistent Hashing to enable $\textit{adaptive graph coarsening}$. Leveraging hashing techniques, our method is inherently fast and scalable. For heterogeneous graphs, we propose a $\textit{type isolated coarsening}$ strategy that ensures semantic consistency by restricting merges to nodes of the same type. Our approach is the first unified framework to support both adaptive and heterogeneous coarsening. Extensive evaluations on 23 real-world datasets including homophilic, heterophilic, homogeneous, and heterogeneous graphs demonstrate that our method achieves superior scalability while preserving the structural and semantic integrity of the original graph.
- Abstract(参考訳): $\textbf{Graph Coarsening (GC)}$は、大きなグラフを圧縮して効率的な学習と推論を可能にする顕著なグラフ削減手法である。
しかし、既存のGCメソッドは実行毎に1つの粗いグラフしか生成せず、新しい粗い比率ごとにスクラッチから再計算する必要があるため、不要なオーバーヘッドが発生する。
さらに、従来のほとんどのアプローチは、$\textit{homogeneous}$ graphsに調整されており、複数のノードとエッジタイプで構成される$\textit{heterogeneous}$ graphsのセマンティック制約に適合しない。
これらの制限を克服するために、Locality Sensitive Hashing(LSH)とConsistent Hashingを組み合わせて$\textit{adaptive graph coarsening}$を有効にする新しいフレームワークを紹介します。
ハッシュ技術を活用して、当社の手法は本質的に高速でスケーラブルです。
異種グラフに対しては、同じタイプのノードにマージを制限することで意味的一貫性を確保するために、$\textit{type isolated coarsening}$戦略を提案する。
我々のアプローチは適応性と不均一な粗大化の両方をサポートする最初の統一されたフレームワークである。
相同性, 異種性, 異種性, 異種性を含む23個の実世界のデータセットを網羅的に評価した結果, 本手法は元のグラフの構造的・意味的整合性を保ちながら, 優れたスケーラビリティを実現することが示された。
関連論文リスト
- Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - HeteroMILE: a Multi-Level Graph Representation Learning Framework for Heterogeneous Graphs [13.01983932286923]
異種グラフ上のノードのマルチレベル埋め込みフレームワーク(HeteroMILE)を提案する。
HeteroMILEは、グラフを埋め込む前に、グラフのバックボーン構造を保ちながら、大きなグラフを小さなサイズに繰り返し調整する。
その後、ヘテロジニアスグラフ畳み込みニューラルネットワークを用いて、元のグラフへの粗い埋め込みを洗練する。
論文 参考訳(メタデータ) (2024-03-31T22:22:10Z) - Fused Gromov-Wasserstein Graph Mixup for Graph-level Classifications [44.15102300886821]
我々はFGWMixupと呼ばれる新しいグラフ混合アルゴリズムを提案し、FGWMixupはFused Gromov-Wasserstein計量空間のソースグラフの中間点を求める。
5つのデータセットで行った実験により、FGWMixupはGNNの一般化性と堅牢性を効果的に改善することが示された。
論文 参考訳(メタデータ) (2023-06-28T07:00:12Z) - Beyond Homophily: Reconstructing Structure for Graph-agnostic Clustering [15.764819403555512]
グラフを好適なGNNモデルが見つかる前に、まずホモ親和性あるいはヘテロ親和性として識別することは不可能である。
本稿では,グラフ再構成,混合フィルタ,二重グラフクラスタリングネットワークという3つの重要な要素を含むグラフクラスタリング手法を提案する。
我々の手法は異種グラフ上で他者を支配している。
論文 参考訳(メタデータ) (2023-05-03T01:49:01Z) - AnchorGAE: General Data Clustering via $O(n)$ Bipartite Graph
Convolution [79.44066256794187]
我々は、グラフ畳み込みネットワーク(GCN)を構築するために使用される生成グラフモデルを導入することにより、グラフに非グラフデータセットを変換する方法を示す。
アンカーによって構築された二部グラフは、データの背後にある高レベル情報を利用するために動的に更新される。
理論的には、単純な更新が退化につながることを証明し、それに従って特定の戦略が設計される。
論文 参考訳(メタデータ) (2021-11-12T07:08:13Z) - Simple Truncated SVD based Model for Node Classification on Heterophilic
Graphs [0.5309004257911242]
グラフニューラルネットワーク(GNN)は、強いホモフィリーを示すグラフに対して優れた性能を示す。
近年のアプローチでは、この制限に対処するため、アダプティブグラフフィルタなどのアグリゲーションスキームの変更が一般的である。
本稿では, トポロジ構造とノード特徴のトランク付き特異値分解(TSVD)を利用した簡易な代替手法を提案する。
論文 参考訳(メタデータ) (2021-06-24T07:48:18Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - Scalable Deep Generative Modeling for Sparse Graphs [105.60961114312686]
既存のディープニューラルネットワーク手法では、隣接行列を構築することで、$Omega(n2)$複雑さを必要とする。
我々は,この空間を利用して完全隣接行列を生成する新しい自己回帰モデルBiGGを開発した。
トレーニング中、この自己回帰モデルは$O(log n)$同期ステージで並列化できる。
論文 参考訳(メタデータ) (2020-06-28T04:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。