論文の概要: Gromov-Wasserstein Graph Coarsening
- arxiv url: http://arxiv.org/abs/2511.08733v1
- Date: Thu, 13 Nov 2025 01:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.214621
- Title: Gromov-Wasserstein Graph Coarsening
- Title(参考訳): Gromov-Wasserstein Graph Coarsening
- Authors: Carlos A. Taveras, Santiago Segarra, César A. Uribe,
- Abstract要約: グロモフ・ワッサーシュタイン幾何学におけるグラフ粗化問題について検討する。
そこで本研究では,ノード同士の結合によって引き起こされる歪みの新たな表現を利用する2つのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 36.62418750027048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of graph coarsening within the Gromov-Wasserstein geometry. Specifically, we propose two algorithms that leverage a novel representation of the distortion induced by merging pairs of nodes. The first method, termed Greedy Pair Coarsening (GPC), iteratively merges pairs of nodes that locally minimize a measure of distortion until the desired size is achieved. The second method, termed $k$-means Greedy Pair Coarsening (KGPC), leverages clustering based on pairwise distortion metrics to directly merge clusters of nodes. We provide conditions guaranteeing optimal coarsening for our methods and validate their performance on six large-scale datasets and a downstream clustering task. Results show that the proposed methods outperform existing approaches on a wide range of parameters and scenarios.
- Abstract(参考訳): グロモフ・ワッサーシュタイン幾何学におけるグラフ粗化問題について検討する。
具体的には,一対のノードによって引き起こされる歪みの新たな表現を利用する2つのアルゴリズムを提案する。
最初の方法は、Greedy Pair Coarsening (GPC)と呼ばれ、望まれるサイズになるまで歪みの尺度を局所的に最小化するノードのペアを反復的にマージする。
第二の方法は、$k$-means Greedy Pair Coarsening (KGPC)と呼ばれ、対の歪みメトリクスに基づくクラスタリングを活用して、ノードのクラスタを直接マージする。
我々は,提案手法の最適粗大化を保証する条件を提供し,その性能を6つの大規模データセットと下流クラスタリングタスクで検証する。
その結果,提案手法は様々なパラメータやシナリオにおいて既存手法よりも優れていることがわかった。
関連論文リスト
- A Greedy Strategy for Graph Cut [95.2841574410968]
GGCと呼ばれるグラフカットの問題を解決するための欲求戦略を提案する。
これは、各データサンプルがクラスタと見なされる状態から始まり、2つのクラスタを動的にマージする。
GGCはサンプル数に関してほぼ線形な計算複雑性を持つ。
論文 参考訳(メタデータ) (2024-12-28T05:49:42Z) - An efficient search-and-score algorithm for ancestral graphs using multivariate information scores [0.0]
本稿では,2方向のエッジを含む祖先グラフのグリージー検索とスコアアルゴリズムを提案する。
計算効率を向上させるため、提案した2段階のアルゴリズムは、周辺ノードに限定した局所的な情報スコアに依存する。
この計算戦略は、最大2コライダーパスを含むAC接続サブセットからの情報提供に制限されているものの、ベンチマークデータセットの挑戦に対して最先端の因果探索法より優れていることを示す。
論文 参考訳(メタデータ) (2024-12-23T12:09:14Z) - HeNCler: Node Clustering in Heterophilous Graphs via Learned Asymmetric Similarity [48.62389920549271]
HeNClerは、重み付けされたカーネル特異値分解に基づいてクラスタリング固有の目的を最適化することで類似性グラフを学習する。
提案手法は,非対称類似グラフ上でのスペクトルクラスタリングを可能にし,有向グラフと無向グラフの両方に柔軟性を提供する。
論文 参考訳(メタデータ) (2024-05-27T11:04:05Z) - Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - MeanCut: A Greedy-Optimized Graph Clustering via Path-based Similarity
and Degree Descent Criterion [0.6906005491572401]
スペクトルクラスタリングは、優れたパフォーマンス、簡単な実装、強力な適応性のために人気があり、魅力的です。
我々は,MeanCutを目的関数として提案し,非破壊グラフ分割の次数降下順で厳密に最適化する。
本アルゴリズムの有効性は,実世界のベンチマークによる検証と顔認識の適用によって実証される。
論文 参考訳(メタデータ) (2023-12-07T06:19:39Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Robust Hypergraph Clustering via Convex Relaxation of Truncated MLE [12.805268849262246]
重み付き$d$uniformハイパーグラフブロックモデル(d$textsf-WHSBM)におけるハイパーグラフクラスタリングの研究
我々は、textsfCRTMLEと呼ばれる新しいハイパーグラフクラスタリングアルゴリズムを提案し、その性能保証を、一般的なパラメータ規則に対して$d$textsf-WHSBMで提供する。
論文 参考訳(メタデータ) (2020-03-23T01:02:28Z) - Efficient Clustering for Stretched Mixtures: Landscape and Optimality [4.2111286819721485]
本稿では,2つの楕円分布の平衡混合から抽出された未ラベルのサンプルを受信する正準クラスタリング問題について考察する。
非最適クラスタリング関数は、サンプルサイズが一定の統計的目標を超えると、望ましい幾何学的性質を示す。
論文 参考訳(メタデータ) (2020-03-22T17:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。