論文の概要: ECHO: Encoding Communities via High-order Operators
- arxiv url: http://arxiv.org/abs/2602.22446v1
- Date: Wed, 25 Feb 2026 22:14:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.430724
- Title: ECHO: Encoding Communities via High-order Operators
- Title(参考訳): ECHO: 高次演算子によるコミュニティのエンコード
- Authors: Emilio Ferrara,
- Abstract要約: トポロジ的アルゴリズムは意味的特徴を無視し、グラフニューラルネットワーク(GNN)は壊滅的な計算ボトルネックに直面している。
コミュニティ検出を適応的でマルチスケールの拡散プロセスとして再構成する,スケーラブルで自己管理型のアーキテクチャであるECHOを紹介する。
ECHOは、グローバル勾配の数学的精度を犠牲にすることなく、従来のO(N2)メモリボトルネックを完全にバイパスする。
- 参考スコア(独自算出の注目度): 8.970269049715933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Community detection in attributed networks faces a fundamental divide: topological algorithms ignore semantic features, while Graph Neural Networks (GNNs) encounter devastating computational bottlenecks. Specifically, GNNs suffer from a Semantic Wall of feature over smoothing in dense or heterophilic networks, and a Systems Wall driven by the O(N^2) memory constraints of pairwise clustering. To dismantle these barriers, we introduce ECHO (Encoding Communities via High order Operators), a scalable, self supervised architecture that reframes community detection as an adaptive, multi scale diffusion process. ECHO features a Topology Aware Router that automatically analyzes structural heuristics sparsity, density, and assortativity to route graphs through the optimal inductive bias, preventing heterophilic poisoning while ensuring semantic densification. Coupled with a memory sharded full batch contrastive objective and a novel chunked O(N \cdot K) similarity extraction method, ECHO completely bypasses traditional O(N^2) memory bottlenecks without sacrificing the mathematical precision of global gradients. Extensive evaluations demonstrate that this topology feature synergy consistently overcomes the classical resolution limit. On synthetic LFR benchmarks scaled up to 1 million nodes, ECHO achieves scale invariant accuracy despite severe topological noise. Furthermore, on massive real world social networks with over 1.6 million nodes and 30 million edges, it completes clustering in mere minutes with throughputs exceeding 2,800 nodes per second matching the speed of highly optimized purely topological baselines. The implementation utilizes a unified framework that automatically engages memory sharded optimization to support adoption across varying hardware constraints. GitHub Repository: https://github.com/emilioferrara/ECHO-GNN
- Abstract(参考訳): トポロジ的アルゴリズムは意味的特徴を無視し、グラフニューラルネットワーク(GNN)は壊滅的な計算ボトルネックに直面している。
特に、GNNは高密度またはヘテロ親水性ネットワークでスムーズな機能を持つセマンティックウォールと、ペアクラスタリングのO(N^2)メモリ制約によって駆動されるシステムウォールに悩まされている。
これらの障壁を解消するために,我々はECHO (Encoding Communities via High order Operators)を導入した。
ECHOはTopology Aware Routerを備えており、構造的ヒューリスティックの空間性、密度、およびアスカニティを自動的に分析し、最適な帰納バイアスを通じてグラフをルーティングし、セマンティックデンシフィケーションを確保しながらヘテロ親和性中毒を防ぐ。
メモリシャードフルバッチコントラスト目的と新しいチャンクO(N \cdot K)類似性抽出法を組み合わせ、ECHOはグローバル勾配の数学的精度を犠牲にすることなく、従来のO(N^2)メモリボトルネックを完全に回避する。
広範な評価は、このトポロジの特徴が古典的な分解限界を一貫して克服していることを示している。
合成LFRベンチマークは100万ノードまでスケールするが、ECHOは重いトポロジカルノイズにもかかわらずスケール不変の精度を達成する。
さらに、1.6万のノードと3000万のエッジを持つ大規模な現実世界のソーシャルネットワークでは、高度に最適化された純粋なトポロジ的ベースラインの速度に匹敵するスループットで、わずか数分でクラスタリングを完了します。
この実装では、メモリシャード最適化を自動的に行う統一フレームワークを使用して、さまざまなハードウェア制約にまたがって採用をサポートする。
GitHubリポジトリ:https://github.com/emilioferrara/ECHO-GNN
関連論文リスト
- kNN-Graph: An adaptive graph model for $k$-nearest neighbors [17.882218619659756]
計算複雑性から推論遅延を分離する適応グラフモデルを提案する。
このアーキテクチャは、分類精度を損なうことなく、推論速度を大幅に加速し、リアルタイムのパフォーマンスを達成することを実証する。
論文 参考訳(メタデータ) (2026-01-23T07:15:53Z) - Learning Wireless Interference Patterns: Decoupled GNN for Throughput Prediction in Heterogeneous Multi-Hop p-CSMA Networks [4.303580795892996]
Decoupled Graph Convolutional Network (D-GCN)は、ノードの送信確率の処理を近隣の干渉効果から明確に分離する新しいアーキテクチャである。
D-GCNは3.3%のNMAEを達成し、強力なベースラインを上回り、正確な解析手法が計算的に実現不可能になった場合でも、依然として引くことができる。
論文 参考訳(メタデータ) (2025-10-15T22:13:59Z) - Sheaf Graph Neural Networks via PAC-Bayes Spectral Optimization [13.021238902084647]
グラフニューラルネットワーク(GNN)のオーバースムース化は、異なるノード機能で崩壊を引き起こす。
SGPC (Sheaf GNNs with PAC-Bayes) は,セルラーシェーフメッセージパッシングと複数のメカニズムを組み合わせた統一アーキテクチャである。
9つのホモ親和性およびヘテロ親和性ベンチマークの実験により、SGPCは最先端スペクトルおよび層ベースGNNよりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-08-01T06:39:28Z) - ReDiSC: A Reparameterized Masked Diffusion Model for Scalable Node Classification with Structured Predictions [64.17845687013434]
本稿では,構造化ノード分類のための構造拡散モデルであるReDiSCを提案する。
本稿では,ReDiSCが最先端のGNN,ラベル伝搬,拡散ベースラインと比較して,優れた,あるいは高い競争力を発揮することを示す。
特にReDiSCは、従来の構造化拡散法が計算制約によって失敗する大規模データセットに効果的にスケールする。
論文 参考訳(メタデータ) (2025-07-19T04:46:53Z) - Geminet: Learning the Duality-based Iterative Process for Lightweight Traffic Engineering in Changing Topologies [53.38648279089736]
Geminetは軽量でスケーラブルなMLベースのTEフレームワークで、トポロジの変更を処理できる。
そのニューラルネットワークサイズは、既存のスキームの0.04%から7%に過ぎない。
大規模なトポロジでトレーニングすると、Geminetは10ギB未満のメモリを消費し、HARPが要求する80ギBの8倍以下である。
論文 参考訳(メタデータ) (2025-06-30T09:09:50Z) - ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [73.85920403511706]
スケーラブルで効果的なグラフ学習のためのマルチホップノード機能を適応的に融合する新しいフレームワークであるScaleGNNを提案する。
予測精度と計算効率の両面で,ScaleGNNは最先端のGNNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Verifying message-passing neural networks via topology-based bounds tightening [3.3267518043390205]
我々は、メッセージパッシングニューラルネットワーク(MPNN)のための堅牢な証明書を提供するための、計算学的に効果的なアプローチを開発する。
私たちの研究は混合整数最適化に基づいており、様々なサブプロブレムをエンコードしています。
ノード分類とグラフ分類の両方の問題を検証し、エッジの追加と削除の両方を行うトポロジ的攻撃について検討する。
論文 参考訳(メタデータ) (2024-02-21T17:05:27Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。