論文の概要: BRAVA-GNN: Betweenness Ranking Approximation Via Degree MAss Inspired Graph Neural Network
- arxiv url: http://arxiv.org/abs/2602.09716v1
- Date: Tue, 10 Feb 2026 12:20:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.525444
- Title: BRAVA-GNN: Betweenness Ranking Approximation Via Degree MAss Inspired Graph Neural Network
- Title(参考訳): BRAVA-GNN: グラフニューラルネットワークにインスパイアされたDegree MAssによる精度ランク付け近似
- Authors: Justin Dachille, Aurora Rossi, Sunil Kumar Maurya, Frederik Mallmann-Trenn, Xin Liu, Frédéric Giroire, Tsuyoshi Murata, Emanuele Natale,
- Abstract要約: 道路網などの高次元グラフに一般化する軽量なグラフニューラルネットワークアーキテクチャを提案する。
我々は,BRAVA-GNNによるKendall-Tau相関の最大214%向上と,最先端手法による推論時間の最大70倍の高速化を実現していることを示す。
- 参考スコア(独自算出の注目度): 9.415620265692878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computing node importance in networks is a long-standing fundamental problem that has driven extensive study of various centrality measures. A particularly well-known centrality measure is betweenness centrality, which becomes computationally prohibitive on large-scale networks. Graph Neural Network (GNN) models have thus been proposed to predict node rankings according to their relative betweenness centrality. However, state-of-the-art methods fail to generalize to high-diameter graphs such as road networks. We propose BRAVA-GNN, a lightweight GNN architecture that leverages the empirically observed correlation linking betweenness centrality to degree-based quantities, in particular multi-hop degree mass. This correlation motivates the use of degree masses as size-invariant node features and synthetic training graphs that closely match the degree distributions of real networks. Furthermore, while previous work relies on scale-free synthetic graphs, we leverage the hyperbolic random graph model, which reproduces power-law exponents outside the scale-free regime, better capturing the structure of real-world graphs like road networks. This design enables BRAVA-GNN to generalize across diverse graph families while using 54x fewer parameters than the most lightweight existing GNN baseline. Extensive experiments on 19 real-world networks, spanning social, web, email, and road graphs, show that BRAVA-GNN achieves up to 214% improvement in Kendall-Tau correlation and up to 70x speedup in inference time over state-of-the-art GNN-based approaches, particularly on challenging road networks.
- Abstract(参考訳): ネットワークにおけるノードの重要性の計算は、様々な集中度尺度の広範な研究を推進してきた長年の根本的な問題である。
特によく知られた集中度尺度は、大規模ネットワークでは計算的に禁止される、相互中心性である。
グラフニューラルネットワーク(GNN)モデルは,ノードの相対的相互中心性に応じてノードのランク付けを予測するために提案されている。
しかし、最先端の手法は道路網のような高径のグラフに一般化できない。
本稿では,BRAVA-GNNという軽量なGNNアーキテクチャを提案する。
この相関関係は、実ネットワークの次数分布と密接に一致する大きさ不変なノード特徴と合成訓練グラフとして次数質量を使用する動機となっている。
さらに, 従来の研究は, スケールフリーな合成グラフに依存していたが, 道路網のような実世界のグラフの構造をよりよく把握し, スケールフリーな状態の外でパワーロー指数を再現する双曲乱数グラフモデルを利用した。
この設計により、BRAVA-GNNは、最も軽量なGNNベースラインよりも54倍少ないパラメータを使用しながら、多様なグラフファミリをまたいで一般化することができる。
ソーシャル、Web、Eメール、ロードグラフにまたがる19の現実世界のネットワークに関する大規模な実験は、BRAVA-GNNがKendall-Tau相関を最大214%改善し、最先端のGNNベースのアプローチよりも推論時間の最大70倍の高速化を実現していることを示している。
関連論文リスト
- SGNNBench: A Holistic Evaluation of Spiking Graph Neural Network on Large-scale Graph [18.386483393473824]
グラフニューラルネットワーク(GNN)は、グラフデータ用に設計された模範的なディープモデルである。
グラフ表現学習のための複雑な機械を開発する傾向は、大規模グラフでは持続不可能になっている。
SGNNBenchは、有効性、エネルギー効率、アーキテクチャ設計など、さまざまな観点から、SGNNの詳細な調査を行っている。
論文 参考訳(メタデータ) (2025-09-16T08:22:01Z) - Graph as a feature: improving node classification with non-neural graph-aware logistic regression [2.952177779219163]
Graph-aware Logistic Regression (GLR) はノード分類タスク用に設計された非神経モデルである。
GNNにアクセスできる情報のごく一部しか使わない従来のグラフアルゴリズムとは異なり、提案モデルではノードの特徴とエンティティ間の関係を同時に活用する。
論文 参考訳(メタデータ) (2024-11-19T08:32:14Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Breaking the Limit of Graph Neural Networks by Improving the
Assortativity of Graphs with Local Mixing Patterns [19.346133577539394]
グラフニューラルネットワーク(GNN)は、複数のグラフベースの学習タスクで大きな成功を収めています。
入力グラフを近接情報と構造情報の両方を含む計算グラフに変換することに集中する。
構造と近接度を適応的に選択することで,様々な混合条件下での性能が向上することを示す。
論文 参考訳(メタデータ) (2021-06-11T19:18:34Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。