論文の概要: Node Centrality Approximation For Large Networks Based On Inductive
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2403.04977v1
- Date: Fri, 8 Mar 2024 01:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:28:02.793132
- Title: Node Centrality Approximation For Large Networks Based On Inductive
Graph Neural Networks
- Title(参考訳): 帰納的グラフニューラルネットワークに基づく大規模ネットワークのノード中心性近似
- Authors: Yiwei Zou, Ting Li, Zong-fu Luo
- Abstract要約: ネットワーク分析において、クローズネス中央度(CC)とブロードネス中央度(BC)が重要な指標である。
大規模なネットワーク上での実践的な実装は、その高速な複雑さのため、計算的に要求される。
本稿では,CNCA-IGEモデルを提案する。CNCA-IGEモデルは,CCやBCのメトリクスに基づいてノードをランク付けするインダクティブグラフエンコーダ・デコーダモデルである。
- 参考スコア(独自算出の注目度): 2.4012886591705738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Closeness Centrality (CC) and Betweenness Centrality (BC) are crucial metrics
in network analysis, providing essential reference for discerning the
significance of nodes within complex networks. These measures find wide
applications in critical tasks, such as community detection and network
dismantling. However, their practical implementation on extensive networks
remains computationally demanding due to their high time complexity. To
mitigate these computational challenges, numerous approximation algorithms have
been developed to expedite the computation of CC and BC. Nevertheless, even
these approximations still necessitate substantial processing time when applied
to large-scale networks. Furthermore, their output proves sensitive to even
minor perturbations within the network structure.
In this work, We redefine the CC and BC node ranking problem as a machine
learning problem and propose the CNCA-IGE model, which is an encoder-decoder
model based on inductive graph neural networks designed to rank nodes based on
specified CC or BC metrics. We incorporate the MLP-Mixer model as the decoder
in the BC ranking prediction task to enhance the model's robustness and
capacity. Our approach is evaluated on diverse synthetic and real-world
networks of varying scales, and the experimental results demonstrate that the
CNCA-IGE model outperforms state-of-the-art baseline models, significantly
reducing execution time while improving performance.
- Abstract(参考訳): closeness centrality (cc) と betweenness centrality (bc) はネットワーク分析において重要な指標であり、複雑なネットワーク内のノードの重要性を識別するための重要な基準となっている。
これらの尺度は、コミュニティの検出やネットワークの解体など、重要なタスクに広く応用されている。
しかし,大規模なネットワーク上での実践的な実装は,その時間的複雑さのため,計算的に要求される。
これらの計算課題を軽減するため、CCとBCの計算を高速化するために多くの近似アルゴリズムが開発された。
それでも、これらの近似でさえ、大規模ネットワークに適用する場合、かなりの処理時間を必要とする。
さらに、その出力はネットワーク構造内の小さな摂動にも敏感である。
本研究では,ccおよびbcノードのランキング問題を機械学習問題として再定義し,特定ccまたはbcメトリクスに基づいてノードをランク付けするように設計されたインダクティブグラフニューラルネットワークに基づくエンコーダ・デコーダモデルであるcnca-igeモデルを提案する。
我々は,MLP-MixerモデルをBCランキング予測タスクにデコーダとして組み込んで,モデルの堅牢性とキャパシティを向上させる。
実験の結果,CNCA-IGEモデルは最先端のベースラインモデルよりも優れており,性能の向上とともに実行時間を大幅に短縮することがわかった。
関連論文リスト
- CCDepth: A Lightweight Self-supervised Depth Estimation Network with Enhanced Interpretability [11.076431337488973]
本研究では,畳み込みニューラルネットワーク(CNN)とホワイトボックスCRATEネットワークを組み合わせた,ハイブリッド型自己教師型深度推定ネットワークCCDepthを提案する。
このネットワークは,CNNとCRATEモジュールを用いて画像中の局所的およびグローバルな情報を抽出し,学習効率の向上とモデルサイズ削減を実現する。
論文 参考訳(メタデータ) (2024-09-30T04:19:40Z) - Advanced Financial Fraud Detection Using GNN-CL Model [13.5240775562349]
本稿では,金融不正検出の分野において,革新的なGNN-CLモデルを提案する。
グラフニューラルネットワーク(gnn)、畳み込みニューラルネットワーク(cnn)、長期記憶(LSTM)の利点を組み合わせる。
本稿では,マルチ層パーセプトロン(MLPS)を用いてノードの類似性を推定する。
論文 参考訳(メタデータ) (2024-07-09T03:59:06Z) - Unsupervised Graph Attention Autoencoder for Attributed Networks using
K-means Loss [0.0]
我々は、属性付きネットワークにおけるコミュニティ検出のための、教師なしのtextbfGraph Attention textbfAutotextbfEncoder に基づく、シンプルで効率的なクラスタリング指向モデルを提案する。
提案モデルは,ネットワークのトポロジと属性情報の両方から表現を十分に学習し,同時に2つの目的,すなわち再構築とコミュニティ発見に対処する。
論文 参考訳(メタデータ) (2023-11-21T20:45:55Z) - DANI: Fast Diffusion Aware Network Inference with Preserving Topological
Structure Property [2.8948274245812327]
そこで我々は,DANIと呼ばれる新しい手法を提案し,その構造特性を保ちながら基礎となるネットワークを推定する。
DANIは、モジュール構造、次数分布、連結成分、密度、クラスタリング係数を含む構造特性を維持しながら、より高い精度と低い実行時間を有する。
論文 参考訳(メタデータ) (2023-10-02T23:23:00Z) - Spike-and-slab shrinkage priors for structurally sparse Bayesian neural networks [0.16385815610837165]
スパースディープラーニングは、基礎となるターゲット関数のスパース表現を復元することで、課題に対処する。
構造化された空間によって圧縮されたディープニューラルアーキテクチャは、低レイテンシ推論、データスループットの向上、エネルギー消費の削減を提供する。
本研究では, (i) Spike-and-Slab Group Lasso (SS-GL) と (ii) Spike-and-Slab Group Horseshoe (SS-GHS) を併用した過剰ノードを誘発する構造的疎いベイズニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-17T17:14:18Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Learning to Detect Critical Nodes in Sparse Graphs via Feature Importance Awareness [53.351863569314794]
クリティカルノード問題(CNP)は、削除が残余ネットワークのペア接続性を最大に低下させるネットワークから臨界ノードの集合を見つけることを目的としている。
本研究は,ノード表現のための特徴重要度対応グラフアテンションネットワークを提案する。
ダブルディープQネットワークと組み合わせて、初めてCNPを解くエンドツーエンドのアルゴリズムを作成する。
論文 参考訳(メタデータ) (2021-12-03T14:23:05Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。