論文の概要: Graph Attention Specialized Expert Fusion Model for Node Classification: Based on Cora and Pubmed Datasets
- arxiv url: http://arxiv.org/abs/2507.15784v1
- Date: Mon, 21 Jul 2025 16:40:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.490029
- Title: Graph Attention Specialized Expert Fusion Model for Node Classification: Based on Cora and Pubmed Datasets
- Title(参考訳): ノード分類のためのグラフ注意専門化専門融合モデル:コーラと公開データセットに基づく
- Authors: Zihang Ma, Qitian Yin,
- Abstract要約: We propose a Wasserstein-Rubinstein (WR) distance enhanced Expert Fusion Model (WR-EFM)。
WR-EFMはカテゴリ0/1のGNNモデルとカテゴリ2のマルチホップグラフ注意ネットワーク(GAT)を訓練している。
適応型核融合戦略は,カテゴリー別性能に基づいてモデルを動的に重み付けし,カテゴリー2ではGAT重みが0.8。
WR-EFMは、77.8%(カテゴリ0)、78.0%(カテゴリ1)、79.9%(カテゴリ2)のカテゴリでバランスの取れた精度を実現し、単一のモデルと標準核融合アプローチの両方を上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph node classification is a fundamental task in graph neural networks (GNNs), aiming to assign predefined class labels to nodes. On the PubMed citation network dataset, we observe significant classification difficulty disparities, with Category 2 achieving only 74.4% accuracy in traditional GCN, 7.5% lower than Category 1. To address this, we propose a Wasserstein-Rubinstein (WR) distance enhanced Expert Fusion Model (WR-EFM), training specialized GNN models for Categories 0/1 (with layer normalization and residual connections) and Multi-hop Graph Attention Networks (GAT) for Category 2. The WR distance metric optimizes representation similarity between models, particularly focusing on improving Category 2 performance. Our adaptive fusion strategy dynamically weights models based on category-specific performance, with Category 2 assigned a GAT weight of 0.8. WR distance further guides the fusion process by measuring distributional differences between model representations, enabling more principled integration of complementary features. Experimental results show WR-EFM achieves balanced accuracy across categories: 77.8% (Category 0), 78.0% (Category 1), and 79.9% (Category 2), outperforming both single models and standard fusion approaches. The coefficient of variation (CV) of WR-EFM's category accuracies is 0.013, 77.6% lower than GCN's 0.058, demonstrating superior stability. Notably, WR-EFM improves Category 2 accuracy by 5.5% compared to GCN, verifying the effectiveness of WR-guided fusion in capturing complex structural patterns. This work provides a novel paradigm for handling class-imbalanced graph classification tasks. To promote the research community, we release our project at https://github.com/s010m00n/GASEM4NC.
- Abstract(参考訳): グラフノード分類は、事前に定義されたクラスラベルをノードに割り当てることを目的とした、グラフニューラルネットワーク(GNN)の基本的なタスクである。
PubMedの引用ネットワークデータセットでは,カテゴリー2が従来のGCNの74.4%の精度で,カテゴリよりも7.5%低い。
1. これを解決するために、ワッサーシュタイン-ルビンシュタイン距離拡張エキスパートフュージョンモデル(WR-EFM)、カテゴリ0/1(層正規化と残差接続を含む)専用GNNモデル、カテゴリ用マルチホップグラフアテンションネットワーク(GAT)を提案する。
2. WR距離測定はモデル間の表現類似性を最適化し,特にカテゴリー2の性能向上に重点を置いている。
適応型核融合戦略は,カテゴリー別性能に基づいてモデルを動的に重み付けし,カテゴリー2ではGAT重みが0.8。
WR距離は、モデル表現間の分布差を測り、補足的特徴のより原理的な統合を可能にすることにより、融合プロセスをさらに導く。
実験の結果、WR-EFMは、77.8%(カテゴリ0)、78.0%(カテゴリ1)、79.9%(カテゴリ2)のカテゴリでバランスの取れた精度を達成し、単一モデルと標準核融合アプローチの両方を上回った。
WR-EFMのカテゴリー精度の変動係数(CV)は、GCNの0.058よりも0.013,77.6%低く、優れた安定性を示す。
特に、WR-EFMはGCNと比較してカテゴリ2の精度を5.5%改善し、複雑な構造パターンを捉える際のWR誘導核融合の有効性を検証する。
この研究は、クラス不均衡グラフ分類タスクを扱うための新しいパラダイムを提供する。
研究コミュニティを促進するため、私たちはhttps://github.com/s010m00n/GASEM4NCでプロジェクトをリリースします。
関連論文リスト
- ReDiSC: A Reparameterized Masked Diffusion Model for Scalable Node Classification with Structured Predictions [64.17845687013434]
本稿では,構造化ノード分類のための構造拡散モデルであるReDiSCを提案する。
本稿では,ReDiSCが最先端のGNN,ラベル伝搬,拡散ベースラインと比較して,優れた,あるいは高い競争力を発揮することを示す。
特にReDiSCは、従来の構造化拡散法が計算制約によって失敗する大規模データセットに効果的にスケールする。
論文 参考訳(メタデータ) (2025-07-19T04:46:53Z) - GNN-Suite: a Graph Neural Network Benchmarking Framework for Biomedical Informatics [0.0]
本稿では,計算生物学におけるグラフニューラルネットワーク(GNN)アーキテクチャの構築とベンチマークを行うフレームワークであるGNN-Suiteを紹介する。
タンパク質-タンパク質相互作用(PPI)データから分子ネットワークを構築することにより,癌ドライバ遺伝子の同定にその有用性を示す。
GNNアーキテクチャの実装と評価のための共通フレームワークは、最高のモデルだけでなく、補完的なデータを組み込む最も効果的な方法を特定するのに役立つ。
論文 参考訳(メタデータ) (2025-05-15T21:14:30Z) - Graph Mining under Data scarcity [6.229055041065048]
汎用グラフニューラルネットワーク(GNN)上に適用可能な不確実性推定フレームワークを提案する。
エンド・ツー・エンドの設定で、$n$-way、$k$-shotという古典的なエピソード学習パラダイムの下でこれらのモデルをトレーニングします。
提案手法は,GNNを用いたグラフ上のFew-shotノード分類における不確実性推定器の有効性を示すベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-06-07T10:50:03Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Systematic Architectural Design of Scale Transformed Attention Condenser
DNNs via Multi-Scale Class Representational Response Similarity Analysis [93.0013343535411]
マルチスケールクラス表現応答類似性分析(ClassRepSim)と呼ばれる新しいタイプの分析法を提案する。
ResNetスタイルのアーキテクチャにSTACモジュールを追加すると、最大1.6%の精度が向上することを示す。
ClassRepSim分析の結果は、STACモジュールの効果的なパラメータ化を選択するために利用することができ、競争性能が向上する。
論文 参考訳(メタデータ) (2023-06-16T18:29:26Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - AdaGCN:Adaptive Boosting Algorithm for Graph Convolutional Networks on
Imbalanced Node Classification [10.72543417177307]
AdaGCNと呼ばれるアンサンブルモデルを提案する。このモデルでは,アダプティブ・ブーピング時のベース推定にグラフ畳み込みネットワーク(GCN)を用いる。
我々のモデルは、考慮すべきノード分類タスクのすべてにおいて、最先端のベースラインも改善します。
論文 参考訳(メタデータ) (2021-05-25T02:43:31Z) - A pipeline for fair comparison of graph neural networks in node
classification tasks [4.418753792543564]
グラフニューラルネットワーク (GNN) は, グラフデータを用いた複数の分野に適用可能性について検討されている。
新しいメソッドの公正な比較を保証するための標準的なトレーニング設定はありません。
ノード分類に同じトレーニング設定を適用可能な,標準的な再現可能なベンチマークを導入する。
論文 参考訳(メタデータ) (2020-12-19T07:43:05Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。