論文の概要: Jensen-Shannon Divergence Message-Passing for Rich-Text Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2512.20094v1
- Date: Tue, 23 Dec 2025 06:44:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.77446
- Title: Jensen-Shannon Divergence Message-Passing for Rich-Text Graph Representation Learning
- Title(参考訳): リッチテキストグラフ表現学習のためのJensen-Shannon分散メッセージパッシング
- Authors: Zuo Wang, Ye Yuan,
- Abstract要約: 本稿では,リッチテキストグラフ表現学習のための新しい学習パラダイムとして,Jensen-Shannon Divergence Message-Passing (JSDMP)を提案する。
JSDMPでは、DMPGCN(Divergent message-passing graph convolutional Network)とPage-Rank graph Neural Network(DMPPRG)の2つの新しいグラフニューラルネットワークを提案する。
DMPGCNとDMPPRGは、確立されたリッチテキストデータセットで広くテキスト化されており、いくつかの最先端のベースラインと比較されている。
- 参考スコア(独自算出の注目度): 7.129773362505109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate how the widely existing contextual and structural divergence may influence the representation learning in rich-text graphs. To this end, we propose Jensen-Shannon Divergence Message-Passing (JSDMP), a new learning paradigm for rich-text graph representation learning. Besides considering similarity regarding structure and text, JSDMP further captures their corresponding dissimilarity by Jensen-Shannon divergence. Similarity and dissimilarity are then jointly used to compute new message weights among text nodes, thus enabling representations to learn with contextual and structural information from truly correlated text nodes. With JSDMP, we propose two novel graph neural networks, namely Divergent message-passing graph convolutional network (DMPGCN) and Divergent message-passing Page-Rank graph neural networks (DMPPRG), for learning representations in rich-text graphs. DMPGCN and DMPPRG have been extensively texted on well-established rich-text datasets and compared with several state-of-the-art baselines. The experimental results show that DMPGCN and DMPPRG can outperform other baselines, demonstrating the effectiveness of the proposed Jensen-Shannon Divergence Message-Passing paradigm
- Abstract(参考訳): 本稿では,リッチテキストグラフの表現学習において,広く存在する文脈的・構造的ばらつきがどのような影響を及ぼすかを検討する。
そこで我々は,リッチテキストグラフ表現学習のための新しい学習パラダイムであるJensen-Shannon Divergence Message-Passing (JSDMP)を提案する。
構造とテキストに関する類似性を考慮するだけでなく、JSDMPはJensen-Shannonの発散によってそれらの相似性をさらに捉えている。
類似性と相似性は、テキストノード間の新しいメッセージ重み付けを計算するために共同で使用されるので、表現は真に相関したテキストノードからコンテキスト情報と構造情報で学習することができる。
JSDMPでは、リッチテキストグラフの表現を学習するために、DMPGCN(Didergent message-passing graph convolutional Network)とDMPPRG(Didergent message-passing Page-Rank graph Neural Network)という2つの新しいグラフニューラルネットワークを提案する。
DMPGCNとDMPPRGは、確立されたリッチテキストデータセットで広くテキスト化されており、いくつかの最先端のベースラインと比較されている。
実験結果から,DMPGCNとDMPPRGは,Jensen-Shannon Divergence Message-Passingパラダイムの有効性を示した。
関連論文リスト
- A Novel Graph-Sequence Learning Model for Inductive Text Classification [7.129773362505109]
テキスト分類は、感情分析、偽ニュース検出、世論分析など、下流のテキスト関連タスクにおいて重要な役割を果たしている。
本稿では,先述の問題に対処する新しいグラフシーケンス学習モデル(TextGSL)を提案する。
TextGSLは、いくつかの強力なベースラインと包括的に比較されている。
論文 参考訳(メタデータ) (2025-12-23T06:49:33Z) - Integrating Structural and Semantic Signals in Text-Attributed Graphs with BiGTex [0.0]
BiGTexは、スタック化されたGraph-Text Fusion Unitを通じてGNNとLLMを密に統合する新しいアーキテクチャである。
BiGTexはノード分類における最先端性能を実現し、リンク予測に効果的に一般化する。
論文 参考訳(メタデータ) (2025-04-16T20:25:11Z) - DynaGRAG | Exploring the Topology of Information for Advancing Language Understanding and Generation in Graph Retrieval-Augmented Generation [0.0]
知識グラフ内の部分グラフ表現と多様性の向上に焦点をあてて,新しい GRAG フレームワークである Dynamic Graph Retrieval-Agumented Generation (DynaGRAG) を提案する。
実験の結果,DynaGRAGの有効性が示され,言語理解と生成の改善のための部分グラフ表現と多様性の強化の重要性が示された。
論文 参考訳(メタデータ) (2024-12-24T16:06:53Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - TeKo: Text-Rich Graph Neural Networks with External Knowledge [75.91477450060808]
外部知識を用いた新しいテキストリッチグラフニューラルネットワーク(TeKo)を提案する。
まず、高品質なエンティティを組み込んだフレキシブルな異種セマンティックネットワークを提案する。
次に、構造化三重項と非構造化実体記述という2種類の外部知識を導入する。
論文 参考訳(メタデータ) (2022-06-15T02:33:10Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。