論文の概要: Improving LLM Reasoning with Homophily-aware Structural and Semantic Text-Attributed Graph Compression
- arxiv url: http://arxiv.org/abs/2601.08187v2
- Date: Sat, 17 Jan 2026 13:01:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 14:05:45.000039
- Title: Improving LLM Reasoning with Homophily-aware Structural and Semantic Text-Attributed Graph Compression
- Title(参考訳): 均質な構造と意味的テクストによるグラフ圧縮によるLLM推論の改善
- Authors: Zijun Di, Bin Lu, Huquan Kang, Luoyi Fu, Jiaxin Ding, Xiaoying Gan, Lei Zhou, Xinbing Wang, Chenghu Zhou,
- Abstract要約: 大規模言語モデル(LLM)は、テキスト分散グラフ(TAG)理解において有望な能力を示している。
グラフは本来、構造情報や意味情報を豊富に含むものであり、それらの有効利用はLLMの推論性能の潜在的な利益を解放する可能性があると論じる。
グラフホモフィリーの活用を目的としたフレームワーク LLMs (HS2C) のホモフィリー対応構造とセマンティック圧縮を提案する。
- 参考スコア(独自算出の注目度): 55.51959317490934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated promising capabilities in Text-Attributed Graph (TAG) understanding. Recent studies typically focus on verbalizing the graph structures via handcrafted prompts, feeding the target node and its neighborhood context into LLMs. However, constrained by the context window, existing methods mainly resort to random sampling, often implemented via dropping node/edge randomly, which inevitably introduces noise and cause reasoning instability. We argue that graphs inherently contain rich structural and semantic information, and that their effective exploitation can unlock potential gains in LLMs reasoning performance. To this end, we propose Homophily-aware Structural and Semantic Compression for LLMs (HS2C), a framework centered on exploiting graph homophily. Structurally, guided by the principle of Structural Entropy minimization, we perform a global hierarchical partition that decodes the graph's essential topology. This partition identifies naturally cohesive, homophilic communities, while discarding stochastic connectivity noise. Semantically, we deliver the detected structural homophily to the LLM, empowering it to perform differentiated semantic aggregation based on predefined community type. This process compresses redundant background contexts into concise community-level consensus, selectively preserving semantically homophilic information aligned with the target nodes. Extensive experiments on 10 node-level benchmarks across LLMs of varying sizes and families demonstrate that, by feeding LLMs with structurally and semantically compressed inputs, HS2C simultaneously enhances the compression rate and downstream inference accuracy, validating its superiority and scalability. Extensions to 7 diverse graph-level benchmarks further consolidate HS2C's task generalizability.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキスト分散グラフ(TAG)理解において有望な能力を示している。
最近の研究は、通常、手作りのプロンプトを通じてグラフ構造を言語化することに集中し、ターゲットノードとその近傍コンテキストをLLMに入力する。
しかし、コンテキストウィンドウに制約された既存の手法は主にランダムサンプリングに頼り、ノード/エッジをランダムにドロップすることで実装される。
グラフは本来、構造情報や意味情報を豊富に含むものであり、それらの有効利用はLLMの推論性能の潜在的な利益を解放する可能性があると論じる。
この目的のために,グラフホモフィリーの活用を主眼としたLLM(Hymophily-Aware Structure and Semantic Compression for LLMs, HS2C)を提案する。
構造的には、構造エントロピー最小化の原理で導かれ、グラフの本質的位相をデコードする大域的階層的分割を行う。
このパーティションは、確率的接続ノイズを捨てながら、自然に凝集し、ホモフレンドリーなコミュニティを識別する。
意味論的に、検出された構造的ホモフィリィをLLMに提供し、事前に定義されたコミュニティタイプに基づいて区別されたセマンティックアグリゲーションを実行する。
このプロセスは、冗長な背景コンテキストを簡潔なコミュニティレベルのコンセンサスに圧縮し、ターゲットノードと整合した意味的にホモフレンドリな情報を選択的に保存する。
異なるサイズとファミリーのLLMに対する10のノードレベルのベンチマーク実験により、構造的および意味的に圧縮された入力でLLMを供給することにより、HS2Cは同時に圧縮率と下流推論精度を向上し、その優位性とスケーラビリティを検証した。
7つのグラフレベルベンチマークへの拡張は、HS2Cのタスクの一般化可能性をさらに強化する。
関連論文リスト
- GCL-OT: Graph Contrastive Learning with Optimal Transport for Heterophilic Text-Attributed Graphs [9.735844753899782]
ヘテロフィリーのタイプごとに調整されたメカニズムを備えたグラフコントラスト学習フレームワークを提案する。
GCL-OTは9つのベンチマークで最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-20T20:10:49Z) - GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Refining Interactions: Enhancing Anisotropy in Graph Neural Networks with Language Semantics [6.273224130511677]
異方性GNNの概念を自然言語レベルまで拡張するフレームワークであるLanSAGNN(Language Semantic Anisotropic Graph Neural Network)を紹介する。
本稿では,LLMの出力とグラフタスクとの整合性を改善するために,効率的な2層LLMの微調整アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-04-02T07:32:45Z) - GMLM: Bridging Graph Neural Networks and Language Models for Heterophilic Node Classification [0.0]
本稿では,事前学習したテキストエンコーダとグラフ畳み込みネットワーク(R-GCN)を効果的に融合するフレームワークを提案する。
5つのヘテロ親和性ベンチマークの実験により、我々の積分法は最先端の結果が得られることを示した。
これらの結果は,テキストリッチグラフ表現学習における融合戦略の有効性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-24T07:44:01Z) - Bridging Large Language Models and Graph Structure Learning Models for Robust Representation Learning [22.993015048941444]
グラフ表現学習は現実世界のアプリケーションには不可欠だが、広範にわたるノイズに遭遇することが多い。
本稿では,事前学習された言語モデルとグラフ構造学習モデルの相補的な長所を統合するフレームワークであるLangGSLを紹介する。
論文 参考訳(メタデータ) (2024-10-15T22:43:32Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Multi-View Empowered Structural Graph Wordification for Language Models [12.22063024099311]
本稿では,LLM-graphアライメントのためのエンドツーエンドのモダリティアライメントフレームワークについて紹介する。
提案手法は LLM とのトークンレベルアライメントを容易にするために設計されており,グラフの内在的' を理解可能な自然言語に効果的に翻訳することができる。
我々のフレームワークは、LLMとGNN間のトークンレベルのアライメントを実現するための、有望な試みである、ある視覚的解釈可能性、効率、堅牢性を保証する。
論文 参考訳(メタデータ) (2024-06-19T16:43:56Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。