論文の概要: : One LLM Token for Explicit Graph Structural Understanding
- arxiv url: http://arxiv.org/abs/2602.01771v1
- Date: Mon, 02 Feb 2026 07:55:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.993965
- Title: <SOG_k>: One LLM Token for Explicit Graph Structural Understanding
- Title(参考訳): <SOG_k>:グラフ構造を明示的に理解するための1つのLLMトークン
- Authors: Jingyao Wu, Bin Lu, Zijun Di, Xiaoying Gan, Meng Jin, Luoyi Fu, Xinbing Wang, Chenghu Zhou,
- Abstract要約: 我々は、グラフの構造を統一トークン空間内に完全に表現するために、1つの特別なトークン SOG_k> を組み込むことを提案する。
SOG_k>は、簡潔で正確な方法でLLMに理解、生成、理性を与える。
- 参考スコア(独自算出の注目度): 57.017902343605364
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models show great potential in unstructured data understanding, but still face significant challenges with graphs due to their structural hallucination. Existing approaches mainly either verbalize graphs into natural language, which leads to excessive token consumption and scattered attention, or transform graphs into trainable continuous embeddings (i.e., soft prompt), but exhibit severe misalignment with original text tokens. To solve this problem, we propose to incorporate one special token <SOG_k> to fully represent the Structure Of Graph within a unified token space, facilitating explicit topology input and structural information sharing. Specifically, we propose a topology-aware structural tokenizer that maps each graph topology into a highly selective single token. Afterwards, we construct a set of hybrid structure Question-Answering corpora to align new structural tokens with existing text tokens. With this approach, <SOG_k> empowers LLMs to understand, generate, and reason in a concise and accurate manner. Extensive experiments on five graph-level benchmarks demonstrate the superiority of our method, achieving a performance improvement of 9.9% to 41.4% compared to the baselines while exhibiting interpretability and consistency. Furthermore, our method provides a flexible extension to node-level tasks, enabling both global and local structural understanding. The codebase is publicly available at https://github.com/Jingyao-Wu/SOG.
- Abstract(参考訳): 大規模言語モデルは、構造化されていないデータ理解において大きな可能性を秘めているが、その構造的幻覚のため、グラフでは依然として重大な課題に直面している。
既存のアプローチは、グラフを自然言語に動詞化することで、過剰なトークン消費と散在する注意を惹きつけるか、あるいはグラフをトレーニング可能な連続的な埋め込み(ソフトプロンプト)に変換するかのいずれかであるが、元のテキストトークンと深刻なミスアライメントを示す。
この問題を解決するために,一種類の特別なトークン<SOG_k>を導入して,グラフの構造を統一されたトークン空間内に完全に表現し,明示的なトポロジ入力と構造情報共有を容易にすることを提案する。
具体的には、各グラフトポロジを高度に選択的な単一トークンにマッピングするトポロジ対応構造トークン化器を提案する。
その後、新しい構造トークンを既存のテキストトークンと整合させるために、ハイブリッド構造問合せコーパスを構築した。
このアプローチにより、<SOG_k>はLLMに簡潔で正確な方法で理解、生成、理性を与える。
5つのグラフレベルのベンチマークによる大規模な実験により,解析性と整合性を示しながら,ベースラインと比較して9.9%から41.4%の性能向上を実現した。
さらに,本手法はノードレベルのタスクを柔軟に拡張し,大域的および局所的な構造的理解を可能にする。
コードベースはhttps://github.com/Jingyao-Wu/SOGで公開されている。
関連論文リスト
- Integrating Structural and Semantic Signals in Text-Attributed Graphs with BiGTex [0.0]
BiGTexは、スタック化されたGraph-Text Fusion Unitを通じてGNNとLLMを密に統合する新しいアーキテクチャである。
BiGTexはノード分類における最先端性能を実現し、リンク予測に効果的に一般化する。
論文 参考訳(メタデータ) (2025-04-16T20:25:11Z) - Each Graph is a New Language: Graph Learning with LLMs [9.22463167477865]
textbfGraph-textbfDefined textbfLanguage for textbfLarge textbfLanguage textbfModel (GDL4LLM)を提案する。
GDL4LLMはグラフをグラフ記述の代わりにグラフ言語コーパスに変換し、グラフ構造を適切に理解するために、このコーパス上のLLMを事前訓練する。
論文 参考訳(メタデータ) (2025-01-20T13:20:41Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - GraphEdit: Large Language Models for Graph Structure Learning [14.16155596597421]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。