論文の概要: Colorful Talks with Graphs: Human-Interpretable Graph Encodings for Large Language Models
- arxiv url: http://arxiv.org/abs/2602.10386v1
- Date: Wed, 11 Feb 2026 00:15:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.353261
- Title: Colorful Talks with Graphs: Human-Interpretable Graph Encodings for Large Language Models
- Title(参考訳): グラフを用いたカラーフルトーク:大規模言語モデルのための人間解釈可能なグラフエンコーディング
- Authors: Angelo Zangari, Peyman Baghershahi, Sourav Medya,
- Abstract要約: グラフ問題は大きな言語モデル(LLM)にとって根本的な課題である
グラフからテキストへの変換のための人間の解釈可能な構造的符号化戦略を導入する。
提案手法は,大域的なグラフ構造上の推論を必要とするグラフタスクにおいて,LLMの性能を向上させる。
- 参考スコア(独自算出の注目度): 12.496005049442319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph problems are fundamentally challenging for large language models (LLMs). While LLMs excel at processing unstructured text, graph tasks require reasoning over explicit structure, permutation invariance, and computationally complex relationships, creating a mismatch with the representations of text-based models. Our work investigates how LLMs can be effectively applied to graph problems despite these barriers. We introduce a human-interpretable structural encoding strategy for graph-to-text translation that injects graph structure directly into natural language prompts. Our method involves computing a variant of Weisfeiler-Lehman (WL) similarity classes and maps them to human-like color tokens rather than numeric labels. The key insight is that semantically meaningful and human-interpretable cues may be more effectively processed by LLMs than opaque symbolic encoding. Experimental results on multiple algorithmic and predictive graph tasks show the considerable improvements by our method on both synthetic and real-world datasets. By capturing both local and global-range dependencies, our method enhances LLM performance especially on graph tasks that require reasoning over global graph structure.
- Abstract(参考訳): グラフ問題は、大規模言語モデル(LLM)にとって根本的な課題である。
LLMは非構造化テキストを処理するのに優れているが、グラフタスクは明示的な構造、置換不変性、計算上の複雑な関係を推論し、テキストベースモデルの表現とミスマッチする。
これらの障壁にもかかわらず, LLMをグラフ問題に効果的に適用する方法を検討する。
本稿では、自然言語のプロンプトに直接グラフ構造を注入する、グラフからテキストへの変換のための人間の解釈可能な構造的符号化戦略を提案する。
我々の手法は、Weisfeiler-Lehman(WL)類似性クラスの変種を計算し、それらを数値ラベルではなく人間に似た色トークンにマッピングする。
キーとなる洞察は、意味的に意味があり、人間に解釈可能なキューは、不透明なシンボルエンコーディングよりもLLMによってより効果的に処理されるということである。
複数のアルゴリズムおよび予測グラフタスクの実験結果から,合成および実世界の両方のデータセットにおいて,本手法による大幅な改善が示された。
局所的および大域的依存関係の両方をキャプチャすることで、グローバルグラフ構造上の推論を必要とするグラフタスクにおいて、LLM性能を向上させることができる。
関連論文リスト
- What Do LLMs Need to Understand Graphs: A Survey of Parametric Representation of Graphs [69.48708136448694]
大規模言語モデル(LLM)は、期待される推論能力と推論能力のために、AIコミュニティで再編成されている。
我々は、グラフのこのようなパラメトリック表現、グラフ法則は、LLMがグラフデータを入力として理解させるソリューションであると信じている。
論文 参考訳(メタデータ) (2024-10-16T00:01:31Z) - From Anchors to Answers: A Novel Node Tokenizer for Integrating Graph Structure into Large Language Models [27.353083085394008]
グラフ表現のためのアンカーベース位置符号化方式を備えた新しいフレームワークNT-LLMを提案する。
提案手法では,アンカーとして参照ノードを戦略的に選択し,各ノードの位置をアンカーに対してエンコードし,既存の手法の計算負担を伴わずに重要なトポロジ情報を取得する。
NT-LLMは、位置符号化事前訓練のためのランク保存目的を実装することにより、基本構造解析から複雑な推論シナリオに至るまで、多種多様なグラフタスクにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2024-10-14T17:21:57Z) - GUNDAM: Aligning Large Language Models with Graph Understanding [10.080136100700692]
textbfGraph textbfUnderstanding for textbfNatural Language textbfDriven textbfAnalytical textbfModel (model)を紹介する。
このモデルは、グラフデータの構造をよりよく理解し、関与するようにLLMを適用し、グラフの構造自体を活用することで複雑な推論タスクを実行できる。
論文 参考訳(メタデータ) (2024-09-30T07:59:10Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Can Language Models Solve Graph Problems in Natural Language? [51.28850846990929]
大型言語モデル (LLM) は暗黙的なグラフィカル構造を持つ様々なタスクに採用されている。
自然言語をシミュレーションするグラフベース問題解決のベンチマークであるNLGraphを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:29:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。