論文の概要: Less is More: Learning Graph Tasks with Just LLMs
- arxiv url: http://arxiv.org/abs/2508.10115v1
- Date: Wed, 13 Aug 2025 18:21:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.081748
- Title: Less is More: Learning Graph Tasks with Just LLMs
- Title(参考訳): LLMでグラフタスクを学ぶ
- Authors: Sola Shirai, Kavitha Srinivas, Julian Dolby, Michael Katz, Horst Samulowitz, Shirin Sohrabi,
- Abstract要約: たとえ小さな LLM であっても,インストラクティブ・チェーン・オブ・プリート・ソリューションを用いてグラフタスクをトレーニングすることで,グラフタスクの解法を学ぶことができることを示す。
このトレーニングは、特殊なグラフエンコーダを使わずに、新しいタスクやグラフ構造に一般化する。
- 参考スコア(独自算出の注目度): 22.38454720682463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For large language models (LLMs), reasoning over graphs could help solve many problems. Prior work has tried to improve LLM graph reasoning by examining how best to serialize graphs as text and by combining GNNs and LLMs. However, the merits of such approaches remain unclear, so we empirically answer the following research questions: (1) Can LLMs learn to solve fundamental graph tasks without specialized graph encoding models?, (2) Can LLMs generalize learned solutions to unseen graph structures or tasks?, and (3) What are the merits of competing approaches to learn graph tasks? We show that even small LLMs can learn to solve graph tasks by training them with instructive chain-of-thought solutions, and this training generalizes, without specialized graph encoders, to new tasks and graph structures.
- Abstract(参考訳): 大規模言語モデル(LLM)では、グラフに対する推論は多くの問題を解決するのに役立つ。
従来の研究は、グラフをテキストとしてどのようにシリアライズするかを調べ、GNNとLLMを組み合わせることで、LLMグラフ推論を改善しようとしてきた。
しかし、そのような手法の利点はいまだ明らかではないため、(1) LLMはグラフ符号化モデルに特化せずに基本的なグラフタスクを解くことができるのか?
LLMは未確認のグラフ構造やタスクの学習ソリューションを一般化できるのか?
グラフタスクを学習する競合するアプローチのメリットは何ですか?
本研究は,LLMでも指導的チェーン・オブ・プリート・ソリューションで学習することで,グラフタスクの解法を学習できることを示し,この学習は,特殊なグラフエンコーダを使わずに,新たなタスクやグラフ構造に一般化する。
関連論文リスト
- What Do LLMs Need to Understand Graphs: A Survey of Parametric Representation of Graphs [69.48708136448694]
大規模言語モデル(LLM)は、期待される推論能力と推論能力のために、AIコミュニティで再編成されている。
我々は、グラフのこのようなパラメトリック表現、グラフ法則は、LLMがグラフデータを入力として理解させるソリューションであると信じている。
論文 参考訳(メタデータ) (2024-10-16T00:01:31Z) - Revisiting the Graph Reasoning Ability of Large Language Models: Case Studies in Translation, Connectivity and Shortest Path [53.71787069694794]
大規模言語モデル(LLM)のグラフ推論能力に着目する。
グラフ記述変換,グラフ接続,最短パス問題という3つの基本グラフタスクにおけるLLMの能力を再考する。
この結果から,LLMはテキスト記述によるグラフ構造理解に失敗し,これらの基本課題に対して様々な性能を示すことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-08-18T16:26:39Z) - Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - Can Graph Descriptive Order Affect Solving Graph Problems with LLMs? [38.1577036285387]
大規模言語モデル(LLM)は、数学的推論や論理的推論を含む推論タスクにおいて大きな成功を収めた。
従来の研究は様々な手法を用いてLSMのグラフ推論能力について研究してきた。
重要な要素は、主に見過ごされ、グラフ記述がモデルに提示される即時順序である。
論文 参考訳(メタデータ) (2024-02-11T09:46:24Z) - Can Language Models Solve Graph Problems in Natural Language? [51.28850846990929]
大型言語モデル (LLM) は暗黙的なグラフィカル構造を持つ様々なタスクに採用されている。
自然言語をシミュレーションするグラフベース問題解決のベンチマークであるNLGraphを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:29:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。