論文の概要: Actions Speak Louder than Prompts: A Large-Scale Study of LLMs for Graph Inference
- arxiv url: http://arxiv.org/abs/2509.18487v1
- Date: Tue, 23 Sep 2025 00:46:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.621787
- Title: Actions Speak Louder than Prompts: A Large-Scale Study of LLMs for Graph Inference
- Title(参考訳): プロンプトよりも音が聞こえる行動:グラフ推論のためのLLMの大規模研究
- Authors: Ben Finkelshtein, Silviu Cucerzan, Sujay Kumar Jauhar, Ryen White,
- Abstract要約: 大規模言語モデル(LLM)は、テキストリッチなグラフ機械学習タスクにますます利用されている。
関心の高まりにもかかわらず、この分野はグラフデータとの相互作用におけるLLMの能力の原則的な理解を欠いている。
- 参考スコア(独自算出の注目度): 7.817259532290553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly used for text-rich graph machine learning tasks such as node classification in high-impact domains like fraud detection and recommendation systems. Yet, despite a surge of interest, the field lacks a principled understanding of the capabilities of LLMs in their interaction with graph data. In this work, we conduct a large-scale, controlled evaluation across several key axes of variability to systematically assess the strengths and weaknesses of LLM-based graph reasoning methods in text-based applications. The axes include the LLM-graph interaction mode, comparing prompting, tool-use, and code generation; dataset domains, spanning citation, web-link, e-commerce, and social networks; structural regimes contrasting homophilic and heterophilic graphs; feature characteristics involving both short- and long-text node attributes; and model configurations with varying LLM sizes and reasoning capabilities. We further analyze dependencies by methodically truncating features, deleting edges, and removing labels to quantify reliance on input types. Our findings provide practical and actionable guidance. (1) LLMs as code generators achieve the strongest overall performance on graph data, with especially large gains on long-text or high-degree graphs where prompting quickly exceeds the token budget. (2) All interaction strategies remain effective on heterophilic graphs, challenging the assumption that LLM-based methods collapse under low homophily. (3) Code generation is able to flexibly adapt its reliance between structure, features, or labels to leverage the most informative input type. Together, these findings provide a comprehensive view of the strengths and limitations of current LLM-graph interaction modes and highlight key design principles for future approaches.
- Abstract(参考訳): 大規模言語モデル(LLM)は、不正検出やレコメンデーションシステムのような高影響領域のノード分類のような、テキストに富んだグラフ機械学習タスクに、ますます使用されている。
しかし、関心の高まりにもかかわらず、この分野はグラフデータとの相互作用におけるLLMの能力の原則的な理解を欠いている。
本研究では,テキストベースアプリケーションにおけるLLMベースのグラフ推論手法の長所と短所を体系的に評価するために,変動性の鍵軸をまたいだ大規模かつ制御された評価を行う。
軸には、プロンプト、ツール使用、コード生成の比較、データセットドメイン、引用、Webリンク、eコマース、ソーシャルネットワーク、ホモフレンドリックグラフとヘテロフレンドリックグラフを対比する構造的構造、短文と長文の両方のノード属性を含む特徴的特徴、LLMサイズと推論能力の異なるモデル構成などが含まれる。
さらに,特徴の体系的切り抜き,エッジの削除,ラベルの削除による依存性の分析を行い,入力型への依存度を定量化する。
我々の発見は実用的で実用的なガイダンスを提供する。
1)コードジェネレータとしてのLCMは,特にトークン予算を早急に超過する長文グラフや高次グラフにおいて,グラフデータ上で最高の総合的なパフォーマンスを達成する。
2) 相互作用戦略はヘテロ親和性グラフ上でも有効であり, LLM法が低ホモフィリーの下で崩壊するという仮定に挑戦する。
(3)コード生成は、構造、特徴、ラベル間の依存度を柔軟に適応させ、最も情報に富んだ入力タイプを利用することができる。
これらの知見は、現在のLLM-グラフ相互作用モードの長所と短所を包括的に把握し、将来のアプローチの鍵となる設計原則を強調している。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Quantizing Text-attributed Graphs for Semantic-Structural Integration [6.721504414917793]
テキスト分散グラフ(TAG)は、様々な領域にわたる複雑な関係をモデル化するための強力な表現として登場した。
大規模言語モデル(LLM)の台頭に伴い、グラフ学習に彼らの能力を活用することへの関心が高まっている。
凍結したコードブックを用いて,グラフ構造情報を離散トークンに直接量子化する,新たな自己教師型フレームワークSTAGを提案する。
論文 参考訳(メタデータ) (2025-07-20T09:18:02Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Scalability Matters: Overcoming Challenges in InstructGLM with Similarity-Degree-Based Sampling [1.2805157669888096]
提案するSDM-InstructGLMは,GNNに依存することなく,拡張性と効率を向上する命令調整グラフ言語モデル(InstructGLM)フレームワークである。
本手法では,ノード間類似度と次数集中度に基づいてグラフ情報を選択的にサンプリングし,符号化する,類似度に基づくバイアス付きランダムウォーク機構を提案する。
本結果は,LLMのみのグラフ処理の実現可能性を示し,命令ベースの微調整によって最適化されたスケーラブルかつ解釈可能なグラフ言語モデル(GLM)を実現する。
論文 参考訳(メタデータ) (2025-05-02T06:08:21Z) - Graph Learning in the Era of LLMs: A Survey from the Perspective of Data, Models, and Tasks [25.720233631885726]
グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)の統合は、有望な技術パラダイムとして現れている。
データ品質を根本的に向上させるために、リッチなセマンティックコンテキストを持つグラフ記述テキストを活用します。
この研究は、グラフ学習方法論の進歩を目指す研究者や実践者にとって、基礎的な参考となる。
論文 参考訳(メタデータ) (2024-12-17T01:41:17Z) - Efficient End-to-end Language Model Fine-tuning on Graphs [21.23522552579571]
Text-Attributed Graphs (TAGs) からの学習は、その幅広い現実世界のアプリケーションのために大きな注目を集めている。
我々は,TAG上での言語モデルのエンドツーエンドな微調整のための,新規かつ効率的なアプローチであるLEAdingを紹介する。
提案手法は,Ogbn-arxiv のリーダーボード上で,最先端のSOTA(State-of-the-art)を達成し,優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-07T22:35:16Z) - Which Modality should I use -- Text, Motif, or Image? : Understanding Graphs with Large Language Models [14.251972223585765]
本稿では,テキスト,画像,モチーフなどの多様性を持つグラフを符号化する新たな手法を提案する。
また、グラフ構造解析において、LLM(Large Language Models)を評価するための新しいベンチマークであるGraphTMIも提示されている。
論文 参考訳(メタデータ) (2023-11-16T12:45:41Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。