論文の概要: LLMTM: Benchmarking and Optimizing LLMs for Temporal Motif Analysis in Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2512.22266v1
- Date: Wed, 24 Dec 2025 18:10:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.949337
- Title: LLMTM: Benchmarking and Optimizing LLMs for Temporal Motif Analysis in Dynamic Graphs
- Title(参考訳): LLMTM:動的グラフにおける時間モチーフ解析のためのLLMのベンチマークと最適化
- Authors: Bing Hao, Minglai Shao, Zengyi Wo, Yunlong Chu, Yuhang Liu, Ruijie Wang,
- Abstract要約: 時間的モチーフ関連タスクにおいて,Large Language Models (LLMs) の性能を体系的に研究する。
我々は,これらのタスクを高精度に解くために,高精度なプロンプトを利用するツール拡張LDMエージェントを開発した。
このトレードオフに対処するため,簡単な構造対応ディスパッチを提案する。
- 参考スコア(独自算出の注目度): 10.373255526243447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread application of Large Language Models (LLMs) has motivated a growing interest in their capacity for processing dynamic graphs. Temporal motifs, as an elementary unit and important local property of dynamic graphs which can directly reflect anomalies and unique phenomena, are essential for understanding their evolutionary dynamics and structural features. However, leveraging LLMs for temporal motif analysis on dynamic graphs remains relatively unexplored. In this paper, we systematically study LLM performance on temporal motif-related tasks. Specifically, we propose a comprehensive benchmark, LLMTM (Large Language Models in Temporal Motifs), which includes six tailored tasks across nine temporal motif types. We then conduct extensive experiments to analyze the impacts of different prompting techniques and LLMs (including nine models: openPangu-7B, the DeepSeek-R1-Distill-Qwen series, Qwen2.5-32B-Instruct, GPT-4o-mini, DeepSeek-R1, and o3) on model performance. Informed by our benchmark findings, we develop a tool-augmented LLM agent that leverages precisely engineered prompts to solve these tasks with high accuracy. Nevertheless, the high accuracy of the agent incurs a substantial cost. To address this trade-off, we propose a simple yet effective structure-aware dispatcher that considers both the dynamic graph's structural properties and the LLM's cognitive load to intelligently dispatch queries between the standard LLM prompting and the more powerful agent. Our experiments demonstrate that the structure-aware dispatcher effectively maintains high accuracy while reducing cost.
- Abstract(参考訳): LLM(Large Language Models)の広範な応用は、動的グラフの処理能力に対する関心の高まりを動機付けている。
時間的モチーフは、基本的な単位として、異常やユニークな現象を直接反映できる動的グラフの重要な局所的性質として、それらの進化的ダイナミクスと構造的特徴を理解するのに不可欠である。
しかし、動的グラフの時間的モチーフ解析にLLMを活用することは、まだ明らかになっていない。
本稿では、時間的モチーフ関連タスクにおけるLLM性能を体系的に研究する。
具体的には、9つの時間モチーフタイプにまたがる6つのタスクを含むLLMTM(Large Language Models in Temporal Motifs)という総合的なベンチマークを提案する。
次に、異なるプロンプト技術とLCM(openPangu-7B、DeepSeek-R1-Distill-Qwenシリーズ、Qwen2.5-32B-Instruct、GPT-4o-mini、DeepSeek-R1、o3)のモデル性能への影響を分析するための広範な実験を行った。
ベンチマークの結果から,高精度なプロンプトを利用したツール拡張LDMエージェントを開発し,これらの課題を高精度に解決する。
それでも、エージェントの高精度は相当なコストを発生させる。
このトレードオフに対処するために、動的グラフの構造特性とLLMの認知負荷の両方を考慮し、標準LLMプロンプトとより強力なエージェント間のクエリをインテリジェントにディスパッチする、シンプルで効果的な構造対応ディスパッチを提案する。
本実験は, 構造対応ディスパッチ装置がコスト削減を図りつつ, 精度を効果的に維持できることを実証する。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - Learning on Graphs with Large Language Models(LLMs): A Deep Dive into Model Robustness [39.57155321515097]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示している。
LLMがグラフ上での学習において堅牢性を示すかどうかは不明である。
論文 参考訳(メタデータ) (2024-07-16T09:05:31Z) - LLM4DyG: Can Large Language Models Solve Spatial-Temporal Problems on Dynamic Graphs? [56.85995048874959]
本稿では,大規模言語モデルの動的グラフ上での時空間理解能力を評価することを提案する。
我々は、異なるデータ生成装置、データ統計、プロンプト技術、LLMがモデル性能に与える影響を分析する実験を行う。
最後に, LLM の時空間理解能力を高めるために, 動的グラフ上の LLM に対する Disentangled Spatial-Temporal Thoughts (DST2) を提案する。
論文 参考訳(メタデータ) (2023-10-26T02:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。