論文の概要: TAAF: A Trace Abstraction and Analysis Framework Synergizing Knowledge Graphs and LLMs
- arxiv url: http://arxiv.org/abs/2601.02632v1
- Date: Tue, 06 Jan 2026 01:04:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.760095
- Title: TAAF: A Trace Abstraction and Analysis Framework Synergizing Knowledge Graphs and LLMs
- Title(参考訳): TAAF:知識グラフとLLMの同期化のためのトレース抽象化と分析フレームワーク
- Authors: Alireza Ezaz, Ghazal Khodabandeh, Majid Babaei, Naser Ezzati-Jivan,
- Abstract要約: 本稿では,TAAF(Trace Abstraction and Analysis Framework)について紹介する。
LLMは、クエリ固有のサブグラフを解釈して自然言語の質問に答え、手動検査の必要性を減らす。
実験の結果、TAAFは解答精度を最大31.2%向上させ、特にマルチホップおよび因果推論タスクにおいて改善した。
- 参考スコア(独自算出の注目度): 3.2839783281320085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Execution traces are a critical source of information for understanding, debugging, and optimizing complex software systems. However, traces from OS kernels or large-scale applications like Chrome or MySQL are massive and difficult to analyze. Existing tools rely on predefined analyses, and custom insights often require writing domain-specific scripts, which is an error-prone and time-consuming task. This paper introduces TAAF (Trace Abstraction and Analysis Framework), a novel approach that combines time-indexing, knowledge graphs (KGs), and large language models (LLMs) to transform raw trace data into actionable insights. TAAF constructs a time-indexed KG from trace events to capture relationships among entities such as threads, CPUs, and system resources. An LLM then interprets query-specific subgraphs to answer natural-language questions, reducing the need for manual inspection and deep system expertise. To evaluate TAAF, we introduce TraceQA-100, a benchmark of 100 questions grounded in real kernel traces. Experiments across three LLMs and multiple temporal settings show that TAAF improves answer accuracy by up to 31.2%, particularly in multi-hop and causal reasoning tasks. We further analyze where graph-grounded reasoning helps and where limitations remain, offering a foundation for next-generation trace analysis tools.
- Abstract(参考訳): 実行トレースは、複雑なソフトウェアシステムを理解し、デバッグし、最適化するための重要な情報源である。
しかし、OSカーネルやChromeやMySQLのような大規模アプリケーションのトレースは巨大で分析が難しい。
既存のツールは事前に定義された分析に依存しており、カスタムインサイトはドメイン固有のスクリプトを書く必要があることが多い。
本稿では, TAAF (Trace Abstraction and Analysis Framework) を導入し, 時間インデクシング, 知識グラフ (KG) と大規模言語モデル (LLM) を組み合わせて, 生のトレースデータを実用的な洞察に変換する手法を提案する。
TAAFはトレースイベントから時間インデックス付きKGを構築し、スレッド、CPU、システムリソースなどのエンティティ間の関係をキャプチャする。
LLMは、クエリ固有のサブグラフを解釈して自然言語の質問に答え、手動検査やシステムに関する深い専門知識の必要を減らします。
TAAFを評価するために,実カーネルトレースに基づく100質問のベンチマークであるTraceQA-100を紹介する。
3つのLCMと複数の時間設定による実験では、TAAFは解答精度を最大31.2%向上させ、特にマルチホップおよび因果推論タスクにおいて改善している。
さらに、グラフグラウンドの推論がどの点や制限が残っているかを分析し、次世代のトレース分析ツールの基礎を提供します。
関連論文リスト
- Who Gets Cited Most? Benchmarking Long-Context Language Models on Scientific Articles [81.89404347890662]
SciTrekは、科学論文を用いた大規模言語モデル(LLM)の長文推論能力を評価するために設計された、新しい質問応答ベンチマークである。
本分析により,モデルの基本的数値演算を行ない,特定の情報を長い文脈で正確に特定する能力において,系統的な欠点が明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T11:36:09Z) - MIXRAG : Mixture-of-Experts Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [6.596018318578605]
Retrieval-Augmented Generation (RAG)は、推論中に外部知識ソースを組み込むことで、Large Language Models (LLM)を強化する。
既存のアプローチのほとんどは、関連するサブグラフを特定するために単一のレトリバーに依存しており、複雑なクエリのさまざまな側面をキャプチャする能力を制限する。
そこで我々は,Mixture-of-Experts Graph-RAGフレームワークであるMIXRAGを提案する。
論文 参考訳(メタデータ) (2025-09-24T02:44:57Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - AttnTrace: Attention-based Context Traceback for Long-Context LLMs [30.472252134918815]
本研究では,LLMがプロンプトのために生成した注目重みに基づく新しいコンテキストトレース手法であるAttnTraceを提案する。
その結果、AttnTraceは既存の最先端のコンテキストトレース手法よりも正確で効率的であることがわかった。
論文 参考訳(メタデータ) (2025-08-05T17:56:51Z) - Leveraging Knowledge Graphs and LLM Reasoning to Identify Operational Bottlenecks for Warehouse Planning Assistance [1.2749527861829046]
我々のフレームワークは知識グラフ(KG)とLarge Language Model(LLM)ベースのエージェントを統合している。
生のDESデータを意味的にリッチなKGに変換し、シミュレーションイベントとエンティティの関係をキャプチャする。
LLMベースのエージェントは反復推論を使用し、相互依存的なサブクエストを生成する。各サブクエストに対して、KGインタラクションのためのCypherクエリを生成し、情報を抽出し、エラーを修正する。
論文 参考訳(メタデータ) (2025-07-23T07:18:55Z) - DAGR: Decomposition Augmented Graph Retrieval with LLMs [1.034893617526558]
DAGRは、複雑な質問と、関連するリンクされたサブグラフを抽出するサブクエストにおけるそれらの分解の両方を活用する検索手法である。
結果として得られるGraph-RAGパイプラインは、複雑なマルチホップ質問の処理と、グラフ構造化データに対する効果的な推論に適している。
DAGRを標準マルチホップQAベンチマークで評価し、競合する既存手法に匹敵する性能または優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-06-16T11:44:28Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z) - GraphReader: Building Graph-based Agent to Enhance Long-Context Abilities of Large Language Models [58.08177466768262]
大規模言語モデル(LLM)では、複雑なロングコンテクストのタスクに対処するためには、ロングコンテクストの能力が不可欠である。
グラフをグラフに構造化し、エージェントを使ってグラフを自律的に探索することで、長いテキストを扱うように設計されたグラフベースのエージェントシステムであるGraphReaderを紹介する。
LV-Evalデータセットの実験結果によると、GraphReaderは4kコンテキストウィンドウを使用して、16kから256kまでのコンテキスト長で一貫してGPT-4-128kを上回っている。
論文 参考訳(メタデータ) (2024-06-20T17:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。