論文の概要: LLM-SrcLog: Towards Proactive and Unified Log Template Extraction via Large Language Models
- arxiv url: http://arxiv.org/abs/2512.04474v1
- Date: Thu, 04 Dec 2025 05:30:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.006546
- Title: LLM-SrcLog: Towards Proactive and Unified Log Template Extraction via Large Language Models
- Title(参考訳): LLM-SrcLog:大規模言語モデルによるアクティブかつ統一なログテンプレート抽出を目指して
- Authors: Jiaqi Sun, Wei Li, Heng Zhang, Chutong Ding, Shiyou Qian, Jian Cao, Guangtao Xue,
- Abstract要約: LLM-SrcLogは、ログテンプレート解析のためのプロアクティブで統一されたフレームワークである。
デプロイ前にソースコードから直接テンプレートを抽出する。
利用可能なコードなしでログのデータ駆動解析を補完する。
- 参考スコア(独自算出の注目度): 19.933913707655467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Log parsing transforms raw logs into structured templates containing constants and variables. It underpins anomaly detection, failure diagnosis, and other AIOps tasks. Current parsers are mostly reactive and log-centric. They only infer templates from logs, mostly overlooking the source code. This restricts their capacity to grasp dynamic log structures or adjust to evolving systems. Moreover, per-log LLM inference is too costly for practical deployment. In this paper, we propose LLM-SrcLog, a proactive and unified framework for log template parsing. It extracts templates directly from source code prior to deployment and supplements them with data-driven parsing for logs without available code. LLM-SrcLog integrates a cross-function static code analyzer to reconstruct meaningful logging contexts, an LLM-based white-box template extractor with post-processing to distinguish constants from variables, and a black-box template extractor that incorporates data-driven clustering for remaining unmatched logs. Experiments on two public benchmarks (Hadoop and Zookeeper) and a large-scale industrial system (Sunfire-Compute) show that, compared to two LLM-based baselines, LLM-SrcLog improves average F1-score by 2-17% and 8-35%. Meanwhile, its online parsing latency is comparable to data-driven methods and about 1,000 times faster than per-log LLM parsing. LLM-SrcLog achieves a near-ideal balance between speed and accuracy. Finally, we further validate the effectiveness of LLM-SrcLog through practical case studies in a real-world production environment.
- Abstract(参考訳): ログ解析は生ログを定数と変数を含む構造化テンプレートに変換する。
異常検出、障害診断、その他のAIOpsタスクを支える。
現在のパーサはリアクティブでログ中心である。
それらはログからのみテンプレートを推論し、ほとんどがソースコードを見下ろしている。
これにより、動的ログ構造を把握したり、進化するシステムに適応する能力を制限することができる。
さらに、ログごとのLLM推論は、実用的なデプロイメントにはコストがかかりすぎます。
本稿では,ログテンプレート解析のためのフレームワーク LLM-SrcLog を提案する。
デプロイ前にソースコードから直接テンプレートを抽出し、利用可能なコードなしでログをデータ駆動で解析する。
LLM-SrcLogは、意味のあるロギングコンテキストを再構築するためにクロスファンクショナルな静的コードアナライザ、変数から定数を区別する後処理を備えたLLMベースのホワイトボックステンプレート抽出器、未一致のログを格納するためのデータ駆動クラスタリングを組み込んだブラックボックステンプレート抽出器を統合する。
2つの公開ベンチマーク(HadoopとZookeeper)と大規模産業システム(Sunfire-Compute)の実験では、2つのLLMベースベースラインと比較して、LLM-SrcLogは平均F1スコアを2-17%と8-35%改善している。
一方、オンライン解析のレイテンシは、データ駆動のメソッドに匹敵し、ログごとのLLM解析の約1000倍高速である。
LLM-SrcLogは、速度と精度のほぼ理想的なバランスを実現する。
最後に,LLM-SrcLogの有効性を実運用環境における実例研究を通じて検証する。
関連論文リスト
- LibreLog: Accurate and Efficient Unsupervised Log Parsing Using Open-Source Large Language Models [3.7960472831772774]
本稿では,非教師なしのログ解析手法であるLibreLogを紹介する。
LogHub-2.0の評価では、LibreLogは最先端のLCMに比べて25%高い解析精度とプロセス2.7倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-08-02T21:54:13Z) - Log Parsing using LLMs with Self-Generated In-Context Learning and Self-Correction [15.93927602769091]
近年の大規模言語モデル(LLM)の出現は、自然言語やコードを理解する上で強力な能力を示している。
Adaは、自己生成型インコンテキスト学習(SG-ICL)と自己補正を備えたLLMを用いた、効果的で適応的なログ解析フレームワークである。
Adaはゼロショットのシナリオであっても、すべてのメトリクスで最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-06-05T15:31:43Z) - Get my drift? Catching LLM Task Drift with Activation Deltas [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Optimizing LLM Queries in Relational Data Analytics Workloads [50.95919232839785]
バッチデータ分析は、Large Language Models(LLMs)の急成長するアプリケーションである
LLMは、分類、エンティティ抽出、翻訳などの幅広い自然言語タスクを、大規模なデータセット上で実行可能にする。
本稿では,LLMコールによるリレーショナルデータ解析処理のコストを大幅に削減できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - LILAC: Log Parsing using LLMs with Adaptive Parsing Cache [38.04960745458878]
適応型解析キャッシュを備えた大規模言語モデル (LLM) を用いた最初の実用的なログ解析フレームワーク LILAC を提案する。
LLMの特殊なログ解析能力の欠如は、現在解析の正確さを妨げている。
LILACは,テンプレートの精度の平均F1スコアにおいて,最先端の手法よりも69.5%優れていた。
論文 参考訳(メタデータ) (2023-10-03T04:46:59Z) - Self-Supervised Log Parsing [59.04636530383049]
大規模ソフトウェアシステムは、大量の半構造化ログレコードを生成する。
既存のアプローチは、ログ特化や手動ルール抽出に依存している。
本稿では,自己教師付き学習モデルを用いて解析タスクをマスク言語モデリングとして定式化するNuLogを提案する。
論文 参考訳(メタデータ) (2020-03-17T19:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。