論文の概要: LLM4Log: A Systematic Review of Large Language Model-based Log Analysis
- arxiv url: http://arxiv.org/abs/2604.16359v1
- Date: Wed, 18 Mar 2026 20:34:58 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-05-03 15:49:26.675216
- Title: LLM4Log: A Systematic Review of Large Language Model-based Log Analysis
- Title(参考訳): LLM4Log: 大規模言語モデルに基づくログ分析の体系的レビュー
- Authors: Zeyang Ma, Jinqiu Yang, Tse-Hsun Chen,
- Abstract要約: 大規模言語モデル(LLM)は、意味的一般化とクロスソースエビデンスの統合を可能にすることにより、ログ分析を再構築した。
LLMはまた、コンテキスト制限、レイテンシ/コスト、プライバシ制約、幻覚といったデプロイメントリスクも導入している。
本稿では,LLMを用いたエンドツーエンドパイプラインにおけるログ解析の体系的レビューを行う。
- 参考スコア(独自算出の注目度): 7.098062225687816
- License:
- Abstract: Software systems generate massive, evolving, semi-structured logs that are central to reliability engineering and AIOps, yet difficult to analyze at scale under drift and limited labels. Recent advances in pretrained Transformer models and instruction-tuned large language models (LLMs) have reshaped log analysis by enabling semantic generalization and cross-source evidence integration, but also introducing deployment risks such as context limits, latency/cost, privacy constraints, and hallucinations. This paper presents LLM4Log, a systematic review of LLM-based log analysis across the end-to-end pipeline, from upstream logging-statement generation and maintenance to log parsing/structuring and downstream tasks including anomaly detection, failure prediction, root cause analysis, and log summarization. Following a structured search and manual screening protocol, we completed literature collection in November 2025 and identified 145 unique papers across seven logging tasks. We synthesize the research area through a unified, task-driven taxonomy, summarize common design patterns (prompting/ICL, retrieval grounding, fine-tuning, tool/agent augmentation, and verification), and analyze evaluation practices, datasets, metrics, and reproducibility. Based on these cross-paper analyses, we distill key lessons and open challenges for reliable real-world adoption. We emphasize robustness under drift and long-tail events, grounding and faithfulness for operator-facing outputs, and deployment-oriented designs with verifiable behavior.
- Abstract(参考訳): ソフトウェアシステムは、信頼性エンジニアリングとAIOpsの中心となる、大規模で進化中の半構造化ログを生成する。
事前学習型トランスフォーマーモデルと命令調整型大規模言語モデル(LLM)の最近の進歩は、セマンティック一般化とクロスソースエビデンス統合を可能にすることによってログ分析を再形成するとともに、コンテキスト制限、レイテンシ/コスト、プライバシ制約、幻覚といったデプロイメントリスクも導入している。
本稿では,LLMに基づくログ解析の体系的レビューであるLLM4Logについて,上流のロギングステートメント生成とメンテナンスから,異常検出,障害予測,根本原因解析,ログ要約など,ログ解析・構造化・下流タスクまでについて述べる。
2025年11月に文献収集を完了し、7つのロギングタスクにまたがる145のユニークな論文を特定した。
統合されたタスク駆動型分類を用いて研究領域を合成し、共通デザインパターン(プロンプト/ICL、検索基盤、微調整、ツール/エージェント拡張、検証)を要約し、評価プラクティス、データセット、メトリクス、再現性を分析する。
これらのクロスペーパー分析に基づいて,重要な教訓を抽出し,信頼性の高い実世界導入に向けた課題を解決した。
我々は,ドリフトおよびロングテールイベント下でのロバスト性,演算子対応出力に対する接地と忠実さ,検証可能な振る舞いを持つデプロイメント指向設計を強調した。
関連論文リスト
- Understanding by Reconstruction: Reversing the Software Development Process for LLM Pretraining [66.89012795621349]
大規模言語モデル(LLM)は、複雑なソフトウェア工学に必要な、深く、長期にわたる推論に苦しむことが多い。
本稿では,再構築による理解という,新しいパラダイムを提案する。
マルチエージェントシミュレーションを用いて潜在エージェント軌道を合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-11T09:23:20Z) - Seven simple steps for log analysis in AI systems [31.345120499488974]
AIシステムは、ツールやユーザと対話するときに大量のログを生成する。
これらのログの分析は、モデル能力、妥当性、振る舞いを理解するのに役立つ。
ここでは、現在のベストプラクティスに基づいたパイプラインを提案する。
論文 参考訳(メタデータ) (2026-02-13T21:35:45Z) - Advances and Frontiers of LLM-based Issue Resolution in Software Engineering: A Comprehensive Survey [59.3507264893654]
課題解決は、現実世界の開発に不可欠な複雑なソフトウェアエンジニアリングタスクです。
SWE-benchのようなベンチマークでは、このタスクは大規模言語モデルでは極めて困難であることが判明した。
本稿では,この新興領域を体系的に調査する。
論文 参考訳(メタデータ) (2026-01-15T18:55:03Z) - LongDA: Benchmarking LLM Agents for Long-Document Data Analysis [55.32211515932351]
LongDAは、長いドキュメントと複雑なデータをナビゲートする実際の設定をターゲットとしています。
LongTAは、ドキュメントアクセス、検索、コード実行を可能にするツール拡張されたエージェントフレームワークである。
実験の結果, 最先端モデルにおいても, かなりの性能差が認められた。
論文 参考訳(メタデータ) (2026-01-05T23:23:16Z) - Flowco: Rethinking Data Analysis in the Age of LLMs [2.1874189959020427]
大規模言語モデル(LLM)は、単純なルーチン解析のためにそのようなコードを生成することができるようになった。
LLMは、限られたプログラミングの専門知識を持つ者がデータ分析を行うことで、データサイエンスの民主化を約束する。
多くの実世界のアナリストは、特定の分析手順をきめ細かな制御をしなければならない。
本稿では,これらの課題に対処する新たな混合開始システムであるFlowcoを紹介する。
論文 参考訳(メタデータ) (2025-04-18T19:01:27Z) - System Log Parsing with Large Language Models: A Review [2.2779174914142346]
大規模言語モデル (LLM) はLLMに基づくログ解析の新しい研究分野を導入した。
有望な結果にもかかわらず、この比較的新しい研究分野におけるアプローチの構造化された概要は存在しない。
この研究は29 LLMベースのログ解析手法を体系的にレビューする。
論文 参考訳(メタデータ) (2025-04-07T09:41:04Z) - LogEval: A Comprehensive Benchmark Suite for Large Language Models In Log Analysis [32.46940506638522]
ログ解析タスクにおける大規模言語モデルの性能を評価するために設計されたベンチマークスイートであるLogEvalを紹介する。
このベンチマークでは、ログ解析、ログ異常検出、ログ障害診断、ログ要約などのタスクをカバーしている。
LogEvalは4000の公開ログデータエントリを使用して各タスクを評価し、各タスクに対して15の異なるプロンプトを使用して、徹底的で公正な評価を保証する。
論文 参考訳(メタデータ) (2024-07-02T02:39:33Z) - Self-Supervised Log Parsing [59.04636530383049]
大規模ソフトウェアシステムは、大量の半構造化ログレコードを生成する。
既存のアプローチは、ログ特化や手動ルール抽出に依存している。
本稿では,自己教師付き学習モデルを用いて解析タスクをマスク言語モデリングとして定式化するNuLogを提案する。
論文 参考訳(メタデータ) (2020-03-17T19:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。