論文の概要: MicLog: Towards Accurate and Efficient LLM-based Log Parsing via Progressive Meta In-Context Learning
- arxiv url: http://arxiv.org/abs/2601.07005v1
- Date: Sun, 11 Jan 2026 17:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.112068
- Title: MicLog: Towards Accurate and Efficient LLM-based Log Parsing via Progressive Meta In-Context Learning
- Title(参考訳): MicLog: プログレッシブメタインコンテキスト学習によるLLMに基づくログ解析の精度と効率化を目指して
- Authors: Jianbo Yu, Yixuan Li, Hai Xu, Kang Xu, Junjielong Xu, Zhijing Li, Pinjia He, Wanyuan Wang,
- Abstract要約: 近年の大規模言語モデル(LLM)では、インコンテキスト学習(ICL)を活用して、例からセマンティクスを抽出し、精度が向上している。
MicLogは,メタ学習とICLを組み合わせた,最初のプログレッシブなメタ消費学習(ProgMeta-ICL)ログ解析フレームワークである。
MicLogは、最先端技術よりも10.3%高い解析精度を達成し、解析時間を42.4%削減した。
- 参考スコア(独自算出の注目度): 26.849902115105255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Log parsing converts semi-structured logs into structured templates, forming a critical foundation for downstream analysis. Traditional syntax and semantic-based parsers often struggle with semantic variations in evolving logs and data scarcity stemming from their limited domain coverage. Recent large language model (LLM)-based parsers leverage in-context learning (ICL) to extract semantics from examples, demonstrating superior accuracy. However, LLM-based parsers face two main challenges: 1) underutilization of ICL capabilities, particularly in dynamic example selection and cross-domain generalization, leading to inconsistent performance; 2) time-consuming and costly LLM querying. To address these challenges, we present MicLog, the first progressive meta in-context learning (ProgMeta-ICL) log parsing framework that combines meta-learning with ICL on small open-source LLMs (i.e., Qwen-2.5-3B). Specifically, MicLog: i) enhances LLMs' ICL capability through a zero-shot to k-shot ProgMeta-ICL paradigm, employing weighted DBSCAN candidate sampling and enhanced BM25 demonstration selection; ii) accelerates parsing via a multi-level pre-query cache that dynamically matches and refines recently parsed templates. Evaluated on Loghub-2.0, MicLog achieves 10.3% higher parsing accuracy than the state-of-the-art parser while reducing parsing time by 42.4%.
- Abstract(参考訳): ログ解析は、半構造化ログを構造化テンプレートに変換し、下流分析の重要な基盤を形成する。
従来の構文とセマンティックベースのパーザは、ドメインカバレッジの制限から生じるログとデータの不足の進化において、意味的なバリエーションに悩まされることが多い。
近年の大規模言語モデル (LLM) に基づく構文解析では,インコンテキスト学習 (ICL) を用いて実例から意味を抽出し,精度が向上している。
しかし、LLMベースのパーサーは2つの大きな課題に直面している。
1) ICL機能の非活用,特に動的サンプル選択やドメイン間一般化において,不整合性能につながる。
2) LLM クエリには時間と費用がかかります。
これらの課題に対処するため、メタ学習とICLを組み合わせた最初のプログレッシブなメタインコンテキスト学習(ProgMeta-ICL)ログ解析フレームワークであるMicLog(Qwen-2.5-3B)を紹介する。
具体的には、MicLog。
i) 重み付きDBSCAN候補サンプリングとBM25デモ選択を利用したゼロショットからkショットのProgMeta-ICLパラダイムによるLLMのICL能力の向上。
ii) 動的にマッチし、最近解析されたテンプレートを洗練するマルチレベルプリクエリキャッシュによるパースを高速化する。
Loghub-2.0で評価されたMicLogは、最先端のパーサよりも10.3%高い解析精度を実現し、解析時間を42.4%削減した。
関連論文リスト
- Last Layer Logits to Logic: Empowering LLMs with Logic-Consistent Structured Knowledge Reasoning [55.55968342644846]
大規模言語モデル(LLM)は、膨大な非構造化テキストの事前学習を通じて、自然言語推論タスクにおいて優れた性能を達成する。
LLM出力の論理的欠陥を修正するために,ロジット強化とロジットフィルタリングをコアモジュールとして組み込んだ textitLogits-to-Logic フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T07:08:27Z) - LLM-guided Hierarchical Retrieval [54.73080745446999]
LATTICEは階層的な検索フレームワークであり、LLMは対数探索の複雑さで大きなコーパスを推論し、ナビゲートすることができる。
LLM誘導探索における中心的な課題は、モデルの関連性判断がノイズが多く、文脈に依存し、階層性に気付かないことである。
我々のフレームワークは、推論集約型BRIGHTベンチマークで最先端のゼロショット性能を実現する。
論文 参考訳(メタデータ) (2025-10-15T07:05:17Z) - Unleashing the Power of LLMs in Dense Retrieval with Query Likelihood Modeling [69.84963245729826]
本稿では,検索者の後続のコントラスト学習のためのバックボーンを強化するために,QLの補助的タスクを提案する。
注意ブロック(AB)と文書破壊(DC)の2つの重要なコンポーネントを組み込んだモデルを紹介します。
論文 参考訳(メタデータ) (2025-04-07T16:03:59Z) - Log Parsing using LLMs with Self-Generated In-Context Learning and Self-Correction [15.93927602769091]
近年の大規模言語モデル(LLM)の出現は、自然言語やコードを理解する上で強力な能力を示している。
Adaは、自己生成型インコンテキスト学習(SG-ICL)と自己補正を備えたLLMを用いた、効果的で適応的なログ解析フレームワークである。
Adaはゼロショットのシナリオであっても、すべてのメトリクスで最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-06-05T15:31:43Z) - Leveraging Code to Improve In-context Learning for Semantic Parsing [48.66031267718704]
In-context Learning (ICL) は、その少数ショットの性質と一般化の改善により、意味解析に魅力的なアプローチである。
我々は,(1)DSLの代わりにPythonなどの汎用プログラミング言語を用いた意味解析におけるICLの有効性を向上し,(2)ドメイン記述を構造化したプロンプトを増強する。
論文 参考訳(メタデータ) (2023-11-16T02:50:06Z) - LILAC: Log Parsing using LLMs with Adaptive Parsing Cache [38.04960745458878]
適応型解析キャッシュを備えた大規模言語モデル (LLM) を用いた最初の実用的なログ解析フレームワーク LILAC を提案する。
LLMの特殊なログ解析能力の欠如は、現在解析の正確さを妨げている。
LILACは,テンプレートの精度の平均F1スコアにおいて,最先端の手法よりも69.5%優れていた。
論文 参考訳(メタデータ) (2023-10-03T04:46:59Z) - Self-Supervised Log Parsing [59.04636530383049]
大規模ソフトウェアシステムは、大量の半構造化ログレコードを生成する。
既存のアプローチは、ログ特化や手動ルール抽出に依存している。
本稿では,自己教師付き学習モデルを用いて解析タスクをマスク言語モデリングとして定式化するNuLogを提案する。
論文 参考訳(メタデータ) (2020-03-17T19:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。