論文の概要: Small is Beautiful: A Practical and Efficient Log Parsing Framework
- arxiv url: http://arxiv.org/abs/2601.22590v1
- Date: Fri, 30 Jan 2026 05:37:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.251817
- Title: Small is Beautiful: A Practical and Efficient Log Parsing Framework
- Title(参考訳): Smallは美しい: 実用的で効率的なログ解析フレームワーク
- Authors: Minxing Wang, Yintong Huo,
- Abstract要約: ログ解析の基本的なステップは 教師なしのログ解析です
LLM(Large Language Models)は、従来の構文に基づく手法よりも優れた一般化性を示す。
この依存関係は、より小さく、よりリソース効率のよいLCMを使用すると、大幅にパフォーマンスが低下する。
より小さなモデルの能力を高めるために設計された,教師なしLLMベースのログであるEFを提案する。
- 参考スコア(独自算出の注目度): 3.759117833649677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Log parsing is a fundamental step in log analysis, partitioning raw logs into constant templates and dynamic variables. While recent semantic-based parsers leveraging Large Language Models (LLMs) exhibit superior generalizability over traditional syntax-based methods, their effectiveness is heavily contingent on model scale. This dependency leads to significant performance collapse when employing smaller, more resource-efficient LLMs. Such degradation creates a major barrier to real-world adoption, where data privacy requirements and computational constraints necessitate the use of succinct models. To bridge this gap, we propose EFParser, an unsupervised LLM-based log parser designed to enhance the capabilities of smaller models through systematic architectural innovation. EFParser introduces a dual-cache system with an adaptive updating mechanism that distinguishes between novel patterns and variations of existing templates. This allows the parser to merge redundant templates and rectify prior errors, maintaining cache consistency. Furthermore, a dedicated correction module acts as a gatekeeper, validating and refining every LLM-generated template before caching to prevent error injection. Empirical evaluations on public large-scale datasets demonstrate that EFParser outperforms state-of-the-art baselines by an average of 12.5% across all metrics when running on smaller LLMs, even surpassing some baselines utilizing large-scale models. Despite its additional validation steps, EFParser maintains high computational efficiency, offering a robust and practical solution for real-world log analysis deployment.
- Abstract(参考訳): ログ解析はログ解析の基本的なステップであり、生のログを定数テンプレートと動的変数に分割する。
近年のLarge Language Models (LLM) を利用した意味論的解析は従来の構文に基づく手法よりも優れた一般化性を示しているが、その効果はモデルスケールに大きく依存している。
この依存関係は、より小さく、よりリソース効率のよいLCMを使用すると、大幅にパフォーマンスが低下する。
このような劣化は、データのプライバシ要件と計算上の制約が簡潔なモデルの使用を必要とするような、現実的な採用の大きな障壁を生み出します。
このギャップを埋めるために,システムアーキテクチャの革新を通じて小型モデルの能力を高めるために設計された,教師なしLLMベースのログパーサであるEFParserを提案する。
EFParserは、新しいパターンと既存のテンプレートのバリエーションを区別するアダプティブな更新メカニズムを備えたデュアルキャッシュシステムを導入した。
これにより、パーサは冗長なテンプレートをマージし、前のエラーを修正し、キャッシュの一貫性を維持することができる。
さらに、専用の修正モジュールがゲートキーパーとして機能し、キャッシュの前に全てのLCM生成テンプレートを検証および精錬し、エラー注入を防ぐ。
パブリックな大規模データセットに関する実証的な評価によると、EFParserは、大規模モデルを使用したいくつかのベースラインを超え、小さなLLM上で実行する場合、すべてのメトリクスで、最先端のベースラインを平均12.5%上回っている。
新たな検証ステップにもかかわらず、EFParserは高い計算効率を維持し、実世界のログ分析デプロイメントのための堅牢で実用的なソリューションを提供する。
関連論文リスト
- Reversing Large Language Models for Efficient Training and Fine-Tuning [24.232966507637673]
大きな言語モデル(LLM)は、高価で時間を要する訓練で知られている。
対称およびシンプレクティック微分方程式に着想を得たLLMのメモリ効率・可逆的アーキテクチャを提案する。
その結果、いくつかのデータセットとベンチマークで同等または改善されたパフォーマンスを示しました。
論文 参考訳(メタデータ) (2025-11-27T19:32:15Z) - LLM-MemCluster: Empowering Large Language Models with Dynamic Memory for Text Clustering [52.41664454251679]
大規模言語モデル(LLM)は、テキストクラスタリングを行う前例のない能力を提供することで、教師なしの学習を再構築している。
既存のメソッドは、しばしば外部モジュールを持つ複雑なパイプラインに依存し、真にエンドツーエンドのアプローチを犠牲にする。
LLM-MemClusterは,クラスタリングをLLMネイティブタスクとして再認識する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-11-19T13:22:08Z) - Enhancing Transformer-Based Rerankers with Synthetic Data and LLM-Based Supervision [0.13999481573773073]
大きな言語モデル(LLM)は、その深いセマンティック理解と推論のために、再分類時に優れている。
微調整の小さなタスク固有のモデルは、より効率的な代替手段だが、通常は手動でラベル付けされたデータに頼っている。
本稿では,人間ラベルのクエリドキュメントペアの必要性を解消する新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2025-09-23T09:47:27Z) - LatentLLM: Attention-Aware Joint Tensor Compression [50.33925662486034]
大規模言語モデル(LLM)と大規模マルチモーダルモデル(LMM)は膨大な計算量とメモリ資源を必要とする。
本稿では,LLM/LMMを低次元潜在構造に変換するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-23T22:39:54Z) - The Unreasonable Effectiveness of Model Merging for Cross-Lingual Transfer in LLMs [45.08958917457921]
大規模言語モデル(LLM)は、ハイソース言語以外のタスクで依然として苦戦している。
本研究では,タスク固有のポストトレーニングデータが不足している低リソース言語への言語間移動について検討する。
論文 参考訳(メタデータ) (2025-05-23T20:28:31Z) - Beyond Quacking: Deep Integration of Language Models and RAG into DuckDB [44.057784044659726]
大規模言語モデル(LLM)により、このような検索と推論データパイプラインのプロトタイプがより簡単になった。
これはしばしば、データシステムのオーケストレーション、データムーブメントの管理、低レベルの詳細処理を含む。
我々はFlockMTLを紹介した。FlockMTLはLLM機能と検索拡張生成を深く統合した抽象化用拡張である。
論文 参考訳(メタデータ) (2025-04-01T19:48:17Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - LILAC: Log Parsing using LLMs with Adaptive Parsing Cache [38.04960745458878]
適応型解析キャッシュを備えた大規模言語モデル (LLM) を用いた最初の実用的なログ解析フレームワーク LILAC を提案する。
LLMの特殊なログ解析能力の欠如は、現在解析の正確さを妨げている。
LILACは,テンプレートの精度の平均F1スコアにおいて,最先端の手法よりも69.5%優れていた。
論文 参考訳(メタデータ) (2023-10-03T04:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。