論文の概要: Interpretable Online Log Analysis Using Large Language Models with
Prompt Strategies
- arxiv url: http://arxiv.org/abs/2308.07610v2
- Date: Fri, 26 Jan 2024 02:46:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 18:13:05.174245
- Title: Interpretable Online Log Analysis Using Large Language Models with
Prompt Strategies
- Title(参考訳): Prompt Strategiesを用いた大規模言語モデルを用いたオンラインログ解析
- Authors: Yilun Liu, Shimin Tao, Weibin Meng, Jingyu Wang, Wenbing Ma, Yanqing
Zhao, Yuhang Chen, Hao Yang, Yanfei Jiang, Xun Chen
- Abstract要約: オンラインシナリオのための新しい解釈可能なログ解析手法であるLogPromptを提案する。
LogPromptは大規模言語モデル(LLM)を使用して,高度なプロンプト戦略のスイートを通じて,オンラインログ解析タスクを実行する。
LogPromptはドメイン内のトレーニングを必要としないが、数千のログでトレーニングされた既存のアプローチを最大55.9%上回っている。
- 参考スコア(独自算出の注目度): 25.71982260940313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated log analysis is crucial in modern software-intensive systems for
facilitating program comprehension throughout software maintenance and
engineering life cycles. Existing methods perform tasks such as log parsing and
log anomaly detection by providing a single prediction value without
interpretation. However, given the increasing volume of system events, the
limited interpretability of analysis results hinders analysts' comprehension of
program status and their ability to take appropriate actions. Moreover, these
methods require substantial in-domain training data, and their performance
declines sharply (by up to 62.5%) in online scenarios involving unseen logs
from new domains, a common occurrence due to rapid software updates. In this
paper, we propose LogPrompt, a novel interpretable log analysis approach for
online scenarios. LogPrompt employs large language models (LLMs) to perform
online log analysis tasks via a suite of advanced prompt strategies tailored
for log tasks, which enhances LLMs' performance by up to 380.7% compared with
simple prompts. Experiments on nine publicly available evaluation datasets
across two tasks demonstrate that LogPrompt, despite requiring no in-domain
training, outperforms existing approaches trained on thousands of logs by up to
55.9%. We also conduct a human evaluation of LogPrompt's interpretability, with
six practitioners possessing over 10 years of experience, who highly rated the
generated content in terms of usefulness and readability (averagely 4.42/5).
LogPrompt also exhibits remarkable compatibility with open-source and
smaller-scale LLMs, making it flexible for practical deployment. Code of
LogPrompt is available at https://github.com/lunyiliu/LogPrompt.
- Abstract(参考訳): 自動ログ解析は、ソフトウェアメンテナンスとエンジニアリングライフサイクル全体を通してプログラム理解を促進するために、現代のソフトウェア集約システムにおいて不可欠である。
既存の方法は、解釈なしで単一の予測値を提供することで、ログ解析やログ異常検出などのタスクを実行する。
しかし、システムイベントの量が増加すると、分析結果の解釈可能性の制限は、分析者のプログラムステータスの理解と適切なアクションを取る能力を妨げる。
さらに、これらの手法はドメイン内のトレーニングデータを必要とするため、新しいドメインからの未確認ログを含むオンラインシナリオではパフォーマンスが劇的に低下する(62.5%まで)。
本稿では,オンラインシナリオに対する新しい解釈可能なログ分析手法であるlogpromptを提案する。
logpromptは大規模な言語モデル(llms)を使用して、ログタスク用に調整された一連の高度なプロンプト戦略を介してオンラインログ分析タスクを実行する。
2つのタスクにわたる9つの公開評価データセットの実験では、LogPromptはドメイン内のトレーニングを必要としないが、数千のログでトレーニングされた既存のアプローチを最大55.9%上回っている。
また,LogPromptの解釈可能性の評価を行い,10年以上の経験を持つ6人の実践者が有用性と可読性(平均4.42/5)を高く評価した。
LogPromptはまた、オープンソースおよび小規模のLLMとの顕著な互換性を示しており、実用的なデプロイメントに柔軟である。
logpromptのコードはhttps://github.com/lunyiliu/logpromptで入手できる。
関連論文リスト
- Studying and Benchmarking Large Language Models For Log Level Suggestion [49.176736212364496]
大規模言語モデル(LLM)は、様々な領域で研究の焦点となっている。
本稿では,12個のオープンソースLCMのログレベル提案における性能に及ぼす特性と学習パラダイムの影響について検討する。
論文 参考訳(メタデータ) (2024-10-11T03:52:17Z) - LogParser-LLM: Advancing Efficient Log Parsing with Large Language Models [19.657278472819588]
LLM機能と統合された新しいログであるLog-LLMを紹介する。
粒度を解析する複雑な課題に対処し、ユーザが特定のニーズに合わせて粒度を調整できるようにするための新しい指標を提案する。
提案手法の有効性は,Loghub-2kと大規模LogPubベンチマークを用いて実験的に検証した。
論文 参考訳(メタデータ) (2024-08-25T05:34:24Z) - LogEval: A Comprehensive Benchmark Suite for Large Language Models In Log Analysis [32.46940506638522]
ログ解析タスクにおける大規模言語モデルの性能を評価するために設計されたベンチマークスイートであるLogEvalを紹介する。
このベンチマークでは、ログ解析、ログ異常検出、ログ障害診断、ログ要約などのタスクをカバーしている。
LogEvalは4000の公開ログデータエントリを使用して各タスクを評価し、各タスクに対して15の異なるプロンプトを使用して、徹底的で公正な評価を保証する。
論文 参考訳(メタデータ) (2024-07-02T02:39:33Z) - LogFormer: A Pre-train and Tuning Pipeline for Log Anomaly Detection [73.69399219776315]
本稿では,ログ異常検出(LogFormer)のためのTransformerベースの統合フレームワークを提案する。
具体的には、ログデータの共有セマンティック知識を得るために、まず、ソースドメイン上で事前学習を行う。
そして、そのような知識を共有パラメータを介して対象領域に転送する。
論文 参考訳(メタデータ) (2024-01-09T12:55:21Z) - A Large-Scale Evaluation for Log Parsing Techniques: How Far Are We? [42.56249610409624]
実世界のソフトウェアシステムにおけるログデータの特徴をよりよく反映できる,アノテーション付きログデータセットの新たなコレクションであるLoghub-2.0を提供する。
我々は、より厳密で実践的な設定で15の最先端ログを徹底的に再評価し、特に、既存のメトリクスの非バランスなデータ分布に対する感度を緩和する新しい評価基準を導入する。
論文 参考訳(メタデータ) (2023-08-21T16:24:15Z) - Log Parsing Evaluation in the Era of Modern Software Systems [47.370291246632114]
自動ログ分析、ログ解析は、ログから洞察を導き出すための前提条件である。
本研究は,ログ解析分野の問題点,特に異種実世界のログ処理における非効率性を明らかにする。
本稿では,企業コンテキストにおけるログ解析性能を推定するツールであるLogchimeraを提案する。
論文 参考訳(メタデータ) (2023-08-17T14:19:22Z) - On the Effectiveness of Log Representation for Log-based Anomaly Detection [12.980238412281471]
本研究は,従来のログ解析研究から広く採用されているログ表現技術について検討し,比較する。
6つのログ表現手法を選択し、7つのMLモデルと4つの公開ログデータセットで評価する。
また、ログ表現技術を採用する際に、ログ解析プロセスと異なる特徴集約アプローチの影響についても検討する。
論文 参考訳(メタデータ) (2023-08-17T02:18:59Z) - Data-Driven Approach for Log Instruction Quality Assessment [59.04636530383049]
優れた品質特性を持つログ命令の記述方法に関するガイドラインは,広く採用されていない。
1)ログレベルの正確さを評価するための正しいログレベルの割り当てと,2)イベント記述の冗長化に必要な静的テキストの最小富度を評価する十分な言語構造である。
本手法は,F1スコア0.99の十分な言語構造を用いて,ログレベルの割当を精度0.88で正確に評価する。
論文 参考訳(メタデータ) (2022-04-06T07:02:23Z) - LogLAB: Attention-Based Labeling of Log Data Anomalies via Weak
Supervision [63.08516384181491]
専門家の手作業を必要とせず,ログメッセージの自動ラベル付けのための新しいモデリング手法であるLogLABを提案する。
本手法は,監視システムが提供する推定故障時間ウィンドウを用いて,正確なラベル付きデータセットを振り返りに生成する。
我々の評価によると、LogLABは3つの異なるデータセットで9つのベンチマークアプローチを一貫して上回り、大規模な障害時ウィンドウでも0.98以上のF1スコアを維持している。
論文 参考訳(メタデータ) (2021-11-02T15:16:08Z) - Self-Supervised Log Parsing [59.04636530383049]
大規模ソフトウェアシステムは、大量の半構造化ログレコードを生成する。
既存のアプローチは、ログ特化や手動ルール抽出に依存している。
本稿では,自己教師付き学習モデルを用いて解析タスクをマスク言語モデリングとして定式化するNuLogを提案する。
論文 参考訳(メタデータ) (2020-03-17T19:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。