論文の概要: R-Log: Incentivizing Log Analysis Capability in LLMs via Reasoning-based Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2509.25987v1
- Date: Tue, 30 Sep 2025 09:19:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.486962
- Title: R-Log: Incentivizing Log Analysis Capability in LLMs via Reasoning-based Reinforcement Learning
- Title(参考訳): R-Log: 推論に基づく強化学習によるLLMにおけるログ分析能力のインセンティブ化
- Authors: Yilun Liu, Ziang Chen, Song Xu, Minggui He, Shimin Tao, Weibin Meng, Yuming Xie, Tao Han, Chunguang Zhao, Jingzhou Du, Daimeng Wei, Shenglin Zhang, Yongqian Sun,
- Abstract要約: R-Logは、人間のエンジニアの構造的、ステップバイステップの分析プロセスを反映した、推論に基づく新しいパラダイムである。
R-Logは、手動のO&Mプラクティスから13の戦略によってガイドされた、2k以上の推論トラジェクトリのキュレートデータセットで最初にコールドスタートされる。
実世界のログに対する実証的な評価は、R-Logが5つのログ解析タスクで既存のメソッドより優れていることを示している。
- 参考スコア(独自算出の注目度): 19.713020881817588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing complexity of log data in modern software systems has prompted the use of Large Language Models (LLMs) for automated log analysis. Current approaches typically rely on direct supervised fine-tuning (SFT) on log-label pairs. However, this exacerbates the domain discrepancy between general-purpose LLMs and specialized log data, causing overfitting. Furthermore, SFT's imbalanced loss computation often allows lengthy contexts to overwhelm critical, concise details in model answers, leading to hallucinations. To address these limitations, we propose R-Log, a novel reasoning-based paradigm that mirrors the structured, step-by-step analytical process of human engineers. This approach enhances generalizability by learning the underlying rules behind conclusions. We further employ Reinforcement Learning (RL) to optimize the model within a simulated O&M environment, thereby reducing hallucinations by directly rewarding correct outcomes. R-Log is first cold-started on a curated dataset of 2k+ reasoning trajectories, guided by 13 strategies from manual O&M practices, to establish an initial reasoning capability. This ability is then refined via RL using a joint reward function. Empirical evaluations on real-world logs show that R-Log outperforms existing methods across five log analysis tasks, particularly in unseen scenarios (by 228.05%). We also designed R-Log-fast with 5x speedup while keeping 93% of the efficacy.
- Abstract(参考訳): 現代のソフトウェアシステムにおけるログデータの複雑さの増大は、自動ログ分析にLarge Language Models(LLM)の使用を促している。
現在のアプローチでは、ログラベルペアの直接教師付き微調整(SFT)が一般的である。
しかし、これは汎用LLMと特殊なログデータとのドメインの相違を悪化させ、過度な適合を引き起こす。
さらに、SFTの不均衡損失計算は、しばしば、モデル解答における重要で簡潔な詳細を圧倒し、幻覚に繋がる。
これらの制約に対処するため,人間技術者の構造化・ステップ・バイ・ステップ分析プロセスを反映した推論に基づく新しいパラダイムであるR-Logを提案する。
このアプローチは、結論の背後にある基本的なルールを学ぶことによって、一般化可能性を高める。
さらに、シミュレーションO&M環境におけるモデル最適化のために強化学習(Reinforcement Learning, RL)を導入し、正しい結果を直接報酬することで幻覚を減らす。
R-Logは、2k以上の推論トラジェクトリのキュレートデータセット上で最初にコールドスタートされ、手動のO&Mプラクティスから13の戦略によって導かれ、最初の推論能力を確立する。
この能力は、関節報酬関数を用いてRLを介して洗練される。
実世界のログに関する実証的な評価によると、R-Logは5つのログ分析タスク、特に目に見えないシナリオ(228.05%)において、既存のメソッドよりも優れている。
また,有効性の93%を維持しながら,5倍の速度でR-Log-fastを設計した。
関連論文リスト
- Pushing LLMs to Their Logical Reasoning Bound: The Role of Data Reasoning Intensity [59.27594125465172]
データ推論強度 (Data Reasoning Intensity, DRI) は, サンプルの潜在論理的推論複雑性を定量化する新しい指標である。
次に、学習データの論理的推論強度を体系的に強化する再認識最適化戦略を導入する。
論文 参考訳(メタデータ) (2025-09-29T14:20:04Z) - LogReasoner: Empowering LLMs with Expert-like Coarse-to-Fine Reasoning for Automated Log Analysis [66.79746720402811]
汎用大規模言語モデル(LLM)は、専門家の認識と整合した構造化推論を定式化し、推論ステップの正確な詳細を提供するのに苦労する。
我々は,LLMが専門家のようなログ解析タスクを推論できるように設計された粗粒度拡張フレームワークであるLogReasonerを提案する。
我々は,Qwen-2.5 や Llama-3 といったオープンソースの LLM を用いて,ログ解析の4つのタスクについてLogReasoner の評価を行った。
論文 参考訳(メタデータ) (2025-09-25T06:26:49Z) - System Log Parsing with Large Language Models: A Review [2.2779174914142346]
大規模言語モデル (LLM) はLLMに基づくログ解析の新しい研究分野を導入した。
有望な結果にもかかわらず、この比較的新しい研究分野におけるアプローチの構造化された概要は存在しない。
この研究は29 LLMベースのログ解析手法を体系的にレビューする。
論文 参考訳(メタデータ) (2025-04-07T09:41:04Z) - AdaptiveLog: An Adaptive Log Analysis Framework with the Collaboration of Large and Small Language Model [42.72663245137984]
本稿では、AdaptiveLogとして知られる適応ログ分析フレームワークを紹介する。
優れた結果を確保しつつ、LLMに関連するコストを効果的に削減する。
実験では、AdaptiveLogがさまざまなタスクにまたがって最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2025-01-19T12:46:01Z) - Adapting Large Language Models to Log Analysis with Interpretable Domain Knowledge [22.355668420639475]
ログ分析は、AIアプリケーションにおける重要なサブドメインである。
大規模言語モデル(LLM)を用いた既存のソリューションは、将来性を示しているが、自然言語とログ言語の間の大きなドメインギャップによって制限されている。
本稿では,解釈可能なドメイン知識をオープンソース LLM に統合することにより,これらの制限に対処するドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2024-12-02T11:05:31Z) - LogLM: From Task-based to Instruction-based Automated Log Analysis [22.44842963552044]
既存のアプローチでは、ログ分析を独立したタスクを実行するためのモデルトレーニングとして扱うことが多い。
本稿では,対数ラベル対を命令応答対の統一形式に変換する命令ベーストレーニング手法を提案する。
トレーニングされたモデルであるLogLMは、複雑なユーザ命令に従って、さまざまなタスクをまたいでより一般化することができます。
論文 参考訳(メタデータ) (2024-10-12T03:36:52Z) - LogParser-LLM: Advancing Efficient Log Parsing with Large Language Models [19.657278472819588]
LLM機能と統合された新しいログであるLog-LLMを紹介する。
粒度を解析する複雑な課題に対処し、ユーザが特定のニーズに合わせて粒度を調整できるようにするための新しい指標を提案する。
提案手法の有効性は,Loghub-2kと大規模LogPubベンチマークを用いて実験的に検証した。
論文 参考訳(メタデータ) (2024-08-25T05:34:24Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - Self-Supervised Log Parsing [59.04636530383049]
大規模ソフトウェアシステムは、大量の半構造化ログレコードを生成する。
既存のアプローチは、ログ特化や手動ルール抽出に依存している。
本稿では,自己教師付き学習モデルを用いて解析タスクをマスク言語モデリングとして定式化するNuLogを提案する。
論文 参考訳(メタデータ) (2020-03-17T19:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。