論文の概要: On Sequence-to-Sequence Models for Automated Log Parsing
- arxiv url: http://arxiv.org/abs/2602.07698v1
- Date: Sat, 07 Feb 2026 20:47:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.764161
- Title: On Sequence-to-Sequence Models for Automated Log Parsing
- Title(参考訳): 自動ログ解析のためのシーケンス・ツー・シーケンスモデルについて
- Authors: Adam Sorrenti, Andriy Miranskyy,
- Abstract要約: 本研究の目的は、シーケンスモデリングアーキテクチャ、表現選択、シーケンス長、トレーニングデータの可用性が、自動ログ解析性能と計算コストにどのように影響するかを評価することである。
変換器は、平均相対編集距離が0.111、次いでMamba(0.145)、mono-LSTM(0.186)、bi-LSTM(0.265)となる。
全体として、Transformerは解析エラーを23.4%削減し、Mambaはデータや計算制約の下で強力な代替手段である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Log parsing is a critical standard operating procedure in software systems, enabling monitoring, anomaly detection, and failure diagnosis. However, automated log parsing remains challenging due to heterogeneous log formats, distribution shifts between training and deployment data, and the brittleness of rule-based approaches. This study aims to systematically evaluate how sequence modelling architecture, representation choice, sequence length, and training data availability influence automated log parsing performance and computational cost. We conduct a controlled empirical study comparing four sequence modelling architectures: Transformer, Mamba state-space, monodirectional LSTM, and bidirectional LSTM models. In total, 396 models are trained across multiple dataset configurations and evaluated using relative Levenshtein edit distance with statistical significance testing. Transformer achieves the lowest mean relative edit distance (0.111), followed by Mamba (0.145), mono-LSTM (0.186), and bi-LSTM (0.265), where lower values are better. Mamba provides competitive accuracy with substantially lower computational cost. Character-level tokenization generally improves performance, sequence length has negligible practical impact on Transformer accuracy, and both Mamba and Transformer demonstrate stronger sample efficiency than recurrent models. Overall, Transformers reduce parsing error by 23.4%, while Mamba is a strong alternative under data or compute constraints. These results also clarify the roles of representation choice, sequence length, and sample efficiency, providing practical guidance for researchers and practitioners.
- Abstract(参考訳): ログ解析はソフトウェアシステムにおいて重要な標準的な操作手順であり、監視、異常検出、故障診断を可能にする。
しかし、ログの自動解析は、不均一なログフォーマット、トレーニングデータとデプロイメントデータの分散シフト、ルールベースのアプローチの脆弱さなど、依然として困難である。
本研究の目的は、シーケンスモデリングアーキテクチャ、表現選択、シーケンス長、トレーニングデータの可用性が、自動ログ解析の性能と計算コストにどのように影響するかを体系的に評価することである。
本研究では,トランスフォーマー,マンバ状態空間,一方向LSTM,双方向LSTMの4つの配列モデリングアーキテクチャを比較検討した。
合計で396のモデルを複数のデータセット構成でトレーニングし、相対的なLevenshtein編集距離と統計的意義テストを用いて評価する。
変換器は、平均相対編集距離が0.111、次いでMamba(0.145)、mono-LSTM(0.186)、bi-LSTM(0.265)となる。
Mambaは計算コストを大幅に下げた競争精度を提供する。
文字レベルのトークン化は一般に性能を向上し、シーケンス長はTransformerの精度に無視できない実用的な影響を与え、MambaとTransformerは繰り返しモデルよりも強力なサンプル効率を示す。
全体として、Transformerは解析エラーを23.4%削減し、Mambaはデータや計算制約の下で強力な代替手段である。
これらの結果は, 表現選択, シーケンス長, サンプル効率の役割を明らかにし, 研究者や実践者に対して実践的なガイダンスを提供する。
関連論文リスト
- Trained Mamba Emulates Online Gradient Descent in In-Context Linear Regression [90.93281146423378]
Mambaは、Long-Sequence Modelingのための線形複雑性を持つ効率的なTransformer代替品である。
最近の実証研究は、Mambaのテキスト内学習(ICL)がTransformersと競合していることを示している。
本稿では,線形回帰 ICL タスクにおける Mamba のトレーニングダイナミクスについて検討する。
論文 参考訳(メタデータ) (2025-09-28T09:48:49Z) - DC-Mamber: A Dual Channel Prediction Model based on Mamba and Linear Transformer for Multivariate Time Series Forecasting [6.238490256097465]
現在の主流モデルは主にTransformerと新しいMambaをベースにしている。
DC-Mamber は、時系列予測のためのMamba と linear Transformer に基づく二重チャネル予測モデルである。
8つの公開データセットの実験では、DC-Mamberの既存のモデルよりも優れた精度が確認されている。
論文 参考訳(メタデータ) (2025-07-06T12:58:52Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - Sampling Foundational Transformer: A Theoretical Perspective [12.7600763629179]
本稿では,複数のデータモダリティを扱える基本サンプリング変換器(SFT)を提案する。
SFTは多くのベンチマークで競合する結果を得たが、他の非常に特殊なモデルに比べて推論が速い。
論文 参考訳(メタデータ) (2024-08-11T16:53:09Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Unlocking the Power of Patch: Patch-Based MLP for Long-Term Time Series Forecasting [0.0]
近年,Transformer アーキテクチャを改良し,長期連続予測タスクの有効性を実証する研究が進められている。
これらのモデルの有効性は, 適用されたパッチ機構に大きく寄与する。
LTSFタスクのための新しいシンプルなパッチベースコンポーネント(PatchMLP)を提案する。
論文 参考訳(メタデータ) (2024-05-22T12:12:20Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - Transformers for End-to-End InfoSec Tasks: A Feasibility Study [6.847381178288385]
私たちは2つの異なるInfoSecデータフォーマット、特にURLとPEファイルに対してトランスフォーマーモデルを実装します。
URLトランスフォーマーモデルは、高いパフォーマンスレベルに達するためには、異なるトレーニングアプローチが必要です。
提案手法は,PEファイルのベンチマークデータセット上で,確立されたマルウェア検出モデルに相容れない性能を示す。
論文 参考訳(メタデータ) (2022-12-05T23:50:46Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。