論文の概要: LogPrism: Unifying Structure and Variable Encoding for Effective Log Compression
- arxiv url: http://arxiv.org/abs/2601.17482v1
- Date: Sat, 24 Jan 2026 15:12:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.810227
- Title: LogPrism: Unifying Structure and Variable Encoding for Effective Log Compression
- Title(参考訳): LogPrism: 効率的なログ圧縮のための構造と可変エンコーディングの統合
- Authors: Yang Liu, Kaiming Zhang, Zhuangbin Chen, Jinyang Liu, Zibin Zheng,
- Abstract要約: parse-then-compress"パラダイムは、ログ解析と圧縮を独立した目的として扱うことにより、効率を制限します。
統一冗長エンコーディングによりギャップを埋めるフレームワークであるLogPrismを提案する。
16のベンチマークデータセットの実験では、LogPrismが新たな最先端を確立していることが確認されている。
- 参考スコア(独自算出の注目度): 41.26407915252864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The prevailing "parse-then-compress" paradigm in log compression fundamentally limits effectiveness by treating log parsing and compression as isolated objectives. While parsers prioritize semantic accuracy (i.e., event identification), they often obscure deep correlations between static templates and dynamic variables that are critical for storage efficiency. In this paper, we investigate this misalignment through a comprehensive empirical study and propose LogPrism, a framework that bridges the gap via unified redundancy encoding. Rather than relying on a rigid pre-parsing step, LogPrism dynamically integrates structural extraction with variable encoding by constructing a Unified Redundancy Tree (URT). This hierarchical approach effectively mines "structure+variable" co-occurrence patterns, capturing deep contextual redundancies while accelerating processing through pre-emptive pattern encoding. Extensive experiments on 16 benchmark datasets confirm that LogPrism establishes a new state-of-the-art. It achieves the highest compression ratio on 13 datasets, surpassing leading baselines by margins of 4.7% to 80.9%, while delivering superior throughput at 29.87 MB/s (1.68$\times$~43.04$\times$ faster than competitors). Moreover, when configured in single-archive mode to maximize global pattern discovery, LogPrism outperforms the best baseline by 19.39% in compression ratio while maintaining a 2.62$\times$ speed advantage.
- Abstract(参考訳): ログ圧縮における「パース・テン・圧縮」パラダイムは、ログ解析と圧縮を独立した目的として扱うことにより、効果を根本的に制限する。
パーサはセマンティックな精度(例えばイベント識別)を優先するが、静的テンプレートとストレージ効率にとって重要な動的変数の間の深い相関は、しばしば曖昧である。
本稿では,このミスアライメントを包括的実証研究を通じて検討し,統一冗長符号化によるギャップを埋めるフレームワークであるLogPrismを提案する。
厳密なプレパーシングステップに頼るのではなく、LogPrismはUnified Redundancy Tree (URT)を構築することで、構造抽出と可変エンコーディングを動的に統合する。
この階層的アプローチは、「構造+可変」な共起パターンを効果的にマイニングし、プリエンプティブなパターンエンコーディングによる処理を加速しながら、深いコンテキストの冗長性をキャプチャする。
16のベンチマークデータセットに対する大規模な実験により、LogPrismが新たな最先端のシステムを確立していることが確認された。
13データセットの圧縮率が最も高く、4.7%から80.9%のマージンを上回り、29.87MB/s(1.68$\times$~43.04$\times$)で優れたスループットを提供する。
さらに、グローバルなパターン発見を最大化するために単一階層モードで設定すると、LogPrismは2.62$\times$スピードの優位性を維持しながら、圧縮率19.39%で最高のベースラインを上回ります。
関連論文リスト
- DeLog: An Efficient Log Compression Framework with Pattern Signature Synthesis [30.690382753027137]
新規なログ圧縮機はパターン署名合成機構を実装し,効率的なパターンベースグルーピングを実現する。
16のパブリックデータセットと10のプロダクションデータセットで、DeLogは最先端の圧縮比とスピードを達成する。
論文 参考訳(メタデータ) (2026-01-21T15:26:09Z) - SimpleMem: Efficient Lifelong Memory for LLM Agents [73.74399447715052]
セマンティックロスレス圧縮に基づく効率的なメモリフレームワークSimpleMemを紹介する。
本稿では,情報密度とトークン利用量の最大化を目的とした3段階パイプラインを提案する。
ベンチマークデータセットを用いた実験により,提案手法は精度,検索効率,推論コストにおいて,ベースラインアプローチを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2026-01-05T21:02:49Z) - Rethinking Autoregressive Models for Lossless Image Compression via Hierarchical Parallelism and Progressive Adaptation [75.58269386927076]
自己回帰(AR)モデルは、しばしば計算コストの禁止のために非現実的に除外される。
この研究は、階層的並列性とプログレッシブ適応に基づくフレームワークを導入して、このパラダイムを再考する。
各種データセット(自然,衛星,医療)の実験により,本手法が新たな最先端圧縮を実現することを確認した。
論文 参考訳(メタデータ) (2025-11-14T06:27:58Z) - DeepPrune: Parallel Scaling without Inter-trace Redundancy [53.62015294143274]
並列推論トレースの80%以上は、実質的な無駄な計算を代表して、同じ最終回答をもたらす。
動的プルーニングによる効率的な並列スケーリングを実現する新しいフレームワークであるDeepPruneを提案する。
我々の研究は並列推論のための新しい標準を確立し、高性能推論をより効率的にする。
論文 参考訳(メタデータ) (2025-10-09T17:24:54Z) - OjaKV: Context-Aware Online Low-Rank KV Cache Compression with Oja's Rule [54.37983890753086]
我々は,戦略的ハイブリッドストレージポリシとオンラインサブスペース適応を統合したフレームワークであるOjaKVを紹介する。
OjaKVは、重要かつ最新のトークンをフルランクで保存し、注意のために高忠実なアンカーを維持している。
オンライン主成分分析のためのOjaのアルゴリズムを用いて、プロジェクションベースを漸進的に適応させることにより、低ランク圧縮を適用する。
論文 参考訳(メタデータ) (2025-09-25T21:42:27Z) - Efficient Token Compression for Vision Transformer with Spatial Information Preserved [59.79302182800274]
トーケン圧縮は、トランスモデルの計算およびメモリ要求の低減に不可欠である。
本稿では,Prune と Merge という,効率的なハードウェア互換のトークン圧縮手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T14:23:18Z) - LeCo: Lightweight Compression via Learning Serial Correlations [9.108815508920882]
軽量データ圧縮は、カラムストアが分析クエリのパフォーマンスを向上する鍵となる技術である。
本稿では,機械学習を用いて値列内のシリアル冗長性を自動的に除去するフレームワークであるLeCo(Learned Compression)を提案する。
我々は、Arrow列実行エンジンのデータ解析クエリで最大5.2倍のスピードで、RocksDBのスループットが16%向上するのを観察した。
論文 参考訳(メタデータ) (2023-06-27T10:46:36Z) - Sequential Encryption of Sparse Neural Networks Toward Optimum
Representation of Irregular Sparsity [9.062897838978955]
固定固定型暗号アーキテクチャ/アルゴリズムについて検討し, きめ細かいプルーニング法をサポートする。
本提案の圧縮方式はトランスとResNet-50の最大圧縮比を達成できることを実証した。
論文 参考訳(メタデータ) (2021-05-05T05:14:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。