論文の概要: Optimized Learned Count-Min Sketch
- arxiv url: http://arxiv.org/abs/2512.12252v1
- Date: Sat, 13 Dec 2025 09:28:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.185608
- Title: Optimized Learned Count-Min Sketch
- Title(参考訳): 学習した最小限のスケッチを最適化する
- Authors: Kyosuke Nishishita, Atsuki Sato, Yusuke Matsui,
- Abstract要約: Count-Min Sketch (CMS) は、マルチセットの要素の周波数を推定するためのメモリ効率のよいデータ構造である。
我々は、入力ドメインを分割し、各パーティションをそれぞれのCMSインスタンスに割り当てる最適化されたCount-Min Sketch (OptLCMS)を提案する。
OptLCMSはより高速に構築され、耐え難いエラー確率が低くなり、LCMSの推定精度と一致する。
- 参考スコア(独自算出の注目度): 18.84242750510806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Count-Min Sketch (CMS) is a memory-efficient data structure for estimating the frequency of elements in a multiset. Learned Count-Min Sketch (LCMS) enhances CMS with a machine learning model to reduce estimation error under the same memory usage, but suffers from slow construction due to empirical parameter tuning and lacks theoretical guarantees on intolerable error probability. We propose Optimized Learned Count-Min Sketch (OptLCMS), which partitions the input domain and assigns each partition to its own CMS instance, with CMS parameters analytically derived for fixed thresholds, and thresholds optimized via dynamic programming with approximate feasibility checks. This reduces the need for empirical validation, enabling faster construction while providing theoretical guarantees under these assumptions. OptLCMS also allows explicit control of the allowable error threshold, improving flexibility in practice. Experiments show that OptLCMS builds faster, achieves lower intolerable error probability, and matches the estimation accuracy of LCMS.
- Abstract(参考訳): Count-Min Sketch (CMS) は、マルチセットの要素の周波数を推定するためのメモリ効率のよいデータ構造である。
Learned Count-Min Sketch (LCMS)は、機械学習モデルによるCMSを強化し、同じメモリ使用時の推定誤差を低減するが、経験的パラメータチューニングによる遅い構成に悩まされ、耐え難いエラー確率に関する理論的保証が欠如している。
入力ドメインを分割し,各パーティションを自身のCMSインスタンスに割り当てるOptLCMS(Optimized Learned Count-Min Sketch)を提案する。
これにより、経験的検証の必要性が軽減され、これらの仮定の下で理論的保証を提供しながら、より高速な構築が可能になる。
OptLCMSはまた、許容可能なエラーしきい値の明示的な制御を可能にし、実際には柔軟性を改善している。
実験により, OptLCMSはより高速に構築され, 耐え難いエラー確率が低くなり, LCMSの推定精度が一致した。
関連論文リスト
- Sample-aware Adaptive Structured Pruning for Large Language Models [14.605017410864583]
本研究では,大規模言語モデル(LLM)のためのサンプル対応型構造化プルーニングフレームワークであるAdaPrunerを紹介する。
特に、AdaPrunerは構造化プルーニング解空間を構築して、LLMから冗長パラメータを効果的に除去する。
20%のプルーニング比で、AdaPrunerでプルーニングされたモデルは、未プルーニングモデルのパフォーマンスの97%を維持している。
論文 参考訳(メタデータ) (2025-03-08T12:00:21Z) - Sparse Gradient Compression for Fine-Tuning Large Language Models [58.44973963468691]
ダウンストリームタスクのための微調整された大型言語モデル(LLM)は、広く利用されていることと、オープンソースモデルの利用が増加しているために、ますます重要になっている。
微調整に伴う高メモリコストは、特にモデルのサイズが大きくなるにつれて大きな課題である。
これらの制約に対処するためにスパース圧縮勾配(SGC)を提案する。
論文 参考訳(メタデータ) (2025-02-01T04:18:28Z) - Pruning Large Language Models to Intra-module Low-rank Architecture with Transitional Activations [21.229296254354878]
本稿では,タスクに依存しない構造化プルーニング手法と,コンパクトなTransformerアーキテクチャ設計を提案する。
提案手法はTransActと呼ばれ,MHA(Multi-head attention)およびMLP(Multi-layer perceptron)モジュール内の遷移活性化を低減する。
その結果, 効率と性能の両面から, 高い圧縮率で提案手法の最適性を検証することができた。
論文 参考訳(メタデータ) (2024-07-08T07:45:38Z) - Improving Count-Mean Sketch as the Leading Locally Differentially Private Frequency Estimator for Large Dictionaries [0.0]
パラメータの異なるプライベートなCount-Mean Sketch(CMS)アルゴリズムを再検討する。
摂動法としてランダム化応答(RR)を用いてCMSを最適化する。
RRで最適化されたCMSは、最悪の平均二乗誤差を減らすために、他の既知の摂動とCMSの変種より優れていることを示す。
論文 参考訳(メタデータ) (2024-06-06T06:55:08Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。