論文の概要: CICLAD: A Fast and Memory-efficient Closed Itemset Miner for Streams
- arxiv url: http://arxiv.org/abs/2007.01946v1
- Date: Fri, 3 Jul 2020 21:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:11:31.869566
- Title: CICLAD: A Fast and Memory-efficient Closed Itemset Miner for Streams
- Title(参考訳): ciclad:ストリーム用の高速でメモリ効率のよいクローズドアイテムセットマイナ
- Authors: Tomas Martin, Guy Francoeur, Petko Valtchev
- Abstract要約: 頻繁にクローズドアイテムセット(FCI)は効率的な第1ステップを実現するが、現在のFCIストリームマイナはリソース消費に最適ではない。
より優れたストレージ効率トレードオフを探すために,我々は,交差点をベースとしたスライディングウインドウFCI採掘機であるCicladを設計した。
- 参考スコア(独自算出の注目度): 8.827256219327841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mining association rules from data streams is a challenging task due to the
(typically) limited resources available vs. the large size of the result.
Frequent closed itemsets (FCI) enable an efficient first step, yet current FCI
stream miners are not optimal on resource consumption, e.g. they store a large
number of extra itemsets at an additional cost. In a search for a better
storage-efficiency trade-off, we designed Ciclad,an intersection-based
sliding-window FCI miner. Leveraging in-depth insights into FCI evolution, it
combines minimal storage with quick access. Experimental results indicate
Ciclad's memory imprint is much lower and its performances globally better than
competitor methods.
- Abstract(参考訳): データストリームからアソシエーションルールをマイニングすることは、(典型的には)利用可能なリソースが、結果のサイズよりも大きいため、難しい作業です。
頻繁にクローズドアイテムセット(FCI)は効率的な第1ステップを実現するが、現在のFCIストリームマイナーはリソース消費に最適ではない。
より優れたストレージ効率トレードオフを探すために,我々は,交差点をベースとしたスライディングウインドウFCI採掘機であるCicladを設計した。
FCIの進化に関する詳細な洞察を活用して、最小限のストレージと迅速なアクセスを組み合わせます。
実験の結果、cicladのメモリインプリントは、競合メソッドよりもずっと低く、世界中でパフォーマンスが良いことがわかった。
関連論文リスト
- Locret: Enhancing Eviction in Long-Context LLM Inference with Trained Retaining Heads [30.690302709678758]
Locretは、単一のNvidia 4090 GPU上でのLLM推論のためのフレームワークである。
推論中、チャンクされたプリフィルパターンとともに低重要キャッシュユニットを排除し、GPUのピークメモリ使用量を大幅に削減した。
我々の知る限り、Locretは単一のNvidia 4090 GPU上にLlama-3.1-8Bまたは同様のモデルをデプロイできる最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-02T17:59:52Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - Hierarchical Context Merging: Better Long Context Understanding for Pre-trained LLMs [61.40047491337793]
本稿では,大規模言語モデルの制約を克服する新しいトレーニングフリースキームである階層型cOntext MERging(HOMER)を提案する。
HomeRは、長いインプットを管理可能なチャンクに分割する、分別/対数アルゴリズムを使用する。
トークン削減技術がマージ毎に先行し、メモリ使用効率が保証される。
論文 参考訳(メタデータ) (2024-04-16T06:34:08Z) - Get More with LESS: Synthesizing Recurrence with KV Cache Compression for Efficient LLM Inference [78.65321721142624]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - FFSplit: Split Feed-Forward Network For Optimizing Accuracy-Efficiency
Trade-off in Language Model Inference [57.119047493787185]
本稿では、異なるハードウェア上で、モデルサイズを43.1%削減し、1.25sim1.56times$wall clock time speedupを無視できる精度低下で実現する方法を示す。
実際、本手法では、異なるハードウェア上で、モデルサイズを43.1%削減し、1.25sim1.56Times$wall clock time speedupを無視できる精度で実現している。
論文 参考訳(メタデータ) (2024-01-08T17:29:16Z) - CiFlow: Dataflow Analysis and Optimization of Key Switching for Homomorphic Encryption [2.704681057324485]
ホモモルフィック暗号化(HE)は、暗号化されたデータの計算を可能にするプライバシー保護計算技術である。
HEは極めて遅いため、実際のアプリケーションでは使用できない。
本稿では,そのデータフローを厳密に解析することでHE性能を向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T21:08:56Z) - Does Continual Learning Equally Forget All Parameters? [55.431048995662714]
連続学習(CL)における分散シフト(タスクやドメインシフトなど)は通常、ニューラルネットワークを壊滅的に忘れてしまう。
ニューラルネットワークのどのモジュールが、CL中のトレーニングダイナミクスを調査することによって忘れやすいかを検討する。
CL中に周期的にトリガされるFPFの1段階ごとのリプレイを完全に取り除き,わずか$k$で置き換える,より効率的でシンプルな手法を提案する。
論文 参考訳(メタデータ) (2023-04-09T04:36:24Z) - Carousel Memory: Rethinking the Design of Episodic Memory for Continual
Learning [19.260402028696916]
継続的な学習(CL)は、以前のタスクから学んだ知識を忘れずに、連続したタスクストリームから学習することを目的としている。
以前の研究では、新しい非i.d.データから学習しながら、過去の観測されたサンプルのサブセットを格納するエピソードメモリ(EM)を利用している。
メモリとストレージ間のサンプルを効率よく移行させることにより,過去の経験を保存し,忘れを軽減すべく,豊富なストレージを活用することを提案する。
論文 参考訳(メタデータ) (2021-10-14T11:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。