論文の概要: LSM Trees in Adversarial Environments
- arxiv url: http://arxiv.org/abs/2502.08832v2
- Date: Fri, 14 Feb 2025 23:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 10:45:19.149519
- Title: LSM Trees in Adversarial Environments
- Title(参考訳): 敵対的環境におけるLSM木
- Authors: Hayder Tirmazi,
- Abstract要約: 我々は、読み取り性能の大幅な低下につながる敵のワークロードに焦点を当てる。
我々の評価では、人気のあるLSMストアの読み込み遅延を最大800%まで増加させています。
私たちは、LevelDBとRocksDBという2つの人気のあるLSMストアに逆レジリエンスを実装しています。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Log Structured Merge (LSM) Tree is a popular choice for key-value stores that focus on optimized write throughput while maintaining performant, production-ready read latencies. To optimize read performance, LSM stores rely on a probabilistic data structure called the Bloom Filter (BF). In this paper, we focus on adversarial workloads that lead to a sharp degradation in read performance by impacting the accuracy of BFs used within the LSM store. Our evaluation shows up to $800\%$ increase in the read latency of lookups for popular LSM stores. We define adversarial models and security definitions for LSM stores. We implement adversary resilience into two popular LSM stores, LevelDB and RocksDB. We use our implementations to demonstrate how performance degradation under adversarial workloads can be mitigated.
- Abstract(参考訳): Log Structured Merge (LSM) Treeは、パフォーマンスが高くプロダクション対応の読み込みレイテンシを維持しながら、最適化された書き込みスループットにフォーカスしたキーバリューストアで一般的な選択である。
読み取り性能を最適化するために、LSMストアはBloom Filter (BF)と呼ばれる確率的データ構造に依存している。
本稿では,LSMストア内で使用されるBFの精度に影響を与えることにより,読み出し性能の急激な低下につながる敵のワークロードに着目した。
我々の評価では、人気のあるLSMストアの読み込み遅延を最大800\%$で増加させています。
LSMストアの敵モデルとセキュリティ定義を定義する。
私たちは、LevelDBとRocksDBという2つの人気のあるLSMストアに逆レジリエンスを実装しています。
当社の実装は、敵のワークロードによるパフォーマンス劣化を軽減できることを示すために使用しています。
関連論文リスト
- The Early Bird Catches the Leak: Unveiling Timing Side Channels in LLM Serving Systems [26.528288876732617]
新たなタイミング側チャネルのセットを利用して、機密システムプロンプトと他のユーザによって発行された情報を推測することができる。
これらの脆弱性は、従来のコンピューティングシステムで観察されたセキュリティ上の問題と類似している。
キャッシュ内の共有プロンプトプレフィックスを効率的に回収するトークン・バイ・トークン検索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-30T06:55:00Z) - LearnedKV: Integrating LSM and Learned Index for Superior Performance on SSD [0.6774462529828165]
本稿では,LSMツリーとLearted Indexをシームレスに統合した新しいキーバリューストアであるLeartedKVを紹介する。
以上の結果から,LeartedKVは読み出し要求の最大1.32倍,書き込み性能の最大1.31倍で,最先端のソリューションよりも優れていた。
論文 参考訳(メタデータ) (2024-06-27T05:08:09Z) - ShadowLLM: Predictor-based Contextual Sparsity for Large Language Models [67.97667465509504]
我々は,LLMの挙動を隠蔽し,より親密なパターンを強制できる新しい予測器であるShadowLLMを開発した。
ShadowLLMは最先端のDejaVuフレームワーク上で最大20%のスピードアップを達成する。
論文 参考訳(メタデータ) (2024-06-24T13:41:08Z) - MoRA: High-Rank Updating for Parameter-Efficient Fine-Tuning [105.11844150736536]
低ランク適応は、大規模言語モデルのためのパラメータ効率の良い微調整法として人気がある。
トレーニング可能なパラメータ数を同じ数に保ちながら、高階更新を実現するために2乗行列を用いるMoRAと呼ばれる新しい手法を提案する。
本手法はメモリ集約型タスクではLoRAより優れ,他のタスクでは同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-20T15:48:32Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,大規模言語モデル(LLM)の拡張手法であるMemLLMを紹介する。
実験の結果, 言語モデリング, 特に知識集約型タスクにおいて, MemLLMはLLMの性能と解釈可能性を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Optimizing LLM Queries in Relational Workloads [58.254894049950366]
本稿では,LLMをリレーショナルクエリ内で実行する解析処理に対して,LLM(Large Language Models)推論を最適化する方法を示す。
私たちはこれらの最適化をApache Sparkで実装し、vLLMをバックエンドとして提供しています。
実データセット上の多様なLLMベースのクエリのベンチマークで、エンドツーエンドのレイテンシを最大4.4倍改善する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - No-Skim: Towards Efficiency Robustness Evaluation on Skimming-based
Language Models [27.469321590884903]
本研究では,スキー用LLMの所有者が加速スキームのロバスト性を理解し,測定するのを支援するため,No-Skimを提案する。
具体的には,文字レベルおよびトークンレベルにおける最小かつ無意味な摂動を探索し,残りのトークン比を十分に増大させる逆入力を生成する。
最悪の場合、No-Skimが発見した摂動はLLMのランニングコストを平均145%以上増加させる。
論文 参考訳(メタデータ) (2023-12-15T02:42:05Z) - Learning to Optimize LSM-trees: Towards A Reinforcement Learning based
Key-Value Store for Dynamic Workloads [16.898360021759487]
RusKeyは、以下の新機能を備えたキーバリューストアです。
RusKeyは、LSMツリー構造をオンラインでオーケストレーションする最初の試みである。
FLSMツリーと呼ばれる新しいLSMツリーは、異なるコンパクト化ポリシー間の効率的な移行を目的としている。
論文 参考訳(メタデータ) (2023-08-14T09:00:58Z) - Salient Span Masking for Temporal Understanding [15.75700993677129]
Salient Span Masking (SSM) は、クローズドブックの質問応答性能を改善する効果的な戦略であることを示している。
SSMを時間的タスクの観点から検討し、様々な時間的表現の優れた表現を学習することが重要である。
論文 参考訳(メタデータ) (2023-03-22T18:49:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。