論文の概要: StorageXTuner: An LLM Agent-Driven Automatic Tuning Framework for Heterogeneous Storage Systems
- arxiv url: http://arxiv.org/abs/2510.25017v1
- Date: Tue, 28 Oct 2025 22:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.815345
- Title: StorageXTuner: An LLM Agent-Driven Automatic Tuning Framework for Heterogeneous Storage Systems
- Title(参考訳): StorageXTuner: 異種ストレージシステムのためのLLMエージェント駆動自動チューニングフレームワーク
- Authors: Qi Lin, Zhenyu Zhang, Viraj Thakkar, Zhenjie Sun, Mai Zheng, Zhichao Cao,
- Abstract要約: ヒューリスティックとMLチューニングは、しばしばシステム固有のものであり、手動のグルーを必要とし、変更の下で劣化する。
最近のLLMベースのアプローチは、チューニングをシングルショットのシステム固有のタスクとして扱うのに役立つ。
ヘテロジニアスストレージエンジンのためのLLMエージェント駆動自動チューニングフレームワークであるStorageXTunerを提案する。
プロトタイプを実装してRocksDB, LevelDB, CacheLib, InnoDBでYCSB, MixGraph, TPC-H/Cで評価する。
- 参考スコア(独自算出の注目度): 9.148071923560414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatically configuring storage systems is hard: parameter spaces are large and conditions vary across workloads, deployments, and versions. Heuristic and ML tuners are often system specific, require manual glue, and degrade under changes. Recent LLM-based approaches help but usually treat tuning as a single-shot, system-specific task, which limits cross-system reuse, constrains exploration, and weakens validation. We present StorageXTuner, an LLM agent-driven auto-tuning framework for heterogeneous storage engines. StorageXTuner separates concerns across four agents - Executor (sandboxed benchmarking), Extractor (performance digest), Searcher (insight-guided configuration exploration), and Reflector (insight generation and management). The design couples an insight-driven tree search with layered memory that promotes empirically validated insights and employs lightweight checkers to guard against unsafe actions. We implement a prototype and evaluate it on RocksDB, LevelDB, CacheLib, and MySQL InnoDB with YCSB, MixGraph, and TPC-H/C. Relative to out-of-the-box settings and to ELMo-Tune, StorageXTuner reaches up to 575% and 111% higher throughput, reduces p99 latency by as much as 88% and 56%, and converges with fewer trials.
- Abstract(参考訳): パラメータ空間が大きく、ワークロード、デプロイメント、バージョンによって条件が異なります。
ヒューリスティックとMLチューナーはシステム固有のものが多く、手動グルーを必要とする。
最近のLLMベースのアプローチは、チューニングをシングルショットでシステム固有のタスクとして扱うのに役立ち、システム間の再利用、探索の制約、検証の弱さを制限します。
ヘテロジニアスストレージエンジンのためのLLMエージェント駆動自動チューニングフレームワークであるStorageXTunerを提案する。
StorageXTunerは、Executor(サンドボックス付きベンチマーク)、Extractor(パフォーマンスダイジェスト)、Searcher(インサイトガイド付き構成探索)、Reflector(インサイト生成と管理)という4つのエージェント間の懸念を分離する。
このデザインは、洞察駆動のツリーサーチと階層メモリを結合し、経験的に検証されたインサイトを促進し、安全でないアクションを防ぐために軽量チェッカーを使用する。
プロトタイプを実装してRocksDB、LevelDB、CacheLib、MySQL InnoDBでYCSB、MixGraph、TPC-H/Cで評価します。
外部設定とELMo-Tuneとは対照的に、StorageXTunerは最大575%と111%高いスループットに達し、p99レイテンシを最大88%と56%削減し、より少ないトライアルで収束する。
関連論文リスト
- Small Language Models for Agentic Systems: A Survey of Architectures, Capabilities, and Deployment Trade offs [0.10742675209112619]
小型言語モデル(SLM: 1-12B パラム、時には 20B まで)は十分であり、エージェント処理に優れていることが多い。
オープンおよびプロプライエタリなSLMにまたがって最近のエビデンスを合成し、近代的な評価に結び付ける。
本研究では,不確実性を考慮したルーティングと検証器カスケードを用いたSLMフォールバックシステムを定式化し,実生産目標を反映したエンジニアリングメトリクスを提案する。
論文 参考訳(メタデータ) (2025-10-04T15:48:04Z) - Intent-Driven Storage Systems: From Low-Level Tuning to High-Level Understanding [9.203282718014021]
既存のストレージシステムはワークロードインテントの可視性を欠き、現代的な大規模アプリケーションに適応する能力を制限する。
Intent-Driven Storage Systems (IDSS) は,大規模言語モデル(LLM)が非構造化信号からワークロードとシステム意図を推論する新しいパラダイムのビジョンである。
IDSSは、競合する要求に対する全体的な推論を提供し、ポリシーガードレール内の安全で効率的な決定を合成する。
論文 参考訳(メタデータ) (2025-09-29T12:07:40Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - LoRA-Guard: Parameter-Efficient Guardrail Adaptation for Content Moderation of Large Language Models [15.900125475191958]
大規模言語モデル(LLM)のコンテンツモデレーションのための安全アライメントの代替としてガードレールが登場した。
LLMとガードレールモデル間の知識共有に依存するパラメータ効率の高いガードレール適応法であるLoRA-Guardを導入する。
LoRA-Guardは100-1000倍のパラメータオーバヘッドで既存の手法より優れ、精度を保ちながらオンデバイスコンテンツのモデレーションを実現している。
論文 参考訳(メタデータ) (2024-07-03T10:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。