論文の概要: Intent-Driven Storage Systems: From Low-Level Tuning to High-Level Understanding
- arxiv url: http://arxiv.org/abs/2510.15917v1
- Date: Mon, 29 Sep 2025 12:07:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-26 16:57:26.444762
- Title: Intent-Driven Storage Systems: From Low-Level Tuning to High-Level Understanding
- Title(参考訳): インテント駆動ストレージシステム:低レベルチューニングから高レベル理解へ
- Authors: Shai Bergman, Won Wook Song, Lukas Cavigelli, Konstantin Berestizshevsky, Ke Zhou, Ji Zhang,
- Abstract要約: 既存のストレージシステムはワークロードインテントの可視性を欠き、現代的な大規模アプリケーションに適応する能力を制限する。
Intent-Driven Storage Systems (IDSS) は,大規模言語モデル(LLM)が非構造化信号からワークロードとシステム意図を推論する新しいパラダイムのビジョンである。
IDSSは、競合する要求に対する全体的な推論を提供し、ポリシーガードレール内の安全で効率的な決定を合成する。
- 参考スコア(独自算出の注目度): 9.203282718014021
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing storage systems lack visibility into workload intent, limiting their ability to adapt to the semantics of modern, large-scale data-intensive applications. This disconnect leads to brittle heuristics and fragmented, siloed optimizations. To address these limitations, we propose Intent-Driven Storage Systems (IDSS), a vision for a new paradigm where large language models (LLMs) infer workload and system intent from unstructured signals to guide adaptive and cross-layer parameter reconfiguration. IDSS provides holistic reasoning for competing demands, synthesizing safe and efficient decisions within policy guardrails. We present four design principles for integrating LLMs into storage control loops and propose a corresponding system architecture. Initial results on FileBench workloads show that IDSS can improve IOPS by up to 2.45X by interpreting intent and generating actionable configurations for storage components such as caching and prefetching. These findings suggest that, when constrained by guardrails and embedded within structured workflows, LLMs can function as high-level semantic optimizers, bridging the gap between application goals and low-level system control. IDSS points toward a future in which storage systems are increasingly adaptive, autonomous, and aligned with dynamic workload demands.
- Abstract(参考訳): 既存のストレージシステムはワークロードインテントの可視性を欠き、現代的な大規模データ集約型アプリケーションのセマンティクスに適応する能力を制限する。
この切断は脆いヒューリスティックと断片化されたサイロ最適化に繋がる。
これらの制約に対処するため,大規模言語モデル(LLM)が非構造化信号から作業負荷とシステム意図を推論し,適応的およびクロス層パラメータ再構成を導く,新たなパラダイムの構想であるIDSSを提案する。
IDSSは、競合する要求に対する全体的な推論を提供し、ポリシーガードレール内の安全で効率的な決定を合成する。
本稿では,LLMをストレージ制御ループに統合するための4つの設計原則を提案し,対応するシステムアーキテクチャを提案する。
FileBenchワークロードの初期結果は、IDSSがインテントを解釈し、キャッシュやプリフェッチなどのストレージコンポーネントの実行可能な構成を生成することで、最大2.45倍のIOPSを改善することができることを示している。
これらの結果は、ガードレールによって制約され、構造化ワークフローに埋め込まれた場合、LLMは高レベルのセマンティックオプティマイザとして機能し、アプリケーション目標と低レベルのシステム制御のギャップを埋める可能性があることを示唆している。
IDSSは、ストレージシステムが適応性が高く、自律的になり、動的なワークロード要求に適合する未来を指している。
関連論文リスト
- CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Apt-Serve: Adaptive Request Scheduling on Hybrid Cache for Scalable LLM Inference Serving [22.66354939370058]
Apt-Serveは、大規模言語モデル(LLM)推論サービスシステムにおける効果的なスループットを高めるために設計されたフレームワークである。
新たなハイブリッドキャッシュスキームでは、KVキャッシュとメモリ効率の高い隠れキャッシュを組み合わせることで、再利用可能な入力隠れ状態ベクタを実現し、バッチサイズを大きくし、要求を改善する。
Apt-Serveは,最先端の推論サービスシステムと比較して,スループットが最大8.8倍向上することを示す。
論文 参考訳(メタデータ) (2025-04-10T06:51:23Z) - AdaServe: Accelerating Multi-SLO LLM Serving with SLO-Customized Speculative Decoding [12.106234303559571]
本稿では,SLO-customized Speculative Decodingによる効率的なマルチSLOサービスを支援するために設計された,最初のサービスシステムであるAdaServeを紹介する。
AdaServeは制約付き最適化問題として機能するマルチSLOを定式化し、ハードウェア対応アルゴリズムを導入した。
システムスループットを最大化しつつ、復号速度のきめ細かい制御を可能にする推測-検証パイプラインを備えている。
論文 参考訳(メタデータ) (2025-01-21T14:15:01Z) - Dynamic Optimization of Storage Systems Using Reinforcement Learning Techniques [32.74305371783441]
本稿では,ストレージシステム構成を動的に最適化する新しい強化学習(RL)フレームワークであるRL-Storageを紹介する。
RL-Storageは、ワークロードの変動にリアルタイムで適応することにより、ストレージパフォーマンスを最適化するための堅牢でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-12-29T17:41:40Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - LLM4MSR: An LLM-Enhanced Paradigm for Multi-Scenario Recommendation [52.55639178180821]
マルチシナリオレコメンデーション(MSR)の研究は注目されており、すべてのシナリオのデータを使用してレコメンデーションのパフォーマンスを同時に改善している。
既存の手法では、不十分なシナリオ知識を統合し、パーソナライズされたクロスシナリオの嗜好を無視する傾向があり、それによってサブ最適パフォーマンスがもたらされる。
本稿では,これらのギャップを埋めるために,大規模言語モデル (LLM) 拡張パラダイム LLM4MSR を提案する。
論文 参考訳(メタデータ) (2024-06-18T11:59:36Z) - KML: Using Machine Learning to Improve Storage Systems [0.2810625954925814]
機械学習技術はパターンを学習し、それらから一般化し、最適なソリューションを可能にすることを約束する。
我々はKMLアーキテクチャのプロトタイプを開発し、最適な読み出しと読み出しサイズという2つの問題に適用する。
実験の結果、KMLはOSのリソースをほとんど消費せず、遅延を無視できるだけでなく、I/Oスループットを最大2.3倍または15倍改善できるパターンを学習できることがわかった。
論文 参考訳(メタデータ) (2021-11-22T21:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。