論文の概要: Space-Control: Process-Level Isolation for Sharing CXL-based Disaggregated Memory
- arxiv url: http://arxiv.org/abs/2603.06951v1
- Date: Fri, 06 Mar 2026 23:56:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.489478
- Title: Space-Control: Process-Level Isolation for Sharing CXL-based Disaggregated Memory
- Title(参考訳): Space-Control: CXLベースの分散メモリ共有のためのプロセスレベル分離
- Authors: Kaustav Goswami, Sean Peisert, Venkatesh Akella, Jason Lowe-Power,
- Abstract要約: Space-Control(スペース・コントロル)は、ハードウェア・ソフトウェアの共同設計であり、共有された非集約メモリに対してきめ細かいプロセスレベルの分離を提供する。
我々の設計では、最大127プロセスのシミュレーションツールキット(SST)ベースのCXLモデルが可能であり、Space-Controlは最低性能の3.3%のオーバーヘッドを発生させる。
- 参考スコア(独自算出の注目度): 2.3612458921097246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory disaggregation via Compute Express Link (CXL) enables multiple hosts to share remote memory, improving utilization for data-intensive workloads. Today, virtual memory enables process-level isolation on a host and CXL enables host-level isolation. This creates a critical security gap: the absence of process-level memory isolation in shared disaggregated memory. We present Space-Control, a hardware-software co-design that provides fine-grained, process-level isolation for shared disaggregated memory. Space-Control authenticates execution context in the hardware and enforces access control on every memory access and amortizes lookup times with a small cache. Our design allows up to 127 processes Simulation Toolkit (SST) based CXL model, Space-Control incurs minimal performance overhead of 3.3%, making shared disaggregated memory isolation practical.
- Abstract(参考訳): Compute Express Link (CXL)によるメモリのデアグリゲーションにより、複数のホストがリモートメモリを共有でき、データ集約型ワークロードの利用性が向上する。
今日では、仮想メモリはホスト上でプロセスレベルの分離を可能にし、CXLはホストレベルの分離を可能にしている。
これにより、プロセスレベルのメモリアイソレーションが共有された非集約メモリに存在しないという、重要なセキュリティギャップが生じる。
ハードウェアソフトウェアの共同設計であるSpace-Controlは、共有分散メモリに対して、きめ細かいプロセスレベルの分離を提供する。
Space-Controlはハードウェア内の実行コンテキストを認証し、メモリアクセス毎にアクセス制御を強制し、小さなキャッシュでルックアップ時間を短縮する。
我々の設計では、最大127プロセスのシミュレーションツールキット(SST)ベースのCXLモデルが可能であり、Space-Controlは3.3%の最小パフォーマンスオーバーヘッドを発生させ、共有の非凝集メモリ分離を実用的なものにしている。
関連論文リスト
- Out of the Memory Barrier: A Highly Memory Efficient Training System for LLMs with Million-Token Contexts [68.79341332280062]
長いコンテキストでの大規模言語モデル(LLM)のトレーニングは、トレーニング時間ではなく、GPUメモリの異常なオーバーヘッドによって厳しく制限される。
この障壁に直面するメモリ効率の高いトレーニングシステムOOMBを紹介します。
本手法では,オンザフライアクティベーション・リコンピュテーションを備えたチャンク・リカレント・トレーニング・フレームワークを用いて,一定のアクティベーションメモリフットプリントを維持する。
論文 参考訳(メタデータ) (2026-02-02T13:52:40Z) - LightMem: Lightweight and Efficient Memory-Augmented Generation [72.21680105265824]
我々は、メモリシステムの性能と効率のバランスをとるLightMemという新しいメモリシステムを紹介した。
人間の記憶のアトキンソン・シフリンモデルにインスパイアされたLightMemは、メモリを3つの相補的なステージにまとめる。
GPTとQwenのバックボーンを用いたLongMemEvalの実験では、LightMemは高いベースライン(最大10.9%のゲイン)を上回り、トークンの使用量を最大117倍に削減している。
論文 参考訳(メタデータ) (2025-10-21T17:58:17Z) - NanoZone: Scalable, Efficient, and Secure Memory Protection for Arm CCA [4.597444093276292]
Arm Confidential Computing Architecture (CCA)は現在、CVM(Confidential Virtual Machine)全体の粒度で分離されている。
我々は、CCAを3層ゾーンモデルで拡張し、単一のプロセス内で無制限に軽量な分離ドメインを生成します。
ドメイン・スウィッチの悪用をブロックするために、高速なユーザレベルのCode-Pointer Integrity(CPI)メカニズムも追加します。
論文 参考訳(メタデータ) (2025-06-08T07:55:48Z) - BitStack: Any-Size Compression of Large Language Models in Variable Memory Environments [53.71158537264695]
大規模言語モデル(LLM)は、多くのアプリケーションに革命をもたらしたが、ローカルデバイスにおけるメモリ制限により、その展開は依然として困難である。
textbfBitStackは,メモリ使用量とモデル性能のトレードオフを可能にする,新しいトレーニング不要な重み圧縮手法である。
論文 参考訳(メタデータ) (2024-10-31T13:26:11Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - TME-Box: Scalable In-Process Isolation through Intel TME-MK Memory Encryption [11.543384661361232]
クラウドコンピューティングは、単一のプロセス内でワークロードを実行することでパフォーマンスを最適化するために、プロセス内分離に依存している。
既存のプロセス内分離メカニズムは、現代的なクラウド要件には適していない。
本稿では,コモディティx86マシン上で細粒度でスケーラブルなサンドボックスを実現する,新しい分離技術であるTME-Boxを提案する。
論文 参考訳(メタデータ) (2024-07-15T14:09:00Z) - vAttention: Dynamic Memory Management for Serving LLMs without PagedAttention [8.20523619534105]
PagedAttention は LLM サービスシステムにおける動的メモリ割り当ての一般的なアプローチである。
仮想メモリにおけるKVキャッシュの整合性を保ちながら、物理メモリのフラグメンテーションを軽減するアプローチとして、vAttentionを提案する。
全体として、vAttentionはPagedAttentionに代わるシンプルでポータブルでパフォーマンスの高いものだ。
論文 参考訳(メタデータ) (2024-05-07T16:00:32Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。