論文の概要: H$_2$O$_2$RAM: A High-Performance Hierarchical Doubly Oblivious RAM
- arxiv url: http://arxiv.org/abs/2409.07167v1
- Date: Wed, 11 Sep 2024 10:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 20:02:24.910107
- Title: H$_2$O$_2$RAM: A High-Performance Hierarchical Doubly Oblivious RAM
- Title(参考訳): H$_2$O$_2$RAM:高性能階層型2倍のRAM
- Authors: Leqian Zheng, Zheng Zhang, Wentao Dong, Yao Zhang, Ye Wu, Cong Wang,
- Abstract要約: ORAM (Oblivious RAM) とTrusted Execution Environments (TEE) は、その相補的な性質から多くの現実世界のアプリケーションを発見した。
我々は、高性能階層型O$RAM(H$O$RAM)を構築するために、新しい効率の悪いコンポーネントをいくつか導入する。
その結果、H$O$RAMは実行時間を最大103$倍に削減し、ステート・オブ・テクト・ソリューションと比較してメモリ使用量を5sim44$倍に削減した。
- 参考スコア(独自算出の注目度): 14.803814604985957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The combination of Oblivious RAM (ORAM) with Trusted Execution Environments (TEE) has found numerous real-world applications due to their complementary nature. TEEs alleviate the performance bottlenecks of ORAM, such as network bandwidth and roundtrip latency, and ORAM provides general-purpose protection for TEE applications against attacks exploiting memory access patterns. The defining property of this combination, which sets it apart from traditional ORAM designs, is its ability to ensure that memory accesses, both inside and outside of TEEs, are made oblivious, thus termed doubly oblivious RAM (O$_2$RAM). Efforts to develop O$_2$RAM with enhanced performance are ongoing. In this work, we propose H$_2$O$_2$RAM, a high-performance doubly oblivious RAM construction. The distinguishing feature of our approach, compared to the existing tree-based doubly oblivious designs, is its first adoption of the hierarchical framework that enjoys inherently better data locality and parallelization. While the latest hierarchical solution, FutORAMa, achieves concrete efficiency in the classic client-server model by leveraging a relaxed assumption of sublinear-sized client-side private memory, adapting it to our scenario poses challenges due to the conflict between this relaxed assumption and our doubly oblivious requirement. To this end, we introduce several new efficient oblivious components to build a high-performance hierarchical O$_2$RAM (H$_2$O$_2$RAM). We implement our design and evaluate it on various scenarios. The results indicate that H$_2$O$_2$RAM reduces execution time by up to $\sim 10^3$ times and saves memory usage by $5\sim44$ times compared to state-of-the-art solutions.
- Abstract(参考訳): Oblivious RAM (ORAM) とTrusted Execution Environments (TEE) の組み合わせは、その相補的な性質から多くの現実世界の応用を見出した。
TEEは、ネットワーク帯域幅やラウンドトリップレイテンシなどのORAMのパフォーマンスボトルネックを緩和し、ORAMは、メモリアクセスパターンを悪用する攻撃に対して、TEEアプリケーションに対する汎用的な保護を提供する。
この組み合わせの定義特性は、従来のORAM設計と異なり、TEEの内部と外部の両方のメモリアクセスが曖昧にされ、O$2$RAM(英語版)と呼ばれることを保証する能力である。
性能を向上したO$_2$RAMの開発が進行中である。
本稿では,H$_2$O$_2$RAMを提案する。
我々のアプローチの特徴は、既存のツリーベースの2つの曖昧な設計と比較して、本質的により良いデータのローカリティと並列化を享受する階層型フレームワークを初めて採用したことです。
最新の階層型ソリューションであるFutORAMaは、サブリニアサイズのクライアントサイドプライベートメモリの緩やかな仮定を利用して、古典的なクライアントサーバモデルの具体的な効率を実現しています。
そこで我々は,高性能な階層型O$_2$RAM(H$_2$O$_2$RAM)を構築するために,新しい効率の悪いコンポーネントをいくつか導入する。
設計を実装し,様々なシナリオで評価する。
その結果、H$_2$O$_2$RAMは実行時間を最大$\sim 10^3$倍に削減し、最先端のソリューションと比較してメモリ使用量を5\sim44$倍に削減した。
関連論文リスト
- FRUGAL: Memory-Efficient Optimization by Reducing State Overhead for Scalable Training [51.39495282347475]
我々は、新しいメモリ効率最適化フレームワークであるtextbfF$ull-$textbfR$ank $textbfU$pdates with $textbfG$r$textbfA$dient sp$textbfL$ittingを紹介します。
当社のフレームワークは,GaLoreやBAdamなど,さまざまな低ランク更新選択技術と統合することが可能です。
論文 参考訳(メタデータ) (2024-11-12T14:41:07Z) - Palermo: Improving the Performance of Oblivious Memory using Protocol-Hardware Co-Design [13.353250150074066]
ORAM(Oblivious RAM)はメモリアクセスパターンを隠蔽し、攻撃者が機密情報を発見できないようにしてデータのプライバシを高める。
ORAMの性能は、セキュリティと効率のトレードオフによって制限されることが多い。
本稿では,ORAMの性能向上のためのプロトコルとハードウェアの共同設計であるPalermoについて述べる。
論文 参考訳(メタデータ) (2024-11-08T08:31:12Z) - Optimal Offline ORAM with Perfect Security via Simple Oblivious Priority Queues [0.0]
我々は,メモリアクセスのシーケンスを事前に把握している,いわゆるオフラインORAMについて検討する。
我々は、時間フォワード処理により、不要な優先度待ち行列から完全なセキュリティを備えた、最初の最適オフラインORAMを得る。
我々の構築に基づいて、我々はまた、不明瞭で完全にセキュアな構成の効率的な外部メモリインスタンス化を提示する。
論文 参考訳(メタデータ) (2024-09-18T14:31:33Z) - B'MOJO: Hybrid State Space Realizations of Foundation Models with Eidetic and Fading Memory [91.81390121042192]
我々はB'MOJOと呼ばれるモデル群を開発し、構成可能なモジュール内で理想的メモリと暗黙的メモリをシームレスに結合する。
B'MOJOのイデオティックメモリとフェードメモリを変調する能力は、32Kトークンまでテストされた長いシーケンスの推論をより良くする。
論文 参考訳(メタデータ) (2024-07-08T18:41:01Z) - HiRE: High Recall Approximate Top-$k$ Estimation for Efficient LLM
Inference [68.59839755875252]
HiREは2つの新しいコンポーネントから構成される: (i) (i) (i) (i) (i) (i) (i) (i) (i) (i) (ii) DA-TOP-$k$: 効率的なマルチデバイス近似トップ-k$演算子) (i) (i) (i) (i) (i) (i) (i) DA-TOP-$k$演算子) 。
我々は、10億のパラメータモデルにおいて、HiREがソフトマックスとフィードフォワード層の両方に適用され、ほぼ一致した事前学習と下流の精度を実現し、1台のTPUv5eデバイスで1.47Times$の推論遅延を高速化することを示した。
論文 参考訳(メタデータ) (2024-02-14T18:04:36Z) - Single Round-trip Hierarchical ORAM via Succinct Indices [5.437298646956505]
ランクORAMは1回の通信でデータを取得することができる。
emphcompressedクライアント側データ構造は、暗黙的に、各要素の位置をサーバに格納する。
論文 参考訳(メタデータ) (2022-08-16T01:15:26Z) - Efficient Deep Learning Using Non-Volatile Memory Technology [12.866655564742889]
ディープラーニング(DL)アプリケーションのためのアーキテクチャにおいて、NVMベースのキャッシュを特徴付け、モデル化し、分析するための包括的なフレームワークであるDeepNVM++を紹介します。
アイソ容量の場合、STT-MRAMとSOT-MRAMは、従来のキャッシュと比較して最大3.8倍および4.7倍のエネルギー遅延生成物(EDP)と2.4倍および2.8倍の領域還元を提供する。
DeepNVM++ は STT-/SOT-MRAM 技術で実証されており、最後のレベルキャッシュのための NVM 技術のキャラクタリゼーション、モデリング、分析に使用することができる。
論文 参考訳(メタデータ) (2022-06-27T19:27:57Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - DeepNVM++: Cross-Layer Modeling and Optimization Framework of
Non-Volatile Memories for Deep Learning [11.228806840123084]
スピントランスファートルク磁気ランダムアクセスメモリ(STT-MRAM)やスピン軌道トルク磁気ランダムアクセスメモリ(SOT-MRAM)のような非揮発性メモリ(NVM)技術は、従来の技術に比べて大きな利点がある。
本研究では、ディープラーニング(DL)アプリケーションにおけるNVMベースのキャッシュを特徴づけ、モデル化し、分析するフレームワークであるDeepNVM++を紹介します。
論文 参考訳(メタデータ) (2020-12-08T16:53:25Z) - Memformer: A Memory-Augmented Transformer for Sequence Modeling [55.780849185884996]
本稿では、シーケンスモデリングのための効率的なニューラルネットワークであるMemformerを紹介する。
我々のモデルは長いシーケンスを処理する際に線形時間複雑性と一定メモリ空間複雑性を実現する。
論文 参考訳(メタデータ) (2020-10-14T09:03:36Z) - Parallelising the Queries in Bucket Brigade Quantum RAM [69.43216268165402]
量子アルゴリズムは、しばしばデータベースのような方法で格納された情報にアクセスするために量子RAM(QRAM)を使用する。
本稿では,Clifford+Tゲートの並列性を利用して,効率的なクエリ時間を大幅に短縮する手法を提案する。
理論的には、フォールトトレラントバケットの量子RAMクエリは古典的なRAMの速度とほぼ一致する。
論文 参考訳(メタデータ) (2020-02-21T14:50:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。