論文の概要: IVE: An Accelerator for Single-Server Private Information Retrieval Using Versatile Processing Elements
- arxiv url: http://arxiv.org/abs/2512.01574v1
- Date: Mon, 01 Dec 2025 11:47:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.830868
- Title: IVE: An Accelerator for Single-Server Private Information Retrieval Using Versatile Processing Elements
- Title(参考訳): IVE: Versatile処理要素を使用したシングルサーバプライベート情報検索用アクセラレータ
- Authors: Sangpyo Kim, Hyesung Ji, Jongmin Kim, Wonseok Choi, Jaiyoung Park, Jung Ho Ahn,
- Abstract要約: IVE はシングルサーバ PIR のアクセラレータで,DRAM を使用した大規模データベースからの検索を可能にする。
IVEは、以前のPIRハードウェアソリューションに比べて1,275倍高いスループットを実現している。
- 参考スコア(独自算出の注目度): 4.085063539485129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Private information retrieval (PIR) is an essential cryptographic protocol for privacy-preserving applications, enabling a client to retrieve a record from a server's database without revealing which record was requested. Single-server PIR based on homomorphic encryption has particularly gained immense attention for its ease of deployment and reduced trust assumptions. However, single-server PIR remains impractical due to its high computational and memory bandwidth demands. Specifically, reading the entirety of large databases from storage, such as SSDs, severely limits its performance. To address this, we propose IVE, an accelerator for single-server PIR with a systematic extension that enables practical retrieval from large databases using DRAM. Recent advances in DRAM capacity allow PIR for large databases to be served entirely from DRAM, removing its dependence on storage bandwidth. Although the memory bandwidth bottleneck still remains, multi-client batching effectively amortizes database access costs across concurrent requests to improve throughput. However, client-specific data remains a bottleneck, whose bandwidth requirements ultimately limits performance. IVE overcomes this by employing a large on-chip scratchpad with an operation scheduling algorithm that maximizes data reuse, further boosting throughput. Additionally, we introduce sysNTTU, a versatile functional unit that enhances area efficiency without sacrificing performance. We also propose a heterogeneous memory system architecture, which enables a linear scaling of database sizes without a throughput degradation. Consequently, IVE achieves up to 1,275x higher throughput compared to prior PIR hardware solutions.
- Abstract(参考訳): プライベート情報検索(Private Information Search, PIR)は、プライバシ保護アプリケーションに必要な暗号プロトコルであり、クライアントが要求されたレコードを公開せずに、サーバのデータベースからレコードを取得できるようにする。
ホモモルフィック暗号化に基づくシングルサーバPIRは、デプロイの容易さと信頼性の仮定の低減に特に注目されている。
しかし、シングルサーバのPIRは高い計算量とメモリ帯域幅の要求のため実用的ではない。
具体的には、SSDのようなストレージから大規模なデータベース全体を読み取ると、パフォーマンスが著しく制限される。
そこで本研究では,DRAM を用いた大規模データベースからの実用的な検索を可能にする,システム拡張を備えたシングルサーバ PIR アクセラレータ IVE を提案する。
近年のDRAM容量の進歩により、大規模データベースのPIRが完全にDRAMから提供されるようになり、ストレージ帯域への依存がなくなる。
メモリ帯域のボトルネックは依然として残っているが、マルチクライアントのバッチ処理は、並列要求間のデータベースアクセスコストを効果的に減らし、スループットを向上する。
しかし、クライアント固有のデータは依然としてボトルネックであり、その帯域幅の要求は最終的にパフォーマンスを制限します。
IVEは、データの再利用を最大化し、スループットをさらに向上するオペレーションスケジューリングアルゴリズムを備えた、大規模なオンチップスクラッチパッドを使用することで、これを克服している。
さらに,性能を犠牲にすることなく,面積効率を向上させる多目的機能ユニットであるsysNTTUを導入する。
また,スループットを低下させることなく,データベースサイズを線形にスケールできる異種メモリシステムアーキテクチャを提案する。
その結果、IVEは従来のPIRハードウェアソリューションに比べて1,275倍高いスループットを実現している。
関連論文リスト
- Kelle: Co-design KV Caching and eDRAM for Efficient LLM Serving in Edge Computing [9.984481065465028]
エッジデバイス上の大規模言語モデル(LLM)は、レイテンシの低減、リアルタイム処理の改善、プライバシの向上に不可欠である。
エッジデバイスにLLMを実装することは、特にキーバリューキャッシュの管理において、課題となる。
エッジデバイスにおけるLLMのプライマリストレージとしてeDRAMを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:12:08Z) - AlDBaran: Towards Blazingly Fast State Commitments for Blockchains [52.39305978984572]
AlDBaranは、50Gbpsのネットワークスループットで、状態更新を効率的に処理できる認証データ構造である。
AlDBaranは、様々な新しい応用を促進する歴史的な状態証明のサポートを提供する。
コンシューマレベルのポータブルハードウェアでは、インメモリ設定で約800万更新/秒、サブ秒間隔でスナップショットで500万更新/秒を達成する。
論文 参考訳(メタデータ) (2025-08-14T09:52:15Z) - REIS: A High-Performance and Energy-Efficient Retrieval System with In-Storage Processing [8.574396262432522]
大きな言語モデル(LLM)は固有の課題に直面します。
Retrieval-Augmented Generation (RAG)は、LLMの静的トレーニングに基づく知識を外部知識リポジトリで補完する。
本稿では,これらの制約を3つのキーメカニズムで処理するRAG用に設計された最初のISPシステムであるREISを提案する。
論文 参考訳(メタデータ) (2025-06-19T16:26:51Z) - Toward a Lightweight, Scalable, and Parallel Secure Encryption Engine [0.0]
SPiMEは軽量でスケーラブルでFPGA互換のSecure Processor-in-Memory Encryptionアーキテクチャである。
Advanced Encryption Standard (AES-128)を直接Processing-in-Memoryフレームワークに統合する。
持続的な暗号化スループットを25Gbps以上提供し、予測可能な低レイテンシパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-06-18T02:25:04Z) - Versatile and Fast Location-Based Private Information Retrieval with Fully Homomorphic Encryption over the Torus [4.021179028452984]
本稿では,ユーザプライバシの保護を目的としたPIRシステムであるVeLoPIRを提案する。
VeLoPIRは3つの操作モード(インターバルバリデーション、座標バリデーション、識別子マッチング)を導入し、幅広い現実世界のアプリケーションをサポートする。
我々は、セキュリティとプライバシの正式な証明を提供し、標準的な暗号的仮定の下でシステムの堅牢性を確認する。
論文 参考訳(メタデータ) (2025-06-15T08:01:35Z) - SCRec: A Scalable Computational Storage System with Statistical Sharding and Tensor-train Decomposition for Recommendation Models [17.602518628415776]
Deep Learning Recommendation Models (DLRMs)は、ソーシャルネットワークやビデオストリーミングといったWebアプリケーション間でパーソナライズされたコンテンツを配信する上で、重要な役割を果たす。
性能の改善により、DLRMsのパラメータサイズはテラバイト(TB)に拡大し、メモリ帯域幅の要求はTB/sを超えるようになった。
TBスケールの産業用DLRMを扱えるスケーラブルな計算ストレージレコメンデーションシステムであるSCRecを提案する。
論文 参考訳(メタデータ) (2025-04-01T08:12:45Z) - A Universal Framework for Compressing Embeddings in CTR Prediction [68.27582084015044]
本稿では,事前学習した埋め込みを定量化することにより,埋め込みテーブルを圧縮するモデル非依存型埋め込み圧縮(MEC)フレームワークを提案する。
まず、高頻度特徴と低周波特徴のバランスをとるために、人気重み付け正規化を適用します。
3つのデータセットの実験により,提案手法はメモリ使用量を50倍以上削減し,レコメンデーション性能を維持・改善する。
論文 参考訳(メタデータ) (2025-02-21T10:12:34Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Digital Twin-Assisted Data-Driven Optimization for Reliable Edge Caching in Wireless Networks [60.54852710216738]
我々はD-RECと呼ばれる新しいデジタルツインアシスト最適化フレームワークを導入し、次世代無線ネットワークにおける信頼性の高いキャッシュを実現する。
信頼性モジュールを制約付き決定プロセスに組み込むことで、D-RECは、有利な制約に従うために、アクション、報酬、状態を適応的に調整することができる。
論文 参考訳(メタデータ) (2024-06-29T02:40:28Z) - RelayAttention for Efficient Large Language Model Serving with Long System Prompts [59.50256661158862]
本稿では,長いシステムプロンプトを含むLCMサービスの効率を向上させることを目的とする。
これらのシステムプロンプトの処理には、既存の因果注意アルゴリズムにおいて、大量のメモリアクセスが必要である。
本稿では,DRAMから入力トークンのバッチに対して,DRAMから隠れた状態を正確に1回読み取ることのできるアテンションアルゴリズムであるRelayAttentionを提案する。
論文 参考訳(メタデータ) (2024-02-22T18:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。