論文の概要: CryptoGen: Secure Transformer Generation with Encrypted KV-Cache Reuse
- arxiv url: http://arxiv.org/abs/2602.08798v1
- Date: Mon, 09 Feb 2026 15:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.329335
- Title: CryptoGen: Secure Transformer Generation with Encrypted KV-Cache Reuse
- Title(参考訳): CryptoGen: 暗号化KVキャッシュ再利用によるセキュアトランスフォーマー生成
- Authors: Hedong Zhang, Neusha Javidnia, Shweta Pardeshi, Qian Lou, Farinaz Koushanfar,
- Abstract要約: 我々は、永続暗号キー値(KV)キャッシュの再利用により、スケーラブルなプライバシ保護ニューラルジェネレーションを可能にする最初のシステムであるCryptoGenを提案する。
CryptoGenは、世代毎に暗号化されたKVキャッシュを安全に再利用し、更新することで、ニア線形スケーリングを実現する。
鍵となる技術は、暗号化されたKV-cacheフレームワーク、異なるフェーズのための異種SIMDエンコーディング、最適化された暗号暗号行列行列と行列ベクトル演算、効率的なノイズリフレッシュと暗号文の結合機構である。
- 参考スコア(独自算出の注目度): 19.99673270433465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread deployment of cloud-hosted generative models raises a fundamental challenge: enabling efficient autoregressive generation while preserving the privacy of both user prompts and model parameters in untrusted environments. We address this challenge in a client-server setting where an untrusted server hosts an autoregressive Transformer and the client requires cryptographic protection for both inputs and inference. We present CryptoGen, the first system to enable scalable privacy-preserving neural generation with persistent encrypted key-value (KV) cache reuse. Discriminative-task secure inference systems incur quadratic latency and memory growth when adapted to autoregressive decoding due to the lack of native encrypted KV-cache support. In contrast, CryptoGen achieves near-linear scaling by securely reusing and updating encrypted KV caches throughout generation. CryptoGen integrates homomorphic encryption and secret sharing to support both prefilling and generation. Key techniques include a unified encrypted KV-cache framework, heterogeneous SIMD encodings for different phases, optimized cipher-cipher matrix-matrix and matrix-vector operations, and efficient noise refresh and ciphertext concatenation mechanisms. Evaluation on generative Transformer models trained on WikiText-2, PTB, and LAMBADA shows that for input lengths of 128-512 tokens, CryptoGen achieves 4.4x-7.6x lower per-token latency than state-of-the-art discriminative secure inference systems, while maintaining near-linear latency and memory scaling, with advantages increasing for longer sequences. CryptoGen is released as an open-source library.
- Abstract(参考訳): ユーザのプロンプトとモデルパラメータの両方を信頼できない環境で保護しながら、効率的な自己回帰生成を可能にする。
この課題は、信頼できないサーバが自動回帰変換器をホストし、クライアントが入力と推論の両方に対して暗号的保護を必要とするクライアントサーバ環境で解決する。
我々は、永続暗号キー値(KV)キャッシュの再利用により、スケーラブルなプライバシ保護ニューラルジェネレーションを可能にする最初のシステムであるCryptoGenを提案する。
識別タスク安全な推論システムは、ネイティブな暗号化KV-cacheサポートの欠如により、自動回帰復号化に適応すると2次レイテンシとメモリの増大を招く。
対照的にCryptoGenは、世代を通して暗号化されたKVキャッシュを安全に再利用し、更新することで、ニア線形スケーリングを実現する。
CryptoGenは、同型暗号化とシークレット共有を統合して、プリフィルとジェネレーションの両方をサポートする。
鍵となる技術は、暗号化されたKV-cacheフレームワーク、異なるフェーズのための異種SIMDエンコーディング、最適化された暗号暗号行列行列と行列ベクトル演算、効率的なノイズリフレッシュと暗号文の結合機構である。
WikiText-2、TB、LAMBADAでトレーニングされた生成トランスフォーマーモデルの評価では、128-512トークンの入力長に対して、CryptoGenは最先端の識別可能な安全な推論システムよりも4.4x-7.6倍低いレイテンシを実現し、ニアリニアレイテンシとメモリスケーリングを維持しながら、長いシーケンスで利点を増している。
CryptoGenはオープンソースライブラリとしてリリースされた。
関連論文リスト
- Quantum-Resistant Cryptographic Models for Next-Gen Cybersecurity [1.3460582882338625]
量子耐性暗号システム(またはポスト量子暗号(PQC)として知られる)は、未来のサイバーセキュリティシステムを保護するために策定されている。
本稿では,古典的効率的な暗号方式と量子レジリエンスな暗号方式を統合し,後方互換性を実現するハイブリッド暗号モデルについて検討する。
論文 参考訳(メタデータ) (2025-12-22T03:47:06Z) - Design and Optimization of Cloud Native Homomorphic Encryption Workflows for Privacy-Preserving ML Inference [0.0]
ホモモルフィック暗号化(HE)は、暗号化されたデータに対する暗号計算を可能にする魅力的な技術として登場した。
大規模クラウドネイティブパイプラインにおけるHEの統合は、高い計算オーバーヘッド、オーケストレーションの複雑さ、モデル互換性の問題によって制限されている。
本稿では、プライバシML推論をサポートするクラウドネイティブな同型暗号化の設計と最適化のための体系的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-28T15:13:32Z) - FedBit: Accelerating Privacy-Preserving Federated Learning via Bit-Interleaved Packing and Cross-Layer Co-Design [2.255961793913651]
完全同型暗号化(FHE)を備えたフェデレートラーニング(FL)は、モデルアグリゲーション中にデータプライバシを効果的に保護する。
FedBit は Brakerski-Fan-Vercauteren (BFV) スキームのためのハードウェア/ソフトウェアの共同設計フレームワークである。
FedBitは、ビットインターリーブデータパッキングを使用して、複数のモデルパラメータを単一の暗号係数に埋め込む。
論文 参考訳(メタデータ) (2025-09-27T03:58:16Z) - HE-LRM: Encrypted Deep Learning Recommendation Models using Fully Homomorphic Encryption [3.0841649700901117]
FHE(Fully Homomorphic Encryption)は、データを暗号化するだけでなく、暗号化されたデータに直接計算を適用することができる暗号化方式である。
本稿では,FHEを深層学習勧告モデル(DLRM)に適用する際の課題と機会について考察する。
本研究では,FHE計算コストを低減し,基礎となるモデル性能を維持しつつ,圧縮埋込みルックアップを実行する新しい手法を開発した。
論文 参考訳(メタデータ) (2025-06-22T19:40:04Z) - At Least Factor-of-Two Optimization for RWLE-Based Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、復号化を必要とせずに、暗号化データの特定の操作をサポートする。
HEスキームには、データ集約的なワークロードを妨げるような、非自明な計算オーバーヘッドが伴います。
我々は、Zincと呼ぶ暗号化方式を提案し、複数のキャッシュ処理を禁止し、単一のスカラー加算で置き換える。
論文 参考訳(メタデータ) (2024-08-14T05:42:35Z) - Understanding crypter-as-a-service in a popular underground marketplace [51.328567400947435]
Cryptersは、ターゲットバイナリを変換することで、アンチウイルス(AV)アプリケーションからの検出を回避できるソフトウェアの一部です。
シークレット・アズ・ア・サービスモデルは,検出機構の高度化に対応して人気を博している。
本論文は,シークレット・アズ・ア・サービスに特化したオンライン地下市場に関する最初の研究である。
論文 参考訳(メタデータ) (2024-05-20T08:35:39Z) - SOCI^+: An Enhanced Toolkit for Secure OutsourcedComputation on Integers [50.608828039206365]
本稿では,SOCIの性能を大幅に向上させるSOCI+を提案する。
SOCI+は、暗号プリミティブとして、高速な暗号化と復号化を備えた(2, 2)ホールドのPaillier暗号システムを採用している。
実験の結果,SOCI+は計算効率が最大5.4倍,通信オーバヘッドが40%少ないことがわかった。
論文 参考訳(メタデータ) (2023-09-27T05:19:32Z) - Publicly-Verifiable Deletion via Target-Collapsing Functions [81.13800728941818]
ターゲットの折り畳みは、公開可能な削除(PVD)を可能にすることを示す。
我々は、弱い暗号的仮定から公開可能な削除を支援する様々なプリミティブを得るために、このフレームワークを構築している。
論文 参考訳(メタデータ) (2023-03-15T15:00:20Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。