論文の概要: Smuche: Scalar-Multiplicative Caching in Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2312.16352v1
- Date: Tue, 26 Dec 2023 23:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:50:36.945817
- Title: Smuche: Scalar-Multiplicative Caching in Homomorphic Encryption
- Title(参考訳): Smuche: 均質暗号化におけるScalar-Multiplicative Caching
- Authors: Dongfang Zhao
- Abstract要約: ホモモルフィック暗号化(HE)は、信頼できない環境での機械学習システムで使用される。
本稿では,任意のパラメータに依存しない新しいテキストコンスタント時間キャッシング手法を提案する。
SmucheはScalar-multiplicative Caching of Homomorphic Encryptionの略である。
- 参考スコア(独自算出の注目度): 1.3824176915623292
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Addressing the challenge of balancing security and efficiency when deploying
machine learning systems in untrusted environments, such as federated learning,
remains a critical concern. A promising strategy to tackle this issue involves
optimizing the performance of fully homomorphic encryption (HE). Recent
research highlights the efficacy of advanced caching techniques, such as Rache,
in significantly enhancing the performance of HE schemes without compromising
security. However, Rache is constrained by an inherent limitation: its
performance overhead is heavily influenced by the characteristics of plaintext
models, specifically exhibiting a caching time complexity of $\mathcal{O}(N)$,
where $N$ represents the number of cached pivots based on specific radixes.
This caching overhead becomes impractical for handling large-scale data. In
this study, we introduce a novel \textit{constant-time} caching technique that
is independent of any parameters. The core concept involves applying scalar
multiplication to a single cached ciphertext, followed by the introduction of a
completely new and constant-time randomness. Leveraging the inherent
characteristics of constant-time construction, we coin the term ``Smuche'' for
this innovative caching technique, which stands for Scalar-multiplicative
Caching of Homomorphic Encryption. We implemented Smuche from scratch and
conducted comparative evaluations against two baseline schemes, Rache and CKKS.
Our experimental results underscore the effectiveness of Smuche in addressing
the identified limitations and optimizing the performance of homomorphic
encryption in practical scenarios.
- Abstract(参考訳): フェデレーション学習のような信頼できない環境に機械学習システムをデプロイする場合、セキュリティと効率のバランスをとるという課題に対処することは、依然として重要な課題である。
この問題を解決するための有望な戦略は、完全同型暗号(HE)の性能を最適化することである。
最近の研究では、セキュリティを損なうことなくheスキームの性能を大幅に向上させるracheなどの高度なキャッシング技術の有効性が強調されている。
しかし、racheは固有の制限によって制約されている:そのパフォーマンス上のオーバーヘッドは、プレーンテキストモデルの特徴、特に特定の基数に基づいてキャッシュされたピボットの数を表す$n$が$\mathcal{o}(n)$のキャッシング時間の複雑さに強く影響されている。
このキャッシュオーバーヘッドは、大規模なデータを扱う上では実用的でない。
本研究では,任意のパラメータに依存しない新しい \textit{constant-time} キャッシング手法を提案する。
中心となる概念は、単一のキャッシュされた暗号文にスカラー乗算を適用すること、そして完全に新しく、一定の時間的ランダム性の導入である。
定数時間構造の特徴を生かして、同型暗号化のScalar-multiplicative Cachingを表すこの革新的なキャッシュ技術に「Smuche」という用語を造る。
Smuche をスクラッチから実装し,Rache と CKKS の2つのベースラインスキームに対して比較評価を行った。
実験結果は,smucheが特定限界に対処し,実用シナリオにおける準同型暗号の性能を最適化することの有効性を強調する。
関連論文リスト
- At Least Factor-of-Two Optimization for RWLE-Based Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、復号化を必要とせずに、暗号化データの特定の操作をサポートする。
HEスキームには、データ集約的なワークロードを妨げるような、非自明な計算オーバーヘッドが伴います。
我々は、Zincと呼ぶ暗号化方式を提案し、複数のキャッシュ処理を禁止し、単一のスカラー加算で置き換える。
論文 参考訳(メタデータ) (2024-08-14T05:42:35Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - CItruS: Chunked Instruction-aware State Eviction for Long Sequence Modeling [52.404072802235234]
本稿では,下流タスクに有用な注目度を隠蔽状態の消去プロセスに統合する新しいモデリング手法であるChunked Instruction-Aware State Eviction(CItruS)を紹介する。
トレーニング不要な手法は,メモリ予算が同じ条件下で,複数の強いベースライン上での長いシーケンス理解および検索タスクにおいて,優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-17T18:34:58Z) - Holographic Global Convolutional Networks for Long-Range Prediction Tasks in Malware Detection [50.7263393517558]
ホログラフィック還元表現(HRR)の特性を利用したホログラフィックグローバル畳み込みネットワーク(HGConv)を導入する。
他のグローバルな畳み込み法とは異なり、我々の手法は複雑なカーネル計算や人工カーネル設計を必要としない。
提案手法は,Microsoft Malware Classification Challenge, Drebin, EMBERのマルウェアベンチマークで新たなSOTA結果を得た。
論文 参考訳(メタデータ) (2024-03-23T15:49:13Z) - SubGen: Token Generation in Sublinear Time and Memory [48.35076900702408]
大規模言語モデル(LLM)はトークン生成に広範なメモリ要件を持つ。
本研究では,KVキャッシュの効率的な圧縮手法の開発に焦点をあてる。
我々は,キートークンにオンラインクラスタリングを導入し,値に$ell$をサンプリングする,サブ線形複雑性を持つ新しいキャッシング手法を考案した。
このアルゴリズムは、サブリニアメモリフットプリントとサブリニアタイムの複雑さを保証するだけでなく、我々のアプローチに厳密なエラーを課す。
論文 参考訳(メタデータ) (2024-02-08T22:17:40Z) - A Learning-Based Caching Mechanism for Edge Content Delivery [2.412158290827225]
5GネットワークとIoT(Internet of Things)の台頭により、ネットワークのエッジはますます拡大している。
このシフトは、特に限られたキャッシュストレージとエッジにおける多様な要求パターンのために、ユニークな課題をもたらす。
HR-Cacheは、ハザードレート(HR)順序付けの原則に基づく学習ベースのキャッシュフレームワークである。
論文 参考訳(メタデータ) (2024-02-05T08:06:03Z) - ARCH: Efficient Adversarial Regularized Training with Caching [91.74682538906691]
逆正則化は、多くの自然言語処理タスクにおけるモデル一般化を改善することができる。
本稿では,複数のエポック毎に摂動を発生・キャッシュする新たな逆正則化手法ARCHを提案する。
提案手法をニューラルネットワーク翻訳と自然言語理解タスクのセットで評価する。
論文 参考訳(メタデータ) (2021-09-15T02:05:37Z) - Artificial Intelligence Assisted Collaborative Edge Caching in Small
Cell Networks [19.605382256630538]
本稿では、エッジノードにおける異種キャッシュモデルを持つユーザの異種コンテンツ嗜好について考察する。
複雑な制約問題を妥当な時間で効率的に解決する修正粒子群最適化(M-PSO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T10:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。