論文の概要: Smuche: Scalar-Multiplicative Caching in Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2312.16352v1
- Date: Tue, 26 Dec 2023 23:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:50:36.945817
- Title: Smuche: Scalar-Multiplicative Caching in Homomorphic Encryption
- Title(参考訳): Smuche: 均質暗号化におけるScalar-Multiplicative Caching
- Authors: Dongfang Zhao
- Abstract要約: ホモモルフィック暗号化(HE)は、信頼できない環境での機械学習システムで使用される。
本稿では,任意のパラメータに依存しない新しいテキストコンスタント時間キャッシング手法を提案する。
SmucheはScalar-multiplicative Caching of Homomorphic Encryptionの略である。
- 参考スコア(独自算出の注目度): 1.3824176915623292
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Addressing the challenge of balancing security and efficiency when deploying
machine learning systems in untrusted environments, such as federated learning,
remains a critical concern. A promising strategy to tackle this issue involves
optimizing the performance of fully homomorphic encryption (HE). Recent
research highlights the efficacy of advanced caching techniques, such as Rache,
in significantly enhancing the performance of HE schemes without compromising
security. However, Rache is constrained by an inherent limitation: its
performance overhead is heavily influenced by the characteristics of plaintext
models, specifically exhibiting a caching time complexity of $\mathcal{O}(N)$,
where $N$ represents the number of cached pivots based on specific radixes.
This caching overhead becomes impractical for handling large-scale data. In
this study, we introduce a novel \textit{constant-time} caching technique that
is independent of any parameters. The core concept involves applying scalar
multiplication to a single cached ciphertext, followed by the introduction of a
completely new and constant-time randomness. Leveraging the inherent
characteristics of constant-time construction, we coin the term ``Smuche'' for
this innovative caching technique, which stands for Scalar-multiplicative
Caching of Homomorphic Encryption. We implemented Smuche from scratch and
conducted comparative evaluations against two baseline schemes, Rache and CKKS.
Our experimental results underscore the effectiveness of Smuche in addressing
the identified limitations and optimizing the performance of homomorphic
encryption in practical scenarios.
- Abstract(参考訳): フェデレーション学習のような信頼できない環境に機械学習システムをデプロイする場合、セキュリティと効率のバランスをとるという課題に対処することは、依然として重要な課題である。
この問題を解決するための有望な戦略は、完全同型暗号(HE)の性能を最適化することである。
最近の研究では、セキュリティを損なうことなくheスキームの性能を大幅に向上させるracheなどの高度なキャッシング技術の有効性が強調されている。
しかし、racheは固有の制限によって制約されている:そのパフォーマンス上のオーバーヘッドは、プレーンテキストモデルの特徴、特に特定の基数に基づいてキャッシュされたピボットの数を表す$n$が$\mathcal{o}(n)$のキャッシング時間の複雑さに強く影響されている。
このキャッシュオーバーヘッドは、大規模なデータを扱う上では実用的でない。
本研究では,任意のパラメータに依存しない新しい \textit{constant-time} キャッシング手法を提案する。
中心となる概念は、単一のキャッシュされた暗号文にスカラー乗算を適用すること、そして完全に新しく、一定の時間的ランダム性の導入である。
定数時間構造の特徴を生かして、同型暗号化のScalar-multiplicative Cachingを表すこの革新的なキャッシュ技術に「Smuche」という用語を造る。
Smuche をスクラッチから実装し,Rache と CKKS の2つのベースラインスキームに対して比較評価を行った。
実験結果は,smucheが特定限界に対処し,実用シナリオにおける準同型暗号の性能を最適化することの有効性を強調する。
関連論文リスト
- Get More with LESS: Synthesizing Recurrence with KV Cache Compression
for Efficient LLM Inference [83.34219335496073]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - SubGen: Token Generation in Sublinear Time and Memory [48.35076900702408]
大規模言語モデル(LLM)はトークン生成に広範なメモリ要件を持つ。
本研究では,KVキャッシュの効率的な圧縮手法の開発に焦点をあてる。
我々は,キートークンにオンラインクラスタリングを導入し,値に$ell$をサンプリングする,サブ線形複雑性を持つ新しいキャッシング手法を考案した。
このアルゴリズムは、サブリニアメモリフットプリントとサブリニアタイムの複雑さを保証するだけでなく、我々のアプローチに厳密なエラーを課す。
論文 参考訳(メタデータ) (2024-02-08T22:17:40Z) - A Learning-Based Caching Mechanism for Edge Content Delivery [2.7110241847592915]
5GネットワークとIoT(Internet of Things)の台頭により、ネットワークのエッジはますます拡大している。
このシフトは、特に限られたキャッシュストレージとエッジにおける多様な要求パターンのために、ユニークな課題をもたらす。
HR-Cacheは、ハザードレート(HR)順序付けの原則に基づく学習ベースのキャッシュフレームワークである。
論文 参考訳(メタデータ) (2024-02-05T08:06:03Z) - CryptoGCN: Fast and Scalable Homomorphically Encrypted Graph
Convolutional Network Inference [12.03953896181613]
クラウドベースのグラフ畳み込みネットワーク(GCN)は、多くのプライバシに敏感なアプリケーションで大きな成功と可能性を示している。
クラウド上での推論精度とパフォーマンスは高いが、GCN推論におけるデータのプライバシの維持については、まだ明らかにされていない。
本稿では,この手法を最初に試行し,同型暗号(HE)に基づくGCN推論フレームワークであるtextitCryptoGCN$-を開発する。
論文 参考訳(メタデータ) (2022-09-24T02:20:54Z) - HE-PEx: Efficient Machine Learning under Homomorphic Encryption using
Pruning, Permutation and Expansion [4.209035833239216]
ホモモルフィック暗号(homomorphic encryption, HE)は、暗号化されたデータ上で計算を行う方法である。
そこで本研究では,待ち時間とメモリ要求を低減し,HHEにプルーニング手法の有効性をもたらす新しいプルーニング手法を提案する。
タイルテンソルと呼ばれる最近提案されたパッキング技術を用いて,重みを充填する完全連結層上での本手法の利点を実証する。
論文 参考訳(メタデータ) (2022-07-07T15:49:24Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - ARCH: Efficient Adversarial Regularized Training with Caching [91.74682538906691]
逆正則化は、多くの自然言語処理タスクにおけるモデル一般化を改善することができる。
本稿では,複数のエポック毎に摂動を発生・キャッシュする新たな逆正則化手法ARCHを提案する。
提案手法をニューラルネットワーク翻訳と自然言語理解タスクのセットで評価する。
論文 参考訳(メタデータ) (2021-09-15T02:05:37Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Artificial Intelligence Assisted Collaborative Edge Caching in Small
Cell Networks [19.605382256630538]
本稿では、エッジノードにおける異種キャッシュモデルを持つユーザの異種コンテンツ嗜好について考察する。
複雑な制約問題を妥当な時間で効率的に解決する修正粒子群最適化(M-PSO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T10:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。