論文の概要: FFConv: Fast Factorized Neural Network Inference on Encrypted Data
- arxiv url: http://arxiv.org/abs/2102.03494v1
- Date: Sat, 6 Feb 2021 03:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:31:58.441057
- Title: FFConv: Fast Factorized Neural Network Inference on Encrypted Data
- Title(参考訳): FFConv: 暗号化データに対するファクタブルニューラルネットワーク推論の高速化
- Authors: Yuxiao Lu, Jie Lin, Chao Jin, Zhe Wang, Khin Mi Mi Aung, Xiaoli Li
- Abstract要約: 本稿では、畳み込みと暗号文のパッキングを統一するFFConvと呼ばれる低ランク分解法を提案する。
先行技術であるLoLaとFalconと比較して,提案手法は,それぞれ最大87%,12%の遅延を減少させる。
- 参考スコア(独自算出の注目度): 9.868787266501036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Homomorphic Encryption (HE), allowing computations on encrypted data
(ciphertext) without decrypting it first, enables secure but prohibitively slow
Neural Network (HENN) inference for privacy-preserving applications in clouds.
To reduce HENN inference latency, one approach is to pack multiple messages
into a single ciphertext in order to reduce the number of ciphertexts and
support massive parallelism of Homomorphic Multiply-Add (HMA) operations
between ciphertexts. However, different ciphertext packing schemes have to be
designed for different convolution layers and each of them introduces overheads
that are far more expensive than HMA operations. In this paper, we propose a
low-rank factorization method called FFConv to unify convolution and ciphertext
packing. To our knowledge, FFConv is the first work that is capable of
accelerating the overheads induced by different ciphertext packing schemes
simultaneously, without incurring a significant increase in noise budget.
Compared to prior art LoLa and Falcon, our method reduces the inference latency
by up to 87% and 12%, respectively, with comparable accuracy on MNIST and
CIFAR-10.
- Abstract(参考訳): 最初に復号化せずに暗号化されたデータ(暗号)の計算を可能にするホモモルフィック暗号化(HE)は、クラウド内のプライバシー保護アプリケーションのための安全で、しかし禁止的に遅いニューラルネットワーク(HENN)推論を可能にする。
HENN推論遅延を低減するために、暗号文の数を減らし、暗号文間のホモモルフィック・マルチプライ・アド(HMA)操作の大規模な並列化をサポートするために、複数のメッセージを単一の暗号文にまとめるアプローチがある。
しかし、異なる暗号文パッキングスキームは異なる畳み込み層向けに設計されなければならず、それぞれがhma操作よりもはるかに高価なオーバーヘッドをもたらす。
本稿では,畳み込みと暗号文パッキングを統一するffconvと呼ばれる低ランク分解法を提案する。
我々の知る限り、FFConvは、ノイズ予算を大幅に増加させることなく、異なる暗号文パッキング方式によって同時に引き起こされるオーバーヘッドを加速できる最初の作品である。
従来の LoLa と Falcon と比較して,提案手法は,MNIST と CIFAR-10 に匹敵する精度で,それぞれ 87% と 12% の推論遅延を減少させる。
関連論文リスト
- Transformers -- Messages in Disguise [3.74142789780782]
NNベースの暗号は、ランダムな暗号スキームを学習し実装する能力のために研究されている。
Rは、(i)投影層、(ii)逆投影層、(iii)ドット生成層という3つの新しいNN層から構成される。
その結果、(i) が計算効率が高く、(ii) 暗号化されたメッセージが一意であること、(iii) が通信オーバーヘッドを誘発しないことが保証される。
論文 参考訳(メタデータ) (2024-11-15T15:42:29Z) - Three-Input Ciphertext Multiplication for Homomorphic Encryption [6.390468088226496]
ホモモルフィック暗号化(HE)は、暗号文上で直接計算することができる。
HEは、ニューラルネットワーク推論、診断、財務データ分析など、プライバシ保護コンピューティングに不可欠である。
本稿では,計算の複雑さを低減するために,3入力暗号文の乗算を提案する。
論文 参考訳(メタデータ) (2024-10-17T13:40:49Z) - Efficient Homomorphically Encrypted Convolutional Neural Network Without Rotation [6.03124479597323]
本稿では, HE方式の安全性に影響を与えることなく, 暗号文の回転を除去する新しい構成法とフィルタ係数パッキング方式を提案する。
CIFAR-10/100データセット上のさまざまなプレーン20に対して、私たちの設計は、最高の事前設計と比較して、Conv層とFC層のランニング時間を15.5%削減し、クライアントとサーバ間の通信コストを50%以上削減します。
論文 参考訳(メタデータ) (2024-09-08T19:46:25Z) - Parallel Decoding via Hidden Transfer for Lossless Large Language Model Acceleration [54.897493351694195]
本稿では,複数連続するトークンを1つのフォワードパスで同時に復号する,新しい並列復号法,すなわちthithidden Transferを提案する。
加速度測定では,Medusa や Self-Speculative decoding など,単モデル加速技術よりも優れています。
論文 参考訳(メタデータ) (2024-04-18T09:17:06Z) - Coding-Based Hybrid Post-Quantum Cryptosystem for Non-Uniform Information [53.85237314348328]
我々は、新しいハイブリッドユニバーサルネットワーク符号化暗号(NU-HUNCC)を導入する。
NU-HUNCCは,リンクのサブセットにアクセス可能な盗聴者に対して,個別に情報理論的に保護されていることを示す。
論文 参考訳(メタデータ) (2024-02-13T12:12:39Z) - SOCI^+: An Enhanced Toolkit for Secure OutsourcedComputation on Integers [50.608828039206365]
本稿では,SOCIの性能を大幅に向上させるSOCI+を提案する。
SOCI+は、暗号プリミティブとして、高速な暗号化と復号化を備えた(2, 2)ホールドのPaillier暗号システムを採用している。
実験の結果,SOCI+は計算効率が最大5.4倍,通信オーバヘッドが40%少ないことがわかった。
論文 参考訳(メタデータ) (2023-09-27T05:19:32Z) - Encrypted Dynamic Control exploiting Limited Number of Multiplications and a Method using RLWE-based Cryptosystem [0.3749861135832073]
本稿では,ほとんどの同型暗号方式で実装可能な動的コントローラを暗号化する手法を提案する。
結果として、暗号化されたコントローラは、暗号化されたデータごとに、限られた数の同型乗算しか必要としない。
本稿では,Ring Learning With Errors(RLWE)ベースの暗号システムにおいて,メッセージのベクトルを1つの暗号文に暗号化する手法のカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-07-07T08:24:48Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Recovering AES Keys with a Deep Cold Boot Attack [91.22679787578438]
コールドブート攻撃は、電源がシャットダウンされた直後に破損したランダムアクセスメモリを検査する。
本研究では,AES鍵に対する攻撃を適用するために,深誤り訂正符号手法の新たな暗号版とSATソルバ方式を併用する。
以上の結果から,本手法は攻撃方法の精度を極めて高いマージンで上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-06-09T07:57:01Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - TEDL: A Text Encryption Method Based on Deep Learning [10.428079716944463]
本稿では,TEDLと呼ばれる深層学習に基づく新しいテキスト暗号化手法を提案する。
実験および関連する分析の結果、TEDLはセキュリティ、効率、汎用性に優れ、キー再配布頻度の低いことが示されている。
論文 参考訳(メタデータ) (2020-03-09T11:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。