論文の概要: Volley Revolver: A Novel Matrix-Encoding Method for Privacy-Preserving Neural Networks (Inference)
- arxiv url: http://arxiv.org/abs/2201.12577v6
- Date: Thu, 24 Oct 2024 09:05:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:50:27.327371
- Title: Volley Revolver: A Novel Matrix-Encoding Method for Privacy-Preserving Neural Networks (Inference)
- Title(参考訳): Volley Revolver: プライバシ保護ニューラルネットワークのための新しいマトリックスエンコーディング手法(推論)
- Authors: John Chiang,
- Abstract要約: 我々は,手書き画像分類のための畳み込みニューラルネットワークを実装した。
40のvCPUを持つパブリッククラウドでは、MNISTテストデータセット上の畳み込みニューラルネットワークの実装には、$sim$287秒かかります。
データ所有者は、これらの32の画像を暗号化した暗号文を1つだけパブリッククラウドにアップロードする必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this work, we present a novel matrix-encoding method that is particularly convenient for neural networks to make predictions in a privacy-preserving manner using homomorphic encryption. Based on this encoding method, we implement a convolutional neural network for handwritten image classification over encryption. For two matrices $A$ and $B$ to perform homomorphic multiplication, the main idea behind it, in a simple version, is to encrypt matrix $A$ and the transpose of matrix $B$ into two ciphertexts respectively. With additional operations, the homomorphic matrix multiplication can be calculated over encrypted matrices efficiently. For the convolution operation, we in advance span each convolution kernel to a matrix space of the same size as the input image so as to generate several ciphertexts, each of which is later used together with the ciphertext encrypting input images for calculating some of the final convolution results. We accumulate all these intermediate results and thus complete the convolution operation. In a public cloud with 40 vCPUs, our convolutional neural network implementation on the MNIST testing dataset takes $\sim$ 287 seconds to compute ten likelihoods of 32 encrypted images of size $28 \times 28$ simultaneously. The data owner only needs to upload one ciphertext ($\sim 19.8$ MB) encrypting these 32 images to the public cloud.
- Abstract(参考訳): 本稿では,ニューラルネットワークがホモモルフィック暗号を用いて,プライバシ保存方式で予測を行うのに特に便利な,新しい行列符号化手法を提案する。
この符号化手法に基づいて,手書き画像分類のための畳み込みニューラルネットワークを実装した。
2つの行列に対して、同型乗法を実行するために$A$と$B$に対して、その背景にある主要なアイデアは、単純なバージョンで、行列$A$と、行列$B$を2つの暗号文に変換することである。
さらなる演算で、同型行列乗法は暗号化行列上で効率的に計算できる。
畳み込み処理では,各畳み込みカーネルを予め入力画像と同じ大きさの行列空間に分割し,複数の暗号文を生成する。
これらの中間結果を全て蓄積し、畳み込み操作を完了させる。
40のvCPUを持つパブリッククラウドでは、MNISTテストデータセット上の畳み込みニューラルネットワークの実装に$\sim$287秒を要し、32の暗号化画像サイズ228 \times 28$の10の確率を同時に計算します。
データ所有者は、これらの32の画像をパブリッククラウドに暗号化する1つの暗号テキスト($\sim 19.8$ MB)をアップロードするだけでよい。
関連論文リスト
- Three-Input Ciphertext Multiplication for Homomorphic Encryption [6.390468088226496]
ホモモルフィック暗号化(HE)は、暗号文上で直接計算することができる。
HEは、ニューラルネットワーク推論、診断、財務データ分析など、プライバシ保護コンピューティングに不可欠である。
本稿では,計算の複雑さを低減するために,3入力暗号文の乗算を提案する。
論文 参考訳(メタデータ) (2024-10-17T13:40:49Z) - CodeCipher: Learning to Obfuscate Source Code Against LLMs [5.872773591957006]
我々は,LLMからの応答を保存しながら,コードからプライバシを乱す新しい方法であるCodeCipherを提案する。
CodeCipher は LLM の埋め込み行列を変換し、各行が元の行列内の別の単語に対応するようにし、難読化ソースコードのためのトークンとトークンの混同マッピングを生成する。
その結果,LLMの性能を保ちながらソースコードのプライバシを混乱させることに成功した。
論文 参考訳(メタデータ) (2024-10-08T08:28:54Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - CipherDAug: Ciphertext based Data Augmentation for Neural Machine
Translation [7.842152902652213]
本稿では,ROT-$k$暗号文に基づくニューラルマシン翻訳のための新しいデータ拡張手法を提案する。
我々の手法であるCipherDAugは、協調正規化にインスパイアされたトレーニング手順を使用し、元のトレーニングデータ以外の外部データソースを必要としない。
論文 参考訳(メタデータ) (2022-04-01T19:02:14Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - Compressing 1D Time-Channel Separable Convolutions using Sparse Random
Ternary Matrices [65.4388266814055]
1次元時間チャネル分離可能な畳み込みの1x1-畳み込みを、定数でスパースな乱数三元行列で-1,0,+1$の重みで置き換える。
Google Speech Commands v1のコマンド認識のために、最新の精度を同じネットワークサイズで97.21%$から97.41%$に改善します。
librispeech上での音声認識では、トレーニングすべき重みの数は半分になり、浮動小数点ベースラインの単語誤り率の約1%を犠牲にします。
論文 参考訳(メタデータ) (2021-03-31T15:09:20Z) - FFConv: Fast Factorized Neural Network Inference on Encrypted Data [9.868787266501036]
本稿では、畳み込みと暗号文のパッキングを統一するFFConvと呼ばれる低ランク分解法を提案する。
先行技術であるLoLaとFalconと比較して,提案手法は,それぞれ最大87%,12%の遅延を減少させる。
論文 参考訳(メタデータ) (2021-02-06T03:10:13Z) - Grover on SIMON [1.1470070927586016]
SIMONのすべての変種についてGroverの探索アルゴリズムを提案する。
量子資源を列挙し、NOT, CNOT, Toffoli ゲートでこのような攻撃を行う。
我々は、IBMQ量子シミュレータと14量子ビットプロセッサでSIMONの縮小版を実行する。
論文 参考訳(メタデータ) (2020-04-22T16:38:41Z) - HERS: Homomorphically Encrypted Representation Search [56.87295029135185]
本稿では,暗号化ドメイン内の大規模ギャラリーに対して,プローブ(あるいはクエリ)画像表現を検索する手法を提案する。
我々の暗号方式は固定長表現の取得方法に従わないため、任意のアプリケーション領域における任意の固定長表現に適用できる。
論文 参考訳(メタデータ) (2020-03-27T01:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。