論文の概要: Orion: A Fully Homomorphic Encryption Compiler for Private Deep Neural Network Inference
- arxiv url: http://arxiv.org/abs/2311.03470v1
- Date: Mon, 6 Nov 2023 19:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 13:36:10.758677
- Title: Orion: A Fully Homomorphic Encryption Compiler for Private Deep Neural Network Inference
- Title(参考訳): Orion: プライベートディープニューラルネットワーク推論のための完全同型暗号化コンパイラ
- Authors: Austin Ebel, Karthik Garimella, Brandon Reagen,
- Abstract要約: ホモモルフィック暗号化(FHE)は、暗号化されたデータに対する計算を有効にすることで、プライバシーとセキュリティを大幅に改善する可能性がある。
FHEでセキュアな神経推論を大規模に展開する上で直面する大きな課題のひとつは、それらをFHEドメインに効果的にマッピングすることだ。
Orionは、神経推論のための自動最適化FHEコンパイラである。
- 参考スコア(独自算出の注目度): 3.0088450191132394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fully Homomorphic Encryption (FHE) has the potential to substantially improve privacy and security by enabling computation on encrypted data. This is especially true with deep learning, as today many popular user services are powered by neural networks. One of the major challenges facing wide-scale deployment of FHE-secured neural inference is effectively mapping them to the FHE domain. FHE poses many programming challenges including packing large vectors, handling expensive rotations, and correctly implementing complex strided convolutions. This makes programming FHE inferences prone to poor performance and errors. In this paper we overcome these challenges with Orion, an automated optimizing FHE compiler for neural inference. Orion automatically maps PyTorch-specified networks to FHE, handling common layer types and arbitrary tensor shapes and strides. Moreover, we develop novel optimizations that balance dense FHE vector packing, efficient rotations, and minimize operations to improve performance. We have implemented Orion, which will be open sourced, and evaluated it on common benchmarks used by the FHE deep learning community. We compare Orion to multiple state-of-the-art solutions and report iso-accuracy speedups ranging from 2.7$\times$ to 20.5$\times$.
- Abstract(参考訳): 完全同型暗号化(FHE)は、暗号化されたデータに対する計算を有効にすることで、プライバシーとセキュリティを大幅に改善する可能性がある。
これはディープラーニングでは特に当てはまり、今日では多くの人気のあるユーザサービスがニューラルネットワークを利用している。
FHEでセキュアな神経推論を大規模に展開する上で直面する大きな課題のひとつは、それらをFHEドメインに効果的にマッピングすることだ。
FHEは、大きなベクトルのパッケージ化、高価なローテーションの処理、複雑な歪んだ畳み込みの正しく実装など、多くのプログラミング上の課題を提起する。
これにより、プログラミングのFHE推論はパフォーマンスやエラーの少ないものになりがちである。
本稿では,ニューラル推論のための自動最適化FHEコンパイラOrionを用いて,これらの課題を克服する。
OrionはPyTorch仕様のネットワークをFHEに自動的にマッピングし、一般的なレイヤタイプと任意のテンソル形状とストライドを処理する。
さらに、高密度なFHEベクトルパッキング、効率的な回転、演算の最小化と性能向上の両立を図る新しい最適化法を開発した。
私たちはOrionをオープンソースとして実装し、FHEディープラーニングコミュニティが使用している一般的なベンチマークで評価しています。
We compare Orion to multiple state-of-the-art Solutions and report iso-accuracy speedups range to 2.7$\times$ to 20.5$\times$。
関連論文リスト
- NeuJeans: Private Neural Network Inference with Joint Optimization of
Convolution and Bootstrapping [6.690461509117367]
NeuJeansは、深層畳み込みニューラルネットワーク(CNN)のPIのためのFHEベースのソリューションである
NeuJeansは、最先端のFHEベースのPI作業と比較して、conv2dの性能を最大5.68倍向上させる。
論文 参考訳(メタデータ) (2023-12-07T15:23:07Z) - Toward Practical Privacy-Preserving Convolutional Neural Networks Exploiting Fully Homomorphic Encryption [11.706881389387242]
準同型暗号化(FHE)は、プライベート推論(PI)を実現するための実行可能なアプローチである
FHEのCNNの実装は、主に計算とメモリのオーバーヘッドが大きいため、大きなハードルに直面している。
本稿では、GPU/ASICアクセラレーション、効率的なアクティベーション機能、最適化されたパッキングスキームを含む最適化セットを提案する。
論文 参考訳(メタデータ) (2023-10-25T10:24:35Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Large-scale Optimization of Partial AUC in a Range of False Positive
Rates [51.12047280149546]
ROC曲線 (AUC) の下の領域は、機械学習において最も広く使われている分類モデルのパフォーマンス指標の1つである。
近年の封筒平滑化技術に基づく効率的な近似勾配降下法を開発した。
提案アルゴリズムは,効率のよい解法を欠くランク付けされた範囲損失の和を最小化するためにも利用できる。
論文 参考訳(メタデータ) (2022-03-03T03:46:18Z) - EDLaaS; Fully Homomorphic Encryption Over Neural Network Graphs [7.195443855063635]
我々は、Microsoft Simple Encrypted Arithmetic Library (MS-SEAL)が提供する固定点上の第4世代Cheon, Kim, Kim and Song (CKKS) FHEスキームを使用する。
FHEは、プライバシ保護機械学習(PPML)のすべての問題に対するパナセアではなく、モデルトレーニングのような特定の制限がまだ残っていることが分かっています。
我々は、畳み込みニューラルネットワーク(CNN)、ファッションMNIST、およびレベル付きFHE操作に焦点を当てる。
論文 参考訳(メタデータ) (2021-10-26T12:43:35Z) - SparseDNN: Fast Sparse Deep Learning Inference on CPUs [1.6244541005112747]
CPUをターゲットとしたスパースディープラーニング推論エンジンであるSparseDNNを紹介します。
我々のスパースコードジェネレータは,最先端のスパースライブラリや高密度ライブラリよりも大幅に高速化できることを示す。
論文 参考訳(メタデータ) (2021-01-20T03:27:35Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - AdderNet: Do We Really Need Multiplications in Deep Learning? [159.174891462064]
我々は、深層ニューラルネットワークにおける膨大な乗算を、計算コストを削減するためにはるかに安価な加算のために取引するための加算器ネットワーク(AdderNets)を提案する。
本稿では,AdderNets のバックプロパゲーション手法を提案する。
その結果、提案されたAdderNetsは、ImageNetデータセット上でResNet-50を使用して、74.9%のTop-1精度91.7%のTop-5精度を達成することができる。
論文 参考訳(メタデータ) (2019-12-31T06:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。