論文の概要: EVA: An Encrypted Vector Arithmetic Language and Compiler for Efficient
Homomorphic Computation
- arxiv url: http://arxiv.org/abs/1912.11951v2
- Date: Fri, 26 Jun 2020 16:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 00:22:06.080739
- Title: EVA: An Encrypted Vector Arithmetic Language and Compiler for Efficient
Homomorphic Computation
- Title(参考訳): EVA: 効率的な同型計算のための暗号化ベクトル算術言語とコンパイラ
- Authors: Roshan Dathathri, Blagovesta Kostova, Olli Saarikivi, Wei Dai, Kim
Laine, Madanlal Musuvathi
- Abstract要約: 本稿では,EVA(Encrypted Vector Arithmetic)と呼ばれる新しいFHE言語を提案する。
EVAには、正しいセキュアなFHEプログラムを生成する最適化コンパイラが含まれている。
プログラマは、EVAで直接、効率的な汎用FHEアプリケーションを開発できる。
- 参考スコア(独自算出の注目度): 11.046862694768894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fully-Homomorphic Encryption (FHE) offers powerful capabilities by enabling
secure offloading of both storage and computation, and recent innovations in
schemes and implementations have made it all the more attractive. At the same
time, FHE is notoriously hard to use with a very constrained programming model,
a very unusual performance profile, and many cryptographic constraints.
Existing compilers for FHE either target simpler but less efficient FHE schemes
or only support specific domains where they can rely on expert-provided
high-level runtimes to hide complications.
This paper presents a new FHE language called Encrypted Vector Arithmetic
(EVA), which includes an optimizing compiler that generates correct and secure
FHE programs, while hiding all the complexities of the target FHE scheme.
Bolstered by our optimizing compiler, programmers can develop efficient
general-purpose FHE applications directly in EVA. For example, we have
developed image processing applications using EVA, with a very few lines of
code.
EVA is designed to also work as an intermediate representation that can be a
target for compiling higher-level domain-specific languages. To demonstrate
this, we have re-targeted CHET, an existing domain-specific compiler for neural
network inference, onto EVA. Due to the novel optimizations in EVA, its
programs are on average 5.3x faster than those generated by CHET. We believe
that EVA would enable a wider adoption of FHE by making it easier to develop
FHE applications and domain-specific FHE compilers.
- Abstract(参考訳): 完全正則暗号(full-homomorphic encryption, fhe)は、ストレージと計算の両方のセキュアなオフロードを可能にすることによって、強力な機能を提供する。
同時にfheは、非常に制約のあるプログラミングモデル、非常に珍しいパフォーマンスプロファイル、多くの暗号化制約で使用するのが難しいことで悪名高い。
FHEの既存のコンパイラは、シンプルだが効率の低いFHEスキームをターゲットにするか、特定のドメインしかサポートしていない。
本稿では、ターゲットFHE方式の複雑さをすべて隠蔽しつつ、FHEプログラムを正しくセキュアに生成する最適化コンパイラを含む、EVA(Encrypted Vector Arithmetic)と呼ばれる新しいFHE言語を提案する。
最適化コンパイラにより、プログラマは、EVAで直接、効率的な汎用FHEアプリケーションを開発できる。
例えば、私たちはevaを使って、ほんの数行のコードで画像処理アプリケーションを開発しました。
EVAは、高レベルのドメイン固有言語をコンパイルするターゲットとなる中間表現としても機能するように設計されている。
これを示すために、ニューラルネットワーク推論のための既存のドメイン固有コンパイラであるCHETをEVAに再ターゲットした。
EVAの新たな最適化のため、CHETが生成したプログラムよりも平均5.3倍高速である。
EVAは、FHEアプリケーションやドメイン固有のFHEコンパイラの開発を容易にすることで、FHEをより広く採用できると考えています。
関連論文リスト
- A Method for Efficient Heterogeneous Parallel Compilation: A Cryptography Case Study [8.06660833012594]
本稿では,多様なハードウェアアーキテクチャにまたがるデータ管理と並列計算を最適化するために,ハイパーという新しいMLIRベースの方言を提案する。
HETOCompilerは,複数のハッシュアルゴリズムを実装し,不均一なシステム上での実行を可能にする,暗号に着目したコンパイラのプロトタイプである。
論文 参考訳(メタデータ) (2024-07-12T15:12:51Z) - BoostCom: Towards Efficient Universal Fully Homomorphic Encryption by Boosting the Word-wise Comparisons [14.399750086329345]
完全同型暗号化(FHE)は、最初に復号化することなく、暗号化データ上での計算の実行を可能にする。
本稿では,単語比較処理の高速化を目的としたBoostComを提案する。
我々は、最先端のCPUベースのuFHEシステムと比較して、桁違い(11.1倍高速)のエンドツーエンド性能向上を実現している。
論文 参考訳(メタデータ) (2024-07-10T02:09:10Z) - A Compiler from Array Programs to Vectorized Homomorphic Encryption [1.6216324006136673]
ホモモルフィック暗号 (HE) は、暗号化されたデータに対して安全な計算を行うための実践的な手法である。
本稿では,効率的なベクトル化HEプログラムを生成するViaduct-HEを提案する。
Viaduct-HEは、効率的なHEプログラムに必要な操作と複雑なデータレイアウトの両方を生成することができる。
論文 参考訳(メタデータ) (2023-11-10T16:00:00Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Boosting Neural Networks to Decompile Optimized Binaries [13.255618541522436]
Decompilation は低レベルプログラム言語 (LPL) を機能的に等価な高レベルプログラム言語 (HPL) に変換することを目的としている。
本稿では,コンパイラ最適化バイナリをターゲットとしたNeurDPという新しい学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-03T06:45:54Z) - Enabling Retargetable Optimizing Compilers for Quantum Accelerators via
a Multi-Level Intermediate Representation [78.8942067357231]
我々は、最適化され、再ターゲット可能で、事前コンパイルが可能なマルチレベル量子古典中間表現(IR)を提案する。
ゲートベースのOpenQASM 3言語全体をサポートし、共通量子プログラミングパターンのカスタム拡張と構文の改善を提供します。
私たちの研究は、通常のPythonのアプローチよりも1000倍高速で、スタンドアロンの量子言語コンパイラよりも5~10倍高速なコンパイル時間を実現しています。
論文 参考訳(メタデータ) (2021-09-01T17:29:47Z) - Instead of Rewriting Foreign Code for Machine Learning, Automatically
Synthesize Fast Gradients [6.09170287691728]
本稿では,LLVMコンパイラフレームワーク用の高性能自動微分(AD)コンパイラプラグインであるEnzymeを提案する。
EnzymeはLLVM中間表現(IR)をターゲットにした任意の言語で記述されたプログラムの勾配を合成する
MicrosoftのADBenchを含む機械学習に焦点を当てたベンチマークスイートでは、最適化されたIR上のADは、IR上のAD上の4.5倍の幾何平均スピードアップを達成する。
論文 参考訳(メタデータ) (2020-10-04T22:32:51Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。