論文の概要: EVA: An Encrypted Vector Arithmetic Language and Compiler for Efficient
Homomorphic Computation
- arxiv url: http://arxiv.org/abs/1912.11951v2
- Date: Fri, 26 Jun 2020 16:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 00:22:06.080739
- Title: EVA: An Encrypted Vector Arithmetic Language and Compiler for Efficient
Homomorphic Computation
- Title(参考訳): EVA: 効率的な同型計算のための暗号化ベクトル算術言語とコンパイラ
- Authors: Roshan Dathathri, Blagovesta Kostova, Olli Saarikivi, Wei Dai, Kim
Laine, Madanlal Musuvathi
- Abstract要約: 本稿では,EVA(Encrypted Vector Arithmetic)と呼ばれる新しいFHE言語を提案する。
EVAには、正しいセキュアなFHEプログラムを生成する最適化コンパイラが含まれている。
プログラマは、EVAで直接、効率的な汎用FHEアプリケーションを開発できる。
- 参考スコア(独自算出の注目度): 11.046862694768894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fully-Homomorphic Encryption (FHE) offers powerful capabilities by enabling
secure offloading of both storage and computation, and recent innovations in
schemes and implementations have made it all the more attractive. At the same
time, FHE is notoriously hard to use with a very constrained programming model,
a very unusual performance profile, and many cryptographic constraints.
Existing compilers for FHE either target simpler but less efficient FHE schemes
or only support specific domains where they can rely on expert-provided
high-level runtimes to hide complications.
This paper presents a new FHE language called Encrypted Vector Arithmetic
(EVA), which includes an optimizing compiler that generates correct and secure
FHE programs, while hiding all the complexities of the target FHE scheme.
Bolstered by our optimizing compiler, programmers can develop efficient
general-purpose FHE applications directly in EVA. For example, we have
developed image processing applications using EVA, with a very few lines of
code.
EVA is designed to also work as an intermediate representation that can be a
target for compiling higher-level domain-specific languages. To demonstrate
this, we have re-targeted CHET, an existing domain-specific compiler for neural
network inference, onto EVA. Due to the novel optimizations in EVA, its
programs are on average 5.3x faster than those generated by CHET. We believe
that EVA would enable a wider adoption of FHE by making it easier to develop
FHE applications and domain-specific FHE compilers.
- Abstract(参考訳): 完全正則暗号(full-homomorphic encryption, fhe)は、ストレージと計算の両方のセキュアなオフロードを可能にすることによって、強力な機能を提供する。
同時にfheは、非常に制約のあるプログラミングモデル、非常に珍しいパフォーマンスプロファイル、多くの暗号化制約で使用するのが難しいことで悪名高い。
FHEの既存のコンパイラは、シンプルだが効率の低いFHEスキームをターゲットにするか、特定のドメインしかサポートしていない。
本稿では、ターゲットFHE方式の複雑さをすべて隠蔽しつつ、FHEプログラムを正しくセキュアに生成する最適化コンパイラを含む、EVA(Encrypted Vector Arithmetic)と呼ばれる新しいFHE言語を提案する。
最適化コンパイラにより、プログラマは、EVAで直接、効率的な汎用FHEアプリケーションを開発できる。
例えば、私たちはevaを使って、ほんの数行のコードで画像処理アプリケーションを開発しました。
EVAは、高レベルのドメイン固有言語をコンパイルするターゲットとなる中間表現としても機能するように設計されている。
これを示すために、ニューラルネットワーク推論のための既存のドメイン固有コンパイラであるCHETをEVAに再ターゲットした。
EVAの新たな最適化のため、CHETが生成したプログラムよりも平均5.3倍高速である。
EVAは、FHEアプリケーションやドメイン固有のFHEコンパイラの開発を容易にすることで、FHEをより広く採用できると考えています。
関連論文リスト
- ProgSG: Cross-Modality Representation Learning for Programs in
Electronic Design Automation [38.023395256208055]
高レベル合成(HLS)により、開発者はCとC++のソフトウェアコード形式で高レベルな記述をコンパイルできる。
HLSツールは相変わらず、プラグマで表されるマイクロアーキテクチャの決定を必要とする。
本稿では,ソースコードシーケンスのモダリティとグラフのモダリティを深く,きめ細かな方法で相互に相互作用させることができるProgSGを提案する。
論文 参考訳(メタデータ) (2023-05-18T09:44:18Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor
Abstractions on CPU Architectures [101.36990944099105]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - ParaGraph: Weighted Graph Representation for Performance Optimization of
HPC Kernels [1.304892050913381]
抽象構文木を拡張した並列アプリケーションのためのグラフベースの新しいプログラム表現を提案する。
提案した表現は,OpenMPコード領域のランタイムを予測するために,グラフニューラルネットワーク(GNN)をトレーニングすることで評価する。
その結果,本手法は実効性があり,実行時予測では 0.004 から 0.01 に RMSE を正規化していることがわかった。
論文 参考訳(メタデータ) (2023-04-07T05:52:59Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Boosting Neural Networks to Decompile Optimized Binaries [13.255618541522436]
Decompilation は低レベルプログラム言語 (LPL) を機能的に等価な高レベルプログラム言語 (HPL) に変換することを目的としている。
本稿では,コンパイラ最適化バイナリをターゲットとしたNeurDPという新しい学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-03T06:45:54Z) - Enabling Retargetable Optimizing Compilers for Quantum Accelerators via
a Multi-Level Intermediate Representation [78.8942067357231]
我々は、最適化され、再ターゲット可能で、事前コンパイルが可能なマルチレベル量子古典中間表現(IR)を提案する。
ゲートベースのOpenQASM 3言語全体をサポートし、共通量子プログラミングパターンのカスタム拡張と構文の改善を提供します。
私たちの研究は、通常のPythonのアプローチよりも1000倍高速で、スタンドアロンの量子言語コンパイラよりも5~10倍高速なコンパイル時間を実現しています。
論文 参考訳(メタデータ) (2021-09-01T17:29:47Z) - Instead of Rewriting Foreign Code for Machine Learning, Automatically
Synthesize Fast Gradients [6.09170287691728]
本稿では,LLVMコンパイラフレームワーク用の高性能自動微分(AD)コンパイラプラグインであるEnzymeを提案する。
EnzymeはLLVM中間表現(IR)をターゲットにした任意の言語で記述されたプログラムの勾配を合成する
MicrosoftのADBenchを含む機械学習に焦点を当てたベンチマークスイートでは、最適化されたIR上のADは、IR上のAD上の4.5倍の幾何平均スピードアップを達成する。
論文 参考訳(メタデータ) (2020-10-04T22:32:51Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。