論文の概要: OFHE: An Electro-Optical Accelerator for Discretized TFHE
- arxiv url: http://arxiv.org/abs/2405.11607v1
- Date: Sun, 19 May 2024 16:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 15:02:50.808908
- Title: OFHE: An Electro-Optical Accelerator for Discretized TFHE
- Title(参考訳): OFHE:離散化TFHE用電気光学加速器
- Authors: Mengxin Zheng, Cheng Chu, Qian Lou, Nathan Youngblood, Mo Li, Sajjad Moazeni, Lei Jiang,
- Abstract要約: textitOFHEは、離散化TFHE(DTFHE)操作を処理するために設計された電気光学加速器である。
DTFHEは他の完全同型暗号方式よりも効率的で多用途である。
既存のTFHEアクセラレータは、DTFHE操作をサポートするために容易にアップグレードできない。
- 参考スコア(独自算出の注目度): 14.192223933448174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents \textit{OFHE}, an electro-optical accelerator designed to process Discretized TFHE (DTFHE) operations, which encrypt multi-bit messages and support homomorphic multiplications, lookup table operations and full-domain functional bootstrappings. While DTFHE is more efficient and versatile than other fully homomorphic encryption schemes, it requires 32-, 64-, and 128-bit polynomial multiplications, which can be time-consuming. Existing TFHE accelerators are not easily upgradable to support DTFHE operations due to limited datapaths, a lack of datapath bit-width reconfigurability, and power inefficiencies when processing FFT and inverse FFT (IFFT) kernels. Compared to prior TFHE accelerators, OFHE addresses these challenges by improving the DTFHE operation latency by 8.7\%, the DTFHE operation throughput by $57\%$, and the DTFHE operation throughput per Watt by $94\%$.
- Abstract(参考訳): 本稿では、多ビットメッセージを暗号化し、同型乗算、ルックアップテーブル演算、フルドメイン機能ブートストラップをサポートする、離散化TFHE(DTFHE)演算を処理するための電気光学アクセラレータである「textit{OFHE}」を提案する。
DTFHEは他の完全同型暗号方式よりも効率的で汎用性が高いが、32ビット、64ビット、および128ビットの多項式乗算を必要とする。
既存のTFHEアクセラレータは、限られたデータパス、データパスビット幅再構成の欠如、FFTおよび逆FFT(IFFT)カーネルの処理時の電力不効率により、DTFHE操作をサポートするために容易にアップグレードできない。
以前のTFHEアクセラレータと比較すると、DTFHEの動作遅延を8.7 %改善し、DTFHEの動作スループットを5,7 %、Watt当たりのDTFHEの動作スループットを9,4 %改善することで、これらの課題に対処している。
関連論文リスト
- Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - HF-NTT: Hazard-Free Dataflow Accelerator for Number Theoretic Transform [2.4578723416255754]
多項式乗法は、完全同型暗号(FHE)など、多くのアプリケーションにおける基本的な演算の1つである。
Numberoretic Transform (NTT) は、適応可能な乗算を向上するための有効なツールであるが、NTT加速器を高速に生成する方法が欠如している。
本稿では,新しいNTTアクセラレータであるHF-NTTを導入し,ビット反転操作を不要とするデータ移動戦略を提案する。
論文 参考訳(メタデータ) (2024-10-07T07:31:38Z) - PEANO-ViT: Power-Efficient Approximations of Non-Linearities in Vision Transformers [4.523939613157408]
Vision Transformers (ViTs) は、FPGA(Field-Programmable Gate Arrays) 用に設計されている。
ViTの非線形関数は、複雑な数学的操作のため、効率的なハードウェア実装に重大な障害をもたらす。
PEANO-ViTはレイヤ正規化層の実装を合理化するための新しいアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-21T03:54:10Z) - SWAT: Scalable and Efficient Window Attention-based Transformers Acceleration on FPGAs [3.302913401404089]
スライディングウィンドウベースの静的スパースアテンションは、入力トークンのアテンションスコープを制限することで問題を緩和する。
本稿では,データフローを意識したFPGAベースのアクセラレーション設計であるSWATを提案する。
論文 参考訳(メタデータ) (2024-05-27T10:25:08Z) - Chain of Thought Empowers Transformers to Solve Inherently Serial Problems [57.58801785642868]
思考の連鎖(CoT)は、算術や記号的推論タスクにおいて、大きな言語モデル(LLM)の精度を向上させるための非常に効果的な方法である。
この研究は、表現性のレンズを通してデコーダのみの変換器に対するCoTのパワーを理論的に理解する。
論文 参考訳(メタデータ) (2024-02-20T10:11:03Z) - From PEFT to DEFT: Parameter Efficient Finetuning for Reducing Activation Density in Transformers [52.199303258423306]
本稿では,事前学習したモデルにおいて,高い活性化空間性を促進する新しい密度損失を提案する。
提案手法である textbfDEFT は,RoBERTa$_mathrmLarge$ で textbf44.94% ,Flan-T5$_mathrmXXL$ で textbf53.19% (エンコーダ密度) と textbf90.60% (デコーダ密度) で常に活性化密度を減少させることができる。
論文 参考訳(メタデータ) (2024-02-02T21:25:46Z) - FHEmem: A Processing In-Memory Accelerator for Fully Homomorphic Encryption [9.884698447131374]
ホモモルフィック暗号化(英: Homomorphic Encryption、FHE)は、暗号化データ上で任意の計算を復号化せずに実行できる技術である。
FHEは、暗号化後のデータサイズの増加により、普通のデータの計算よりも大幅に遅い。
PIMベースのFHEアクセラレータFHEmemを提案する。
論文 参考訳(メタデータ) (2023-11-27T20:11:38Z) - AccelTran: A Sparsity-Aware Accelerator for Dynamic Inference with
Transformers [6.0093441900032465]
自己注意に基づくトランスフォーマーモデルは自然言語処理の分野で大きな成功を収めた。
従来の作業は、ハードウェアの利用を制限する注意操作に関わる大きな行列を直接操作する。
低オーバーヘッドで実行時にアクティベーションを発生させる新しい動的推論スキームDynaTranを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:17:23Z) - HANT: Hardware-Aware Network Transformation [82.54824188745887]
ハードウェア・アウェア・ネットワーク・トランスフォーメーション(HANT)を提案する。
HANTは、ニューラルネットワーク検索のようなアプローチを使用して、非効率な操作をより効率的な代替手段に置き換える。
EfficientNetファミリの高速化に関する我々の結果は、ImageNetデータセットのトップ1の精度で最大3.6倍、0.4%の低下でHANTがそれらを加速できることを示している。
論文 参考訳(メタデータ) (2021-07-12T18:46:34Z) - Stable, Fast and Accurate: Kernelized Attention with Relative Positional
Encoding [63.539333383965726]
相対的位置符号化(RPE)を用いた変換器の注意計算を高速化する新しい手法を提案する。
相対的な位置符号化がToeplitz行列を形成するという観測に基づいて、Fast Fourier Transform (FFT) を用いて、RPEによるカーネル化された注意を効率的に計算できることを数学的に示す。
論文 参考訳(メタデータ) (2021-06-23T17:51:26Z) - DFTpy: An efficient and object-oriented platform for orbital-free DFT
simulations [55.41644538483948]
本稿では、Python 3で完全に書かれたOFDFTを実装したオープンソースソフトウェアであるDFTpyを紹介する。
本稿では,1CPUで計算したアルミニウムの100万原子系の電子構造について紹介する。
DFTpyはMITライセンスでリリースされている。
論文 参考訳(メタデータ) (2020-02-07T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。