論文の概要: OFHE: An Electro-Optical Accelerator for Discretized TFHE
        - arxiv url: http://arxiv.org/abs/2405.11607v1
- Date: Sun, 19 May 2024 16:27:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-05-21 15:02:50.808908
- Title: OFHE: An Electro-Optical Accelerator for Discretized TFHE
- Title(参考訳): OFHE:離散化TFHE用電気光学加速器
- Authors: Mengxin Zheng, Cheng Chu, Qian Lou, Nathan Youngblood, Mo Li, Sajjad Moazeni, Lei Jiang, 
- Abstract要約: textitOFHEは、離散化TFHE(DTFHE)操作を処理するために設計された電気光学加速器である。
DTFHEは他の完全同型暗号方式よりも効率的で多用途である。
既存のTFHEアクセラレータは、DTFHE操作をサポートするために容易にアップグレードできない。
- 参考スコア(独自算出の注目度): 14.192223933448174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract:   This paper presents \textit{OFHE}, an electro-optical accelerator designed to process Discretized TFHE (DTFHE) operations, which encrypt multi-bit messages and support homomorphic multiplications, lookup table operations and full-domain functional bootstrappings. While DTFHE is more efficient and versatile than other fully homomorphic encryption schemes, it requires 32-, 64-, and 128-bit polynomial multiplications, which can be time-consuming. Existing TFHE accelerators are not easily upgradable to support DTFHE operations due to limited datapaths, a lack of datapath bit-width reconfigurability, and power inefficiencies when processing FFT and inverse FFT (IFFT) kernels. Compared to prior TFHE accelerators, OFHE addresses these challenges by improving the DTFHE operation latency by 8.7\%, the DTFHE operation throughput by $57\%$, and the DTFHE operation throughput per Watt by $94\%$. 
- Abstract(参考訳): 本稿では、多ビットメッセージを暗号化し、同型乗算、ルックアップテーブル演算、フルドメイン機能ブートストラップをサポートする、離散化TFHE(DTFHE)演算を処理するための電気光学アクセラレータである「textit{OFHE}」を提案する。
DTFHEは他の完全同型暗号方式よりも効率的で汎用性が高いが、32ビット、64ビット、および128ビットの多項式乗算を必要とする。
既存のTFHEアクセラレータは、限られたデータパス、データパスビット幅再構成の欠如、FFTおよび逆FFT(IFFT)カーネルの処理時の電力不効率により、DTFHE操作をサポートするために容易にアップグレードできない。
以前のTFHEアクセラレータと比較すると、DTFHEの動作遅延を8.7 %改善し、DTFHEの動作スループットを5,7 %、Watt当たりのDTFHEの動作スループットを9,4 %改善することで、これらの課題に対処している。
 
      
        関連論文リスト
        - BlockFFN: Towards End-Side Acceleration-Friendly Mixture-of-Experts with   Chunk-Level Activation Sparsity [66.94629945519125]
 我々は、新しいMoEアーキテクチャであるBlockFFNと、その効率的なトレーニングとデプロイメント技術を紹介します。
具体的には、ReLUアクティベーションとRMSNormを統合したルータを、微分可能かつ柔軟なルーティングに使用します。
次に、トークンレベルのスペーサ(TLS)とチャンクレベルのスペーサ(CLS)の両方を促進するために、CLS対応のトレーニング目標を設計し、BlockFFNをより加速しやすいものにした。
 論文  参考訳(メタデータ) (2025-07-11T17:28:56Z)
- ABC-FHE : A Resource-Efficient Accelerator Enabling Bootstrappable   Parameters for Client-Side Fully Homomorphic Encryption [0.8795040582681392]
 ホモモルフィック暗号化(FHE)は、暗号化されたデータの連続的な計算を可能にする。
FHEアクセラレータの最近の進歩はサーバサイドのパフォーマンス改善に成功しているが、クライアントサイドの計算はボトルネックのままである。
我々はABC-FHEを提案する。ABC-FHEは、クライアント側でブートストラップ可能なパラメータをサポートする、面積効率と電力効率のよいFHEアクセラレータである。
 論文  参考訳(メタデータ) (2025-06-10T05:37:31Z)
- PiT: Progressive Diffusion Transformer [50.46345527963736]
 Pseudo textbfProgressive Dtextbfiffusion textbfTransformer (textbfPiT)を提案する。
提案したPiT-Lは,演算量が少なく,DiT-XL/2よりも54%$uparrow$FIDの改善を実現している。
 論文  参考訳(メタデータ) (2025-05-19T15:02:33Z)
- GDNTT: an Area-Efficient Parallel NTT Accelerator Using Glitch-Driven   Near-Memory Computing and Reconfigurable 10T SRAM [14.319119105134309]
 本稿では、グリッチ駆動ニアメモリコンピューティング(GDNTT)を用いた領域効率の高い高並列NTT加速器を提案する。
この設計はデータストレージ用の10Tを統合し、柔軟な行/列のデータアクセスと合理化回路マッピング戦略を可能にする。
評価の結果,提案したNTTアクセラレーターは,最先端技術と比較して1.528*のスループット向上を実現していることがわかった。
 論文  参考訳(メタデータ) (2025-05-13T01:53:07Z)
- VEXP: A Low-Cost RISC-V ISA Extension for Accelerated Softmax   Computation in Transformers [13.984340807378457]
 ソフトマックスの加速は、非ポイント、非線形の性質のために困難であり、指数が最も要求されるステップである。
シュラウドルフ法に基づく新しい近似アルゴリズムを用いて, Bfloat16指数の算術ブロックを設計する。
我々は162.7$times$低レイテンシと74.3$times$低エネルギーでSoftmaxを実行する。
 論文  参考訳(メタデータ) (2025-04-15T14:28:48Z)
- Task-Oriented Feature Compression for Multimodal Understanding via   Device-Edge Co-Inference [49.77734021302196]
 本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバヘッドの最大60%削減,システム遅延の50%削減を実現している。
 論文  参考訳(メタデータ) (2025-03-17T08:37:22Z)
- TFHE-SBC: Software Designs for Fully Homomorphic Encryption over the   Torus on Single Board Computers [0.0]
 ホモモルフィック暗号化(英: homomorphic encryption、FHE)は、統計処理と機械学習をデータ保護時に行う。
TFHEはTrus Learning With Error (TLWE)暗号化を必要とする。
本稿では,クライアント側のTFHE操作を高速化し,通信とエネルギー効率を向上させるため,新しいSBC仕様であるtextsfTFHE-SBCを提案する。
 論文  参考訳(メタデータ) (2025-03-04T12:36:58Z)
- Sliding Window Attention Training for Efficient Large Language Models [55.56483740523027]
 SWATを導入し,スライディングウインドウ・アテンション・トレーニング(Sliding Window Attention Training)により,より効率的な長文処理を実現する。
本稿では,まず,変圧器の非効率性について,ソフトマックス動作のばらつきから生じる注意シンク現象を考察する。
実験により、SWATは8つのベンチマーク上での最先端の線形リカレントアーキテクチャと比較してSOTA性能を達成することが示された。
 論文  参考訳(メタデータ) (2025-02-26T05:31:44Z)
- Accelerating Error Correction Code Transformers [56.75773430667148]
 本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
 論文  参考訳(メタデータ) (2024-10-08T11:07:55Z)
- HF-NTT: Hazard-Free Dataflow Accelerator for Number Theoretic Transform [2.4578723416255754]
 多項式乗法は、完全同型暗号(FHE)など、多くのアプリケーションにおける基本的な演算の1つである。
Numberoretic Transform (NTT) は、適応可能な乗算を向上するための有効なツールであるが、NTT加速器を高速に生成する方法が欠如している。
本稿では,新しいNTTアクセラレータであるHF-NTTを導入し,ビット反転操作を不要とするデータ移動戦略を提案する。
 論文  参考訳(メタデータ) (2024-10-07T07:31:38Z)
- PEANO-ViT: Power-Efficient Approximations of Non-Linearities in Vision   Transformers [4.523939613157408]
 Vision Transformers (ViTs) は、FPGA(Field-Programmable Gate Arrays) 用に設計されている。
ViTの非線形関数は、複雑な数学的操作のため、効率的なハードウェア実装に重大な障害をもたらす。
PEANO-ViTはレイヤ正規化層の実装を合理化するための新しいアプローチを提供する。
 論文  参考訳(メタデータ) (2024-06-21T03:54:10Z)
- SWAT: Scalable and Efficient Window Attention-based Transformers   Acceleration on FPGAs [3.302913401404089]
 スライディングウィンドウベースの静的スパースアテンションは、入力トークンのアテンションスコープを制限することで問題を緩和する。
本稿では,データフローを意識したFPGAベースのアクセラレーション設計であるSWATを提案する。
 論文  参考訳(メタデータ) (2024-05-27T10:25:08Z)
- Chain of Thought Empowers Transformers to Solve Inherently Serial   Problems [57.58801785642868]
 思考の連鎖(CoT)は、算術や記号的推論タスクにおいて、大きな言語モデル(LLM)の精度を向上させるための非常に効果的な方法である。
この研究は、表現性のレンズを通してデコーダのみの変換器に対するCoTのパワーを理論的に理解する。
 論文  参考訳(メタデータ) (2024-02-20T10:11:03Z)
- From PEFT to DEFT: Parameter Efficient Finetuning for Reducing   Activation Density in Transformers [52.199303258423306]
 本稿では,事前学習したモデルにおいて,高い活性化空間性を促進する新しい密度損失を提案する。
提案手法である textbfDEFT は,RoBERTa$_mathrmLarge$ で textbf44.94% ,Flan-T5$_mathrmXXL$ で textbf53.19% (エンコーダ密度) と textbf90.60% (デコーダ密度) で常に活性化密度を減少させることができる。
 論文  参考訳(メタデータ) (2024-02-02T21:25:46Z)
- FHEmem: A Processing In-Memory Accelerator for Fully Homomorphic   Encryption [9.884698447131374]
 ホモモルフィック暗号化(英: Homomorphic Encryption、FHE)は、暗号化データ上で任意の計算を復号化せずに実行できる技術である。
FHEは、暗号化後のデータサイズの増加により、普通のデータの計算よりも大幅に遅い。
PIMベースのFHEアクセラレータFHEmemを提案する。
 論文  参考訳(メタデータ) (2023-11-27T20:11:38Z)
- AccelTran: A Sparsity-Aware Accelerator for Dynamic Inference with
  Transformers [6.0093441900032465]
 自己注意に基づくトランスフォーマーモデルは自然言語処理の分野で大きな成功を収めた。
従来の作業は、ハードウェアの利用を制限する注意操作に関わる大きな行列を直接操作する。
低オーバーヘッドで実行時にアクティベーションを発生させる新しい動的推論スキームDynaTranを提案する。
 論文  参考訳(メタデータ) (2023-02-28T16:17:23Z)
- HANT: Hardware-Aware Network Transformation [82.54824188745887]
 ハードウェア・アウェア・ネットワーク・トランスフォーメーション(HANT)を提案する。
HANTは、ニューラルネットワーク検索のようなアプローチを使用して、非効率な操作をより効率的な代替手段に置き換える。
EfficientNetファミリの高速化に関する我々の結果は、ImageNetデータセットのトップ1の精度で最大3.6倍、0.4%の低下でHANTがそれらを加速できることを示している。
 論文  参考訳(メタデータ) (2021-07-12T18:46:34Z)
- Stable, Fast and Accurate: Kernelized Attention with Relative Positional
  Encoding [63.539333383965726]
 相対的位置符号化(RPE)を用いた変換器の注意計算を高速化する新しい手法を提案する。
相対的な位置符号化がToeplitz行列を形成するという観測に基づいて、Fast Fourier Transform (FFT) を用いて、RPEによるカーネル化された注意を効率的に計算できることを数学的に示す。
 論文  参考訳(メタデータ) (2021-06-23T17:51:26Z)
- DFTpy: An efficient and object-oriented platform for orbital-free DFT
  simulations [55.41644538483948]
 本稿では、Python 3で完全に書かれたOFDFTを実装したオープンソースソフトウェアであるDFTpyを紹介する。
本稿では,1CPUで計算したアルミニウムの100万原子系の電子構造について紹介する。
DFTpyはMITライセンスでリリースされている。
 論文  参考訳(メタデータ) (2020-02-07T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。