論文の概要: ABC-FHE : A Resource-Efficient Accelerator Enabling Bootstrappable Parameters for Client-Side Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2506.08461v1
- Date: Tue, 10 Jun 2025 05:37:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.565153
- Title: ABC-FHE : A Resource-Efficient Accelerator Enabling Bootstrappable Parameters for Client-Side Fully Homomorphic Encryption
- Title(参考訳): ABC-FHE : クライアント側完全同型暗号化のためのブートストラップ可能なパラメータを実現する資源効率のよい加速器
- Authors: Sungwoong Yune, Hyojeong Lee, Adiwena Putra, Hyunjun Cho, Cuong Duong Manh, Jaeho Jeon, Joo-Young Kim,
- Abstract要約: ホモモルフィック暗号化(FHE)は、暗号化されたデータの連続的な計算を可能にする。
FHEアクセラレータの最近の進歩はサーバサイドのパフォーマンス改善に成功しているが、クライアントサイドの計算はボトルネックのままである。
我々はABC-FHEを提案する。ABC-FHEは、クライアント側でブートストラップ可能なパラメータをサポートする、面積効率と電力効率のよいFHEアクセラレータである。
- 参考スコア(独自算出の注目度): 0.8795040582681392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the demand for privacy-preserving computation continues to grow, fully homomorphic encryption (FHE)-which enables continuous computation on encrypted data-has become a critical solution. However, its adoption is hindered by significant computational overhead, requiring 10000-fold more computation compared to plaintext processing. Recent advancements in FHE accelerators have successfully improved server-side performance, but client-side computations remain a bottleneck, particularly under bootstrappable parameter configurations, which involve combinations of encoding, encrypt, decoding, and decrypt for large-sized parameters. To address this challenge, we propose ABC-FHE, an area- and power-efficient FHE accelerator that supports bootstrappable parameters on the client side. ABC-FHE employs a streaming architecture to maximize performance density, minimize area usage, and reduce off-chip memory access. Key innovations include a reconfigurable Fourier engine capable of switching between NTT and FFT modes. Additionally, an on-chip pseudo-random number generator and a unified on-the-fly twiddle factor generator significantly reduce memory demands, while optimized task scheduling enhances the CKKS client-side processing, achieving reduced latency. Overall, ABC-FHE occupies a die area of 28.638 mm2 and consumes 5.654 W of power in 28 nm technology. It delivers significant performance improvements, achieving a 1112x speed-up in encoding and encryption execution time compared to a CPU, and 214x over the state-of-the-art client-side accelerator. For decoding and decryption, it achieves a 963x speed-up over the CPU and 82x over the state-of-the-art accelerator.
- Abstract(参考訳): プライバシ保護計算の需要が拡大するにつれて、暗号化されたデータに対する連続的な計算を可能にする完全同型暗号化(FHE)が重要なソリューションとなる。
しかし、その採用は計算オーバーヘッドが著しくなり、平文処理に比べて10000倍の計算を必要とする。
FHEアクセラレータの最近の進歩はサーバサイドのパフォーマンスの改善に成功しているが、クライアントサイドの計算は、特に大規模なパラメータのエンコーディング、暗号化、復号化、復号化の組み合わせを含むブートストラップ可能なパラメータ構成の下では、ボトルネックのままである。
この課題に対処するためにABC-FHEを提案する。ABC-FHEは、クライアント側でブートストラップ可能なパラメータをサポートする領域効率と電力効率のよいFHEアクセラレータである。
ABC-FHEは、ストリーミングアーキテクチャを使用して、パフォーマンス密度を最大化し、領域使用量を最小化し、オフチップメモリアクセスを減らす。
主な革新としては、NTTモードとFFTモードの切り替えが可能な再構成可能なフーリエエンジンがある。
さらに、オンチップの擬似ランダム数生成器とオンザフライのツイドル係数生成器の統一により、メモリ要求が大幅に減少し、最適化されたタスクスケジューリングにより、CKKSクライアントサイド処理が強化され、レイテンシが低下する。
ABC-FHEは28.638mm2のダイ面積を占め、28nm技術で5.654Wの電力を消費する。
CPUと比較して符号化と暗号化の実行時間の1112倍のスピードアップを実現し、最先端のクライアントサイドアクセラレータよりも214倍のスピードアップを実現している。
復号化と復号化のために、CPUの963倍、最先端のアクセラレータの82倍のスピードアップを実現している。
関連論文リスト
- GDNTT: an Area-Efficient Parallel NTT Accelerator Using Glitch-Driven Near-Memory Computing and Reconfigurable 10T SRAM [14.319119105134309]
本稿では、グリッチ駆動ニアメモリコンピューティング(GDNTT)を用いた領域効率の高い高並列NTT加速器を提案する。
この設計はデータストレージ用の10Tを統合し、柔軟な行/列のデータアクセスと合理化回路マッピング戦略を可能にする。
評価の結果,提案したNTTアクセラレーターは,最先端技術と比較して1.528*のスループット向上を実現していることがわかった。
論文 参考訳(メタデータ) (2025-05-13T01:53:07Z) - Real-Time Bit-Level Encryption of Full High-Definition Video Without Diffusion [1.0202696337641386]
リアルタイム暗号化アルゴリズムは、高解像度ビデオに対するリアルタイム暗号化の要求を満たすには不十分である。
本稿では,異種並列計算に基づくリアルタイムビデオ暗号化プロトコルを提案する。
実験により,本手法は優れた統計特性と堅牢なセキュリティを示すことが示された。
論文 参考訳(メタデータ) (2025-05-12T00:36:45Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [49.77734021302196]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバヘッドの最大60%削減,システム遅延の50%削減を実現している。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - OFHE: An Electro-Optical Accelerator for Discretized TFHE [14.192223933448174]
textitOFHEは、離散化TFHE(DTFHE)操作を処理するために設計された電気光学加速器である。
DTFHEは他の完全同型暗号方式よりも効率的で多用途である。
既存のTFHEアクセラレータは、DTFHE操作をサポートするために容易にアップグレードできない。
論文 参考訳(メタデータ) (2024-05-19T16:27:21Z) - Data-Oblivious ML Accelerators using Hardware Security Extensions [9.716425897388875]
アウトソース計算は、クライアントデータの機密性を危険にさらす可能性がある。
Gemmini行列乗算加速器にDIFTを適用したDolmaを開発した。
Dolmaは大きな構成で低いオーバーヘッドを発生させることを示す。
論文 参考訳(メタデータ) (2024-01-29T21:34:29Z) - FHEmem: A Processing In-Memory Accelerator for Fully Homomorphic Encryption [9.884698447131374]
ホモモルフィック暗号化(英: Homomorphic Encryption、FHE)は、暗号化データ上で任意の計算を復号化せずに実行できる技術である。
FHEは、暗号化後のデータサイズの増加により、普通のデータの計算よりも大幅に遅い。
PIMベースのFHEアクセラレータFHEmemを提案する。
論文 参考訳(メタデータ) (2023-11-27T20:11:38Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。