論文の概要: REED: Chiplet-Based Accelerator for Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2308.02885v2
- Date: Wed, 1 May 2024 10:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 20:30:46.675144
- Title: REED: Chiplet-Based Accelerator for Fully Homomorphic Encryption
- Title(参考訳): REED: 完全同型暗号化のためのチップレットベースの加速器
- Authors: Aikata Aikata, Ahmet Can Mert, Sunmin Kwon, Maxim Deryabin, Sujoy Sinha Roy,
- Abstract要約: 本稿では,従来のモノリシック設計の限界を克服する,マルチチップベースのFHEアクセラレータREEDについて紹介する。
その結果、REED 2.5Dマイクロプロセッサはチップ面積96.7 mm$2$、平均電力49.4Wを7nm技術で消費していることがわかった。
- 参考スコア(独自算出の注目度): 4.713756093611972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fully Homomorphic Encryption (FHE) enables privacy-preserving computation and has many applications. However, its practical implementation faces massive computation and memory overheads. To address this bottleneck, several Application-Specific Integrated Circuit (ASIC) FHE accelerators have been proposed. All these prior works put every component needed for FHE onto one chip (monolithic), hence offering high performance. However, they suffer from practical problems associated with large-scale chip design, such as inflexibility, low yield, and high manufacturing cost. In this paper, we present the first-of-its-kind multi-chiplet-based FHE accelerator `REED' for overcoming the limitations of prior monolithic designs. To utilize the advantages of multi-chiplet structures while matching the performance of larger monolithic systems, we propose and implement several novel strategies in the context of FHE. These include a scalable chiplet design approach, an effective framework for workload distribution, a custom inter-chiplet communication strategy, and advanced pipelined Number Theoretic Transform and automorphism design to enhance performance. Experimental results demonstrate that REED 2.5D microprocessor consumes 96.7 mm$^2$ chip area, 49.4 W average power in 7nm technology. It could achieve a remarkable speedup of up to 2,991x compared to a CPU (24-core 2xIntel X5690) and offer 1.9x better performance, along with a 50% reduction in development costs when compared to state-of-the-art ASIC FHE accelerators. Furthermore, our work presents the first instance of benchmarking an encrypted deep neural network (DNN) training. Overall, the REED architecture design offers a highly effective solution for accelerating FHE, thereby significantly advancing the practicality and deployability of FHE in real-world applications.
- Abstract(参考訳): 完全同型暗号化(FHE)は、プライバシ保護計算を可能にし、多くのアプリケーションを持つ。
しかし、その実践的な実装は、膨大な計算とメモリオーバーヘッドに直面している。
このボトルネックに対処するため、いくつかのアプリケーション専用集積回路(ASIC)FHEアクセラレータが提案されている。
これらの以前の作業はすべて、FHEに必要なすべてのコンポーネントを1つのチップ(モノリシック)に配置し、高性能を実現した。
しかし、それらは、柔軟性、低収率、製造コストなど、大規模なチップ設計に関連する実用上の問題に悩まされている。
本稿では,従来のモノリシック設計の限界を克服するための,マルチチップベースのFHEアクセラレータ「REED」について述べる。
大規模モノリシックシステムの性能に適合しながら,マルチチップ構造の利点を生かし,FHEの文脈で新たな戦略を提案し,実装する。
これには、スケーラブルなチップレット設計アプローチ、ワークロード分散のための効果的なフレームワーク、カスタムのチップレット間通信戦略、高性能なパイプライン数理論変換と自己同型設計などが含まれる。
実験の結果、REED 2.5Dマイクロプロセッサはチップ面積96.7 mm$^2$、平均出力49.4Wを7nm技術で消費していることがわかった。
CPU(24コアの2xIntel X5690)と比較して2,991倍のスピードアップを実現し、1.9倍の性能を実現し、最先端のASIC FHEアクセラレータと比べて開発コストを50%削減できる。
さらに、我々の研究は、暗号化されたディープニューラルネットワーク(DNN)トレーニングをベンチマークする最初の事例を示す。
全体として、REEDアーキテクチャ設計はFHEを加速するための非常に効果的なソリューションを提供し、現実世界のアプリケーションにおけるFHEの実用性とデプロイ性を大幅に向上させる。
関連論文リスト
- EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Co-design of a novel CMOS highly parallel, low-power, multi-chip neural network accelerator [0.0]
我々は,並列処理(>10X)を大幅に高速化し,消費電力を大幅に削減する新しい低消費電力ASICAIプロセッサであるNV-1を提案する。
結果のデバイスは、現在、フィールド化されたエッジセンサーアプリケーションで使用されている。
論文 参考訳(メタデータ) (2024-09-28T15:47:16Z) - Benchmarking End-To-End Performance of AI-Based Chip Placement Algorithms [77.71341200638416]
ChiPBenchはAIベースのチップ配置アルゴリズムの有効性を評価するために設計されたベンチマークである。
評価のために、さまざまなドメイン(CPU、GPU、マイクロコントローラなど)から20の回路を集めました。
その結果, 単点アルゴリズムの中間距離が支配的であったとしても, 最終的なPPA結果は満足できないことがわかった。
論文 参考訳(メタデータ) (2024-07-03T03:29:23Z) - Optimizing Foundation Model Inference on a Many-tiny-core Open-source RISC-V Platform [13.326025546527784]
本稿では,オープンソースのマルチティニーコアRISC-Vプラットフォーム上で,トランスフォーマーモデルの最初のエンドツーエンド推論結果を示す。
エンコーダのみのモデルでは、最も最適化された実装とベースラインバージョンの間の最大12.8倍のスピードアップを示す。
デコーダのみのトポロジでは、非自己回帰(NAR)モードで16.1倍、オート回帰(AR)モードで最大35.6倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2024-05-29T17:16:59Z) - FPGA-QHAR: Throughput-Optimized for Quantized Human Action Recognition
on The Edge [0.6254873489691849]
本稿では,8ビット量子化された2ストリームSimpleNet-PyTorch CNNアーキテクチャに基づく,エンドツーエンドHAR拡張型HW/SWアクセラレータの共設計を提案する。
私たちの開発では、部分的にストリーミングデータフローアーキテクチャを使用して、ネットワーク設計やリソース利用のトレードオフよりも高いスループットを実現しています。
提案手法は,ZCU104上の187MHzで約24FPSのリアルタイム推論スループットを用いて,約81%の予測精度を達成した。
論文 参考訳(メタデータ) (2023-11-04T10:38:21Z) - CiFHER: A Chiplet-Based FHE Accelerator with a Resizable Structure [5.0817812294893]
ホモモルフィック暗号化(FHE)は、プライバシに対する決定的な解決策であるが、FHEの高い計算オーバーヘッドは、その実践的な採用に挑戦する。
本稿では,チップレットをベースとしたFHE加速器であるCiFHERを提案する。
本研究では、多数のコンパクトチップレットからなるCiFHERパッケージが、最先端のモノリシックASICアクセラレータに匹敵する性能を提供することを示した。
論文 参考訳(メタデータ) (2023-08-09T11:41:56Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Faster Attention Is What You Need: A Fast Self-Attention Neural Network
Backbone Architecture for the Edge via Double-Condensing Attention Condensers [71.40595908386477]
本稿では,2重対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向
結果のバックボーン(AttendNeXtと呼ぶ)は、組み込みARMプロセッサ上で大幅に高い推論スループットを実現する。
これらの有望な結果は、さまざまな効率的なアーキテクチャ設計と自己アテンション機構の探索が、TinyMLアプリケーションのための興味深い新しいビルディングブロックにつながることを実証している。
論文 参考訳(メタデータ) (2022-08-15T02:47:33Z) - EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense
Prediction [67.11722682878722]
この研究は、新しいマルチスケール線形注意を持つ高解像度ビジョンモデルのファミリーであるEfficientViTを提示する。
マルチスケール線形注意は,グローバルな受容場とマルチスケール学習を実現する。
EfficientViTは従来の最先端モデルよりも優れたパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2022-05-29T20:07:23Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - FantastIC4: A Hardware-Software Co-Design Approach for Efficiently
Running 4bit-Compact Multilayer Perceptrons [19.411734658680967]
深層ニューラルネットワーク(DNN)の高効率な実行エンジンを得るためのソフトウェアハードウェア最適化パラダイムを提案する。
私たちのアプローチは、予測性能の高い多層パーセプトロン(MLP)の面積と電力要件を低減するための手段として、圧縮を中心にしています。
仮想超大規模FPGA XCVU440デバイス実装では総消費電力3.6Wで2.45 TOPSのスループットを達成し、22nmプロセスASICバージョンでは20.17 TOPS/Wの総電力効率を達成できることを示した。
論文 参考訳(メタデータ) (2020-12-17T19:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。