論文の概要: Hardware-Friendly Randomization: Enabling Random-Access and Minimal Wiring in FHE Accelerators with Low Total Cost
- arxiv url: http://arxiv.org/abs/2602.19550v1
- Date: Mon, 23 Feb 2026 06:49:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.70417
- Title: Hardware-Friendly Randomization: Enabling Random-Access and Minimal Wiring in FHE Accelerators with Low Total Cost
- Title(参考訳): ハードウェアフレンドリーなランダム化:低コストFHE加速器におけるランダムアクセシビリティと最小配線の実現
- Authors: Ilan Rosenfeld, Noam Kleinburd, Hillel Chapman, Dror Reuven,
- Abstract要約: Ring-Learning With Errors問題は、効率的な暗号化スキームのバックボーンを形成する。
このオーバーヘッドを減らす技術は、決定論的プロセスを通じてクライアント側の小さなシードから$a$を生成します。
通信遅延とメモリフットプリントの低減を維持するアプローチの利点を詳述する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Ring-Learning With Errors (RLWE) problem forms the backbone of highly efficient Fully Homomorphic Encryption (FHE) schemes. A significant component of the RLWE public key and ciphertext of the form $(b,a)$ is the uniformly random polynomial $a \in R_q$ . While essential for security, the communication overhead of transmitting $a$ from client to server, and inputting it into a hardware accelerator, can be substantial, especially for FHE accelerators aiming at high acceleration factors. A known technique in reducing this overhead generates $a$ from a small seed on the client side via a deterministic process, transmits only the seed, and generates $a$ on-the-fly within the accelerator. Challenges in the hardware implementation of an accelerator include wiring (density and power), compute area, compute power as well as flexibility in scheduling of on-the-fly generation instructions. This extended abstract proposes a concrete scheme and parameters wherein these practical challenges are addressed. We detail the benefits of our approach, which maintains the reduction in communication latency and memory footprint, while allowing parallel generation of uniformly distributed samples, relaxed wiring requirements, unrestricted randomaccess to RNS limbs, and results in an extremely low overhead on the client side (i.e. less than 3%) during the key generation process. The proposed scheme eliminates the need for thick metal layers for randomness distribution and prevents the power consumption of the PRNG subsystem from scaling prohibitively with the acceleration factor, potentially saving tens of Watts per accelerator chip in high-throughput configurations.
- Abstract(参考訳): RLWE(Ring-Learning With Errors)問題は、FHE(Fully Homomorphic Encryption)スキームのバックボーンを形成する。
RLWE公開鍵と$(b,a)$という形の暗号文の重要な成分は、一様ランダム多項式 $a \in R_q$ である。
セキュリティには不可欠だが、クライアントからサーバへ$a$を送信し、それをハードウェアアクセラレータに入力する通信オーバーヘッドは、特に高いアクセラレーション係数を目標とするFHEアクセラレーターにとって、かなり大きい。
このオーバーヘッドを減らすための既知のテクニックは、決定論的プロセスを通じてクライアント側の小さなシードから$a$を生成し、シードのみを送信し、アクセラレータ内で$a$をオンザフライで生成する。
アクセラレーターのハードウェア実装における課題は、配線(密度とパワー)、計算領域、計算能力、およびオンザフライ生成命令のスケジューリングにおける柔軟性である。
この拡張抽象概念は、これらの実践的な課題に対処する具体的なスキームとパラメータを提案する。
通信遅延とメモリフットプリントの低減を維持しつつ、一様に分散されたサンプルの並列生成を可能にし、配線要求を緩和し、RSSの手足へのランダムアクセスを制限せず、キー生成プロセスにおいてクライアント側(すなわち3%未満)のオーバーヘッドを極端に低くする手法の利点を詳述する。
提案方式では, PRNGサブシステムの電力消費をアクセラレーション係数で禁忌にし, アクセラレーションチップ当たり数十ワットのWattを高スループット構成で節約できる可能性が示唆された。
関連論文リスト
- One-Shot Secure Aggregation: A Hybrid Cryptographic Protocol for Private Federated Learning in IoT [0.0]
Hyb-Aggは軽量で通信効率の良いセキュアアグリゲーションプロトコルである。
マルチキーCKKS (MK-CKKS) と楕円曲線Diffie-Hellman (ECDH) ベースの加算マスキングを統合している。
Raspberry Pi 4を含む高性能およびリソース制約のあるデバイス上でHyb-Aggを実装し,評価する。
論文 参考訳(メタデータ) (2025-11-28T15:01:26Z) - ABC-FHE : A Resource-Efficient Accelerator Enabling Bootstrappable Parameters for Client-Side Fully Homomorphic Encryption [0.8795040582681392]
ホモモルフィック暗号化(FHE)は、暗号化されたデータの連続的な計算を可能にする。
FHEアクセラレータの最近の進歩はサーバサイドのパフォーマンス改善に成功しているが、クライアントサイドの計算はボトルネックのままである。
我々はABC-FHEを提案する。ABC-FHEは、クライアント側でブートストラップ可能なパラメータをサポートする、面積効率と電力効率のよいFHEアクセラレータである。
論文 参考訳(メタデータ) (2025-06-10T05:37:31Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [54.53508601749513]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバーヘッドを最大52%削減し,システム遅延を最大63%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - InTAR: Inter-Task Auto-Reconfigurable Accelerator Design for High Data Volume Variation in DNNs [5.762543012823378]
InTARはFPGA上のHDVアプリケーションのための新しいアクセラレータ設計手法である。
回路設計の前に決定された静的スケジュールで実行パターンを自動的に切り替える。
InTARは、少ないリソースと低い再構成時間で高いクロック周波数を達成する。
論文 参考訳(メタデータ) (2025-02-12T21:43:51Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Efficient Federated Meta-Learning over Multi-Access Wireless Networks [26.513076310183273]
フェデレーションメタラーニング(FML)は、今日のエッジラーニング分野におけるデータ制限と不均一性に対処するための、有望なパラダイムとして登場した。
本稿では,FMLアルゴリズム(NUFM)を一様でないデバイス選択方式で開発し,収束を加速する。
本稿では,マルチアクセス無線システムにおけるNUFMの統合による資源配分問題を提案する。
論文 参考訳(メタデータ) (2021-08-14T03:23:04Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。