論文の概要: FedBit: Accelerating Privacy-Preserving Federated Learning via Bit-Interleaved Packing and Cross-Layer Co-Design
- arxiv url: http://arxiv.org/abs/2509.23091v1
- Date: Sat, 27 Sep 2025 03:58:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.029685
- Title: FedBit: Accelerating Privacy-Preserving Federated Learning via Bit-Interleaved Packing and Cross-Layer Co-Design
- Title(参考訳): FedBit: Bit-Interleaved Packingとクロスレイヤの共同設計による、プライバシ保護によるフェデレーション学習の促進
- Authors: Xiangchen Meng, Yangdi Lyu,
- Abstract要約: 完全同型暗号化(FHE)を備えたフェデレートラーニング(FL)は、モデルアグリゲーション中にデータプライバシを効果的に保護する。
FedBit は Brakerski-Fan-Vercauteren (BFV) スキームのためのハードウェア/ソフトウェアの共同設計フレームワークである。
FedBitは、ビットインターリーブデータパッキングを使用して、複数のモデルパラメータを単一の暗号係数に埋め込む。
- 参考スコア(独自算出の注目度): 2.255961793913651
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) with fully homomorphic encryption (FHE) effectively safeguards data privacy during model aggregation by encrypting local model updates before transmission, mitigating threats from untrusted servers or eavesdroppers in transmission. However, the computational burden and ciphertext expansion associated with homomorphic encryption can significantly increase resource and communication overhead. To address these challenges, we propose FedBit, a hardware/software co-designed framework optimized for the Brakerski-Fan-Vercauteren (BFV) scheme. FedBit employs bit-interleaved data packing to embed multiple model parameters into a single ciphertext coefficient, thereby minimizing ciphertext expansion and maximizing computational parallelism. Additionally, we integrate a dedicated FPGA accelerator to handle cryptographic operations and an optimized dataflow to reduce the memory overhead. Experimental results demonstrate that FedBit achieves a speedup of two orders of magnitude in encryption and lowers average communication overhead by 60.7%, while maintaining high accuracy.
- Abstract(参考訳): 完全同型暗号化(FHE)を備えたフェデレートラーニング(FL)は、送信前にローカルモデルの更新を暗号化し、信頼できないサーバや盗聴者の脅威を軽減し、モデルアグリゲーション中のデータプライバシを効果的に保護する。
しかし、同型暗号化に伴う計算負担と暗号文の拡張は、リソースや通信のオーバーヘッドを大幅に増加させる可能性がある。
これらの課題に対処するために,Brakerski-Fan-Vercauteren (BFV) 方式に最適化されたハードウェア/ソフトウェア共同設計フレームワークであるFedBitを提案する。
FedBitはビットインターリーブデータパッキングを用いて、複数のモデルパラメータを1つの暗号文係数に埋め込むことで、暗号文の拡張を最小化し、計算並列性を最大化する。
さらに、暗号化操作を処理するための専用FPGAアクセラレータと、メモリオーバーヘッドを低減するために最適化されたデータフローを統合します。
実験の結果、FedBitは暗号化の2桁のスピードアップを実現し、平均的な通信オーバーヘッドを60.7%削減し、高精度を維持した。
関連論文リスト
- A Scalable Architecture for Efficient Multi-bit Fully Homomorphic Encryption [1.4174227043241145]
本稿では,マルチビットTFHE計算の効率化を目的としたハードウェアアクセラレータTaurusを紹介する。
Taurusは、新しいFFTユニットを活用し、キー再利用戦略を通じてメモリ帯域幅を最適化することで、最大10ビットの暗号文をサポートする。
実験の結果,TaurusはCPU上で最大2600倍の高速化,GPU上で1200倍の高速化を実現した。
論文 参考訳(メタデータ) (2025-09-16T05:00:57Z) - Federated Learning: An approach with Hybrid Homomorphic Encryption [1.7181078670359513]
Federated Learning(FL)は、デバイスにデータを保持することでプライバシを保証する分散機械学習アプローチである。
本稿では,PASTA対称暗号とBFV FHEスキームをペア化するFLのためのHybrid Homomorphic Encryption (HHE)フレームワークを提案する。
Flower FLフレームワーク上に開発されたプロトタイプ実装では、12のクライアントと10のトレーニングラウンドを持つMNISTデータセットが独立して同一に分散されているため、提案されたHHEシステムは97.6%の精度を実現している。
論文 参考訳(メタデータ) (2025-09-03T15:58:22Z) - Secure Federated XGBoost with CUDA-accelerated Homomorphic Encryption via NVIDIA FLARE [6.053716038605071]
フェデレートラーニング(FL)は、分散データセット間の協調モデルトレーニングを可能にする。
NVIDIA FLAREのFederated XGBoostは、人気のあるXGBoostアルゴリズムを、垂直および水平の両方のフェデレーション設定に拡張する。
最初の実施は、中間統計の共有に関する相互信頼を前提としていた。
これらのリスクを軽減するための効率的なソリューションとして,セキュアフェデレーションXGBoostを紹介します。
論文 参考訳(メタデータ) (2025-04-04T20:08:24Z) - QuanCrypt-FL: Quantized Homomorphic Encryption with Pruning for Secure Federated Learning [0.48342038441006796]
我々は,攻撃に対する防御を強化するために,低ビット量子化とプルーニング技術を組み合わせた新しいアルゴリズムQuanCrypt-FLを提案する。
我々は、MNIST、CIFAR-10、CIFAR-100データセットに対するアプローチを検証し、最先端手法と比較して優れた性能を示す。
QuanCrypt-FLは、最大9倍高速暗号化、16倍高速復号化、1.5倍高速推論を実現し、トレーニング時間を最大3倍短縮する。
論文 参考訳(メタデータ) (2024-11-08T01:46:00Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - SOCI^+: An Enhanced Toolkit for Secure OutsourcedComputation on Integers [50.608828039206365]
本稿では,SOCIの性能を大幅に向上させるSOCI+を提案する。
SOCI+は、暗号プリミティブとして、高速な暗号化と復号化を備えた(2, 2)ホールドのPaillier暗号システムを採用している。
実験の結果,SOCI+は計算効率が最大5.4倍,通信オーバヘッドが40%少ないことがわかった。
論文 参考訳(メタデータ) (2023-09-27T05:19:32Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - FFConv: Fast Factorized Neural Network Inference on Encrypted Data [9.868787266501036]
本稿では、畳み込みと暗号文のパッキングを統一するFFConvと呼ばれる低ランク分解法を提案する。
先行技術であるLoLaとFalconと比較して,提案手法は,それぞれ最大87%,12%の遅延を減少させる。
論文 参考訳(メタデータ) (2021-02-06T03:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。