論文の概要: One-Shot Secure Aggregation: A Hybrid Cryptographic Protocol for Private Federated Learning in IoT
- arxiv url: http://arxiv.org/abs/2511.23252v1
- Date: Fri, 28 Nov 2025 15:01:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.948275
- Title: One-Shot Secure Aggregation: A Hybrid Cryptographic Protocol for Private Federated Learning in IoT
- Title(参考訳): One-Shot Secure Aggregation: IoTにおけるプライベートフェデレーション学習のためのハイブリッド暗号化プロトコル
- Authors: Imraul Emmaka, Tran Viet Xuan Phuong,
- Abstract要約: Hyb-Aggは軽量で通信効率の良いセキュアアグリゲーションプロトコルである。
マルチキーCKKS (MK-CKKS) と楕円曲線Diffie-Hellman (ECDH) ベースの加算マスキングを統合している。
Raspberry Pi 4を含む高性能およびリソース制約のあるデバイス上でHyb-Aggを実装し,評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) offers a promising approach to collaboratively train machine learning models without centralizing raw data, yet its scalability is often throttled by excessive communication overhead. This challenge is magnified in Internet of Things (IoT) environments, where devices face stringent bandwidth, latency, and energy constraints. Conventional secure aggregation protocols, while essential for protecting model updates, frequently require multiple interaction rounds, large payload sizes, and per-client costs rendering them impractical for many edge deployments. In this work, we present Hyb-Agg, a lightweight and communication-efficient secure aggregation protocol that integrates Multi-Key CKKS (MK-CKKS) homomorphic encryption with Elliptic Curve Diffie-Hellman (ECDH)-based additive masking. Hyb-Agg reduces the secure aggregation process to a single, non-interactive client-to-server transmission per round, ensuring that per-client communication remains constant regardless of the number of participants. This design eliminates partial decryption exchanges, preserves strong privacy under the RLWE, CDH, and random oracle assumptions, and maintains robustness against collusion by the server and up to $N-2$ clients. We implement and evaluate Hyb-Agg on both high-performance and resource-constrained devices, including a Raspberry Pi 4, demonstrating that it delivers sub-second execution times while achieving a constant communication expansion factor of approximately 12x over plaintext size. By directly addressing the communication bottleneck, Hyb-Agg enables scalable, privacy-preserving federated learning that is practical for real-world IoT deployments.
- Abstract(参考訳): Federated Learning(FL)は、生データを集中せずに機械学習モデルを協調的にトレーニングする、有望なアプローチを提供する。
この課題は、デバイスが厳しい帯域幅、レイテンシ、エネルギー制約に直面しているIoT(Internet of Things)環境で拡大しています。
従来のセキュアなアグリゲーションプロトコルは、モデル更新を保護するのに不可欠だが、頻繁に複数のインタラクションラウンド、大きなペイロードサイズ、クライアント毎のコストを必要とするため、多くのエッジデプロイメントでは実用的ではない。
本稿では,マルチキーCKKS (MK-CKKS) の同型暗号化と楕円曲線Diffie-Hellman (ECDH) ベースの加算マスクを統合した,軽量かつ通信効率の良いセキュアアグリゲーションプロトコルであるHyb-Aggを提案する。
Hyb-Aggはセキュアなアグリゲーションプロセスを1ラウンド当たり1つの非対話的クライアント-サーバ間通信に削減し、参加者数に関係なくクライアント間通信が一定であることを保証する。
この設計では、部分的な復号化の交換を排除し、RLWE、CDH、ランダムなオラクルの仮定の下で強力なプライバシを保持し、サーバと最大$N-2$のクライアントによる共謀に対する堅牢性を維持する。
Raspberry Pi 4を含む高性能・資源制約の両デバイス上でHyb-Aggを実装し,その性能評価を行った。
通信ボトルネックに直接対処することで、Hyb-Aggは、現実世界のIoTデプロイメントに実用的な、スケーラブルでプライバシ保護のフェデレーション学習を可能にする。
関連論文リスト
- Rethinking Multi-Condition DiTs: Eliminating Redundant Attention via Position-Alignment and Keyword-Scoping [61.459927600301654]
マルチコンディション制御は従来のコンカデント・アンド・アットエンドの戦略によってボトルネックとなる。
分析の結果,これらの相互作用の多くは空間的にも意味的にも冗長であることがわかった。
本稿では,これらの冗長性を解消するための高効率なフレームワークであるPKAを提案する。
論文 参考訳(メタデータ) (2026-02-06T16:39:10Z) - CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Information-Theoretic Decentralized Secure Aggregation with Collusion Resilience [95.33295072401832]
情報理論の観点から分散型セキュアアグリゲーション(DSA)の問題点を考察する。
DSAの最小到達可能な通信量と秘密鍵率を指定する最適レート領域を特徴付ける。
本研究は,DSAの基本性能限界を確立し,信頼性の高い通信効率の高いプロトコルの設計に関する知見を提供する。
論文 参考訳(メタデータ) (2025-08-01T12:51:37Z) - PWC-MoE: Privacy-Aware Wireless Collaborative Mixture of Experts [59.5243730853157]
クラウドサーバにホストされる大規模言語モデル(LLM)は、ローカルデバイス上の計算とストレージの負担を軽減するが、プライバシの懸念を高める。
小規模言語モデル(SLM)は、ローカルで実行されるためプライバシーが向上するが、複雑なタスクではパフォーマンスが制限される。
帯域幅制約下での計算コスト,性能,プライバシ保護のバランスをとるために,プライバシを意識したPWC-MoE(PWC-MoE)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:27:07Z) - Fundamental Limits of Hierarchical Secure Aggregation with Cyclic User Association [93.46811590752814]
階層型セキュアアグリゲーションは、フェデレートラーニング(FL)によって動機付けられる
本稿では,各ユーザが連続する$B$のリレーに接続される循環型アソシエーションパターンを用いたHSAについて考察する。
勾配符号化にインスパイアされた入力に対するメッセージ設計を含む効率的なアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2025-03-06T15:53:37Z) - NET-SA: An Efficient Secure Aggregation Architecture Based on In-Network Computing [10.150846654917753]
NET-SAは機械学習のための効率的なセキュアアグリゲーションアーキテクチャである。
シードアグリーメントとシークレット共有のコミュニケーション集約フェーズを排除し、通信オーバーヘッドを低減する。
実行時の最大77倍と12倍の強化を実現し、最先端のメソッドと比較してクライアント間の通信コストを2倍削減する。
論文 参考訳(メタデータ) (2025-01-02T10:27:06Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - EncCluster: Scalable Functional Encryption in Federated Learning through Weight Clustering and Probabilistic Filters [3.9660142560142067]
フェデレートラーニング(FL)は、アグリゲーションサーバにのみローカルモデルの更新を通信することで、分散デバイス間のモデルトレーニングを可能にする。
FLはモデル更新送信中に推論攻撃に弱いままである。
本稿では、重みクラスタリングによるモデル圧縮と、最近の分散型FEとプライバシ強化データエンコーディングを統合する新しい方法であるEncClusterを提案する。
論文 参考訳(メタデータ) (2024-06-13T14:16:50Z) - Boosting Communication Efficiency of Federated Learning's Secure Aggregation [22.943966056320424]
Federated Learning(FL)は、クライアントデバイスがモデルをローカルにトレーニングしてサーバに送信する分散機械学習アプローチである。
FLは、トレーニングされたモデルからセンシティブなクライアントデータを推論できる、モデル逆攻撃に対して脆弱である。
GoogleのSecure Aggregation(SecAgg)プロトコルは、各クライアントのトレーニング済みモデルを隠すことによって、このデータプライバシ問題に対処する。
このポスターでは、このオーバーヘッドを大幅に削減する通信効率の高いセキュアアグリゲーション(CESA)プロトコルを紹介している。
論文 参考訳(メタデータ) (2024-05-02T10:00:16Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated Learning Based on Coded Computing and Vector Commitment [61.540831911168226]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggはビザンツの攻撃やプライバシーの漏洩に耐性がある。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - Reconciling Security and Communication Efficiency in Federated Learning [11.653872280157321]
クロスデバイスフェデレーション学習は、ますます人気のある機械学習環境である。
本稿では,クライアント・サーバ間のモデル更新を圧縮する問題を形式化し,解決する。
我々は、セキュアなフェデレートラーニング(Federated Learning)セットアップでLEAFベンチマークの最先端結果を確立し、アップリンク通信において最大40$times$圧縮を行う。
論文 参考訳(メタデータ) (2022-07-26T09:52:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。