論文の概要: Coding-Enforced Resilient and Secure Aggregation for Hierarchical Federated Learning
- arxiv url: http://arxiv.org/abs/2601.17995v1
- Date: Sun, 25 Jan 2026 21:07:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.57477
- Title: Coding-Enforced Resilient and Secure Aggregation for Hierarchical Federated Learning
- Title(参考訳): 階層型フェデレーション学習のための符号化強化型レジリエントとセキュアアグリゲーション
- Authors: Shudi Weng, Ming Xiao, Mikael Skoglund,
- Abstract要約: 階層的連合学習(HFL)は、クライアントとサーバ間のリンク品質を高める効果的なパラダイムとして登場した。
本稿では,構造化アグリゲーションを強制するための符号化戦略を統合するH-SecCoGCという,堅牢な階層型セキュアアグリゲーション手法を提案する。
- 参考スコア(独自算出の注目度): 30.254515308020512
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hierarchical federated learning (HFL) has emerged as an effective paradigm to enhance link quality between clients and the server. However, ensuring model accuracy while preserving privacy under unreliable communication remains a key challenge in HFL, as the coordination among privacy noise can be randomly disrupted. To address this limitation, we propose a robust hierarchical secure aggregation scheme, termed H-SecCoGC, which integrates coding strategies to enforce structured aggregation. The proposed scheme not only ensures accurate global model construction under varying levels of privacy, but also avoids the partial participation issue, thereby significantly improving robustness, privacy preservation, and learning efficiency. Both theoretical analyses and experimental results demonstrate the superiority of our scheme under unreliable communication across arbitrarily strong privacy guarantees
- Abstract(参考訳): 階層的連合学習(HFL)は、クライアントとサーバ間のリンク品質を高める効果的なパラダイムとして登場した。
しかしながら、信頼性の低い通信下でのプライバシ保護において、モデル精度を確保することは、プライバシノイズ間の調整をランダムに破壊できるため、HFLにおいて重要な課題である。
この制限に対処するため、構造化アグリゲーションを強制するための符号化戦略を統合するH-SecCoGCと呼ばれる堅牢な階層型セキュアアグリゲーションスキームを提案する。
提案手法は, 多様なプライバシレベル下での正確なグローバルモデル構築を保証するだけでなく, 部分的参加の問題も回避し, 堅牢性, プライバシー保護, 学習効率を大幅に向上させる。
理論解析と実験結果の両方が、任意に強いプライバシー保証を通した信頼できない通信における我々の計画の優越性を実証している。
関連論文リスト
- Subgraph Federated Learning via Spectral Methods [52.40322201034717]
FedLapは、プライバシとスケーラビリティを確保しながら、ノード間の依存関係をキャプチャする新しいフレームワークである。
我々は、FedLapのプライバシを正式に分析し、プライバシを保存することを実証する。
論文 参考訳(メタデータ) (2025-10-29T16:22:32Z) - Federated Learning with Enhanced Privacy via Model Splitting and Random Client Participation [7.780051713043537]
フェデレートラーニング(FL)では、クライアントデータを保護するために差分プライバシ(DP)を採用することが多いが、プライバシ保証に必要なノイズの追加は、モデルの精度を著しく低下させる可能性がある。
モデル分割型プライバシ増幅型フェデレーションラーニング(MS-PAFL)を提案する。
このフレームワークでは、各クライアントのモデルをプライベートサブモデルに分割し、ローカルに保持し、グローバルアグリゲーションのために共有されるパブリックサブモデルに分割する。
論文 参考訳(メタデータ) (2025-09-30T07:51:06Z) - Deciphering the Interplay between Attack and Protection Complexity in Privacy-Preserving Federated Learning [17.040727625306083]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングのための有望なパラダイムを提供する。
Attack Complexity"は、敵がプライベートデータを再構築するのに必要となる最小限の計算およびデータリソースである。
「保護複雑性」は、プライバシーメカニズムによってもたらされるであろう歪みである。
論文 参考訳(メタデータ) (2025-08-16T04:39:16Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Sparse Decentralized Federated Learning [35.32297764027417]
分散フェデレートラーニング(DFL)は、中央サーバーなしで協調的なモデルトレーニングを可能にするが、効率、安定性、信頼性の課題に直面している。
Sparse DFL (SDFL) に繋がる共有モデルに空間制約を導入し,新しいアルゴリズムCEPSを提案する。
数値実験により,高い信頼性を維持しつつ,コミュニケーションと効率を向上させるための提案アルゴリズムの有効性が検証された。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。