論文の概要: A Secure and Private Distributed Bayesian Federated Learning Design
- arxiv url: http://arxiv.org/abs/2602.20003v1
- Date: Mon, 23 Feb 2026 16:12:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.898866
- Title: A Secure and Private Distributed Bayesian Federated Learning Design
- Title(参考訳): セキュアでプライベートなベイズ的フェデレーション学習設計
- Authors: Nuocheng Yang, Sihua Wang, Zhaohui Yang, Mingzhe Chen, Changchuan Yin, Kaibin Huang,
- Abstract要約: DFL(Distributed Federated Learning)は、中央パラメータサーバを持たない大規模システム間の分散モデルトレーニングを可能にする。
DFLは、3つの重要な課題に直面している: 正直な隣人からのプライバシー漏洩、中央調整の欠如による収束の遅さ、モデルの精度の低下を目指すビザンティンの敵に対する脆弱性。
本稿では,ビザンチンの堅牢性,プライバシー保護,収束促進を統合した新しいDFLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 56.92336577799572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed Federated Learning (DFL) enables decentralized model training across large-scale systems without a central parameter server. However, DFL faces three critical challenges: privacy leakage from honest-but-curious neighbors, slow convergence due to the lack of central coordination, and vulnerability to Byzantine adversaries aiming to degrade model accuracy. To address these issues, we propose a novel DFL framework that integrates Byzantine robustness, privacy preservation, and convergence acceleration. Within this framework, each device trains a local model using a Bayesian approach and independently selects an optimal subset of neighbors for posterior exchange. We formulate this neighbor selection as an optimization problem to minimize the global loss function under security and privacy constraints. Solving this problem is challenging because devices only possess partial network information, and the complex coupling between topology, security, and convergence remains unclear. To bridge this gap, we first analytically characterize the trade-offs between dynamic connectivity, Byzantine detection, privacy levels, and convergence speed. Leveraging these insights, we develop a fully distributed Graph Neural Network (GNN)-based Reinforcement Learning (RL) algorithm. This approach enables devices to make autonomous connection decisions based on local observations. Simulation results demonstrate that our method achieves superior robustness and efficiency with significantly lower overhead compared to traditional security and privacy schemes.
- Abstract(参考訳): DFL(Distributed Federated Learning)は、中央パラメータサーバを持たない大規模システム間の分散モデルトレーニングを可能にする。
しかし、DFLは、3つの重要な課題に直面している: 正直な隣人からのプライバシー漏洩、中央調整の欠如による収束の鈍化、モデルの精度の低下を目指すビザンティンの敵に対する脆弱性。
これらの課題に対処するため、ビザンチンの堅牢性、プライバシー保護、収束促進を統合した新しいDFLフレームワークを提案する。
この枠組みの中で、各装置はベイズ的アプローチを用いて局所モデルを訓練し、後方交換のために隣人の最適な部分集合を独立に選択する。
セキュリティとプライバシの制約下でのグローバルな損失関数を最小限に抑えるため、この隣り合う選択を最適化問題として定式化する。
デバイスが部分的なネットワーク情報しか持たず、トポロジ、セキュリティ、収束の複雑な結合が不明確であるため、この問題を解決することは難しい。
このギャップを埋めるために、私たちはまず動的接続、ビザンチン検出、プライバシーレベル、収束速度の間のトレードオフを解析的に特徴付けます。
これらの知見を活用することで、完全に分散したグラフニューラルネットワーク(GNN)ベースの強化学習(RL)アルゴリズムを開発する。
このアプローチにより、デバイスはローカルな観測に基づいて、自律的な接続決定を行うことができる。
シミュレーションの結果,従来のセキュリティやプライバシ・スキームに比べ,オーバヘッドが著しく低く,ロバスト性や効率性が向上することが示された。
関連論文リスト
- Cellular Traffic Prediction via Byzantine-robust Asynchronous Federated Learning [10.584332226400676]
ネットワークトラフィック予測は、インテリジェントネットワーク運用において重要な役割を果たす。
従来の予測手法は、大量のトラフィックデータを中央サーバーに転送する必要がある、集中的なトレーニングに依存することが多い。
これらの問題を解決するために、差分プライバシーと統合されたフェデレーション学習が、分散設定におけるデータのプライバシとロバスト性を改善するソリューションとして登場した。
論文 参考訳(メタデータ) (2025-05-25T18:38:57Z) - Noise Resilient Over-The-Air Federated Learning In Heterogeneous Wireless Networks [2.2530496464901106]
6G無線ネットワークでは、人工知能(AI)駆動のアプリケーションはフェデレートラーニング(FL)の採用を要求する。
従来のOTA-FL技術は、サーバにおけるAWGN(Additive White Gaussian Noise)と、エッジデバイスにおけるデータおよびシステム不均一性の両面から影響を受けている。
我々は,これらの課題に共同で取り組むために,新しいノイズ耐性オーバーザエアフェデレートラーニング(NoROTA-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-25T11:04:00Z) - Privacy-Aware Joint DNN Model Deployment and Partitioning Optimization for Collaborative Edge Inference Services [14.408050197587654]
エッジ推論(EI)は、クラウドベースのDeep Neural Network(DNN)推論サービスの増加に対処する、有望なパラダイムとして登場した。
リソース制約のあるエッジデバイスにDNNモデルをデプロイすることは、制限/ストレージリソース、動的サービス要求、プライバシーリスクの増大など、さらなる課題をもたらす。
本稿では,DNNモデルデプロイメント,ユーザサーバアソシエーション,モデルパーティショニングを共同で扱う,新たなプライバシ対応最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-22T05:27:24Z) - Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - FeDiSa: A Semi-asynchronous Federated Learning Framework for Power
System Fault and Cyberattack Discrimination [1.0621485365427565]
本稿では,電力系統故障とサイバーアタック識別のための半非同期フェデレーション学習フレームワークFeDiSaを提案する。
産業用制御システムデータセットを用いた提案フレームワークの実験により,データ機密性を維持しつつ,通信遅延やストラグラーの悪影響を最小限に抑えながら,攻撃検出精度が向上した。
論文 参考訳(メタデータ) (2023-03-28T13:34:38Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Topology-aware Differential Privacy for Decentralized Image
Classification [81.2202290003513]
Top-DPは、分散画像分類システムの差分プライバシー保護を最適化するための新しいソリューションである。
我々は、分散化された通信トポロジのユニークな特徴を活用し、ノイズスケールを小さくし、モデルのユーザビリティを向上させる。
論文 参考訳(メタデータ) (2020-06-14T06:42:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。