論文の概要: Privacy-Preserving Quantized Federated Learning with Diverse Precision
- arxiv url: http://arxiv.org/abs/2507.00920v1
- Date: Tue, 01 Jul 2025 16:26:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.731656
- Title: Privacy-Preserving Quantized Federated Learning with Diverse Precision
- Title(参考訳): 差分精度によるプライバシ保存型量子フェデレーション学習
- Authors: Dang Qua Nguyen, Morteza Hashemi, Erik Perrins, Sergiy A. Vorobyov, David J. Love, Taejoon Kim,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、分散機械学習のための有望なパラダイムとして登場した。
その進歩にもかかわらず、FLは次のように制限されている。 (i) 核融合センター(FC)へのローカルモデル更新の保護されていない送信から生じるプライバシーリスク。
プライバシ(DP)と最小量子化誤差を同時に達成するために設計された新しい量子化器(SQ)を導入する。
- 参考スコア(独自算出の注目度): 26.884460225459627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has emerged as a promising paradigm for distributed machine learning, enabling collaborative training of a global model across multiple local devices without requiring them to share raw data. Despite its advancements, FL is limited by factors such as: (i) privacy risks arising from the unprotected transmission of local model updates to the fusion center (FC) and (ii) decreased learning utility caused by heterogeneity in model quantization resolution across participating devices. Prior work typically addresses only one of these challenges because maintaining learning utility under both privacy risks and quantization heterogeneity is a non-trivial task. In this paper, our aim is therefore to improve the learning utility of a privacy-preserving FL that allows clusters of devices with different quantization resolutions to participate in each FL round. Specifically, we introduce a novel stochastic quantizer (SQ) that is designed to simultaneously achieve differential privacy (DP) and minimum quantization error. Notably, the proposed SQ guarantees bounded distortion, unlike other DP approaches. To address quantization heterogeneity, we introduce a cluster size optimization technique combined with a linear fusion approach to enhance model aggregation accuracy. Numerical simulations validate the benefits of our approach in terms of privacy protection and learning utility compared to the conventional LaplaceSQ-FL algorithm.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散機械学習のための有望なパラダイムとして登場し、生データを共有することなく、複数のローカルデバイス間でグローバルモデルの協調トレーニングを可能にする。
その進歩にもかかわらず、FLは以下の要因によって制限される。
一 核融合センター(FC)へのローカルモデル更新の未保護送信によるプライバシーリスク
(II) 参加デバイス間のモデル量子化分解能の不均一性による学習能力の低下。
プライバシのリスクと量子化の不均一性の両方の下での学習ユーティリティの維持は、非自明な作業であるため、従来の作業はこれらの課題の1つにのみ対処する。
そこで本研究では,各FLラウンドに,異なる量子化解像度のデバイス群が参加できるように,プライバシ保護FLの学習性を向上させることを目的とする。
具体的には、差分プライバシー(DP)と最小量子化誤差を同時に達成するために設計された新しい確率量子化器(SQ)を導入する。
特に、提案されたSQは、他のDPアプローチとは異なり、有界歪みを保証する。
量子化の不均一性に対処するため,モデルの集約精度を高めるために,線形融合法と組み合わせたクラスタサイズ最適化手法を提案する。
従来のLaplaceSQ-FLアルゴリズムと比較して,プライバシ保護と学習ユーティリティの観点から,我々のアプローチの利点を検証した。
関連論文リスト
- FedPref: Federated Learning Across Heterogeneous Multi-objective Preferences [2.519319150166215]
Federated Learning(FL)は、トレーニングデータが分散デバイスによって所有され、共有できない設定のために開発された分散機械学習戦略である。
FLの現実的な設定への応用は、参加者間の不均一性に関連する新たな課題をもたらします。
この設定でパーソナライズされたFLを促進するために設計された最初のアルゴリズムであるFedPrefを提案する。
論文 参考訳(メタデータ) (2025-01-23T12:12:59Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Privacy-aware Berrut Approximated Coded Computing for Federated Learning [1.2084539012992408]
フェデレートラーニングスキームにおけるプライバシを保証するためのソリューションを提案する。
本提案は,Secret Sharing設定に適応したBerrut Approximated Coded Computingに基づく。
論文 参考訳(メタデータ) (2024-05-02T20:03:13Z) - QMGeo: Differentially Private Federated Learning via Stochastic Quantization with Mixed Truncated Geometric Distribution [1.565361244756411]
Federated Learning(FL)は、複数のユーザがグローバル機械学習(ML)モデルを共同でトレーニングできるフレームワークである。
このような分散フレームワークの重要な動機の1つは、ユーザにプライバシ保証を提供することである。
本稿では,DPを提供するのに必要なランダム性を導入するために,混合幾何分布を用いた新しい量子化法を提案する。
論文 参考訳(メタデータ) (2023-12-10T04:44:53Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。