論文の概要: JSAM: Privacy Straggler-Resilient Joint Client Selection and Incentive Mechanism Design in Differentially Private Federated Learning
- arxiv url: http://arxiv.org/abs/2602.21844v1
- Date: Wed, 25 Feb 2026 12:22:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.827136
- Title: JSAM: Privacy Straggler-Resilient Joint Client Selection and Incentive Mechanism Design in Differentially Private Federated Learning
- Title(参考訳): JSAM:個人差分学習におけるプライバシ・ストラグラー-レジリエント・ジョイント・クライアントの選択とインセンティブ・メカニズム設計
- Authors: Ruichen Xu, Ying-Jun Angela Zhang, Jianwei Huang,
- Abstract要約: 既存のインセンティブメカニズムは、バイアスのないクライアントの選択に依存しており、サーバは最もプライバシーに敏感なクライアントでさえ補償せざるを得ない。
本稿では,クライアント選択確率とプライバシ補償を同時に最適化するベイズ最適化フレームワークであるJSAMを紹介する。
サーバは、高感度の参加者を除外しながら、優先的にプライバシ耐性のあるクライアントを選択するべきであることを証明し、プライバシ感受性の低いクライアントが、頻繁な参加によって最高の累積コストを発生させる可能性があるという、反直感的な洞察を明らかにする。
- 参考スコア(独自算出の注目度): 33.2985262258717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private federated learning faces a fundamental tension: privacy protection mechanisms that safeguard client data simultaneously create quantifiable privacy costs that discourage participation, undermining the collaborative training process. Existing incentive mechanisms rely on unbiased client selection, forcing servers to compensate even the most privacy-sensitive clients ("privacy stragglers"), leading to systemic inefficiency and suboptimal resource allocation. We introduce JSAM (Joint client Selection and privacy compensAtion Mechanism), a Bayesian-optimal framework that simultaneously optimizes client selection probabilities and privacy compensation to maximize training effectiveness under budget constraints. Our approach transforms a complex 2N-dimensional optimization problem into an efficient three-dimensional formulation through novel theoretical characterization of optimal selection strategies. We prove that servers should preferentially select privacy-tolerant clients while excluding high-sensitivity participants, and uncover the counter-intuitive insight that clients with minimal privacy sensitivity may incur the highest cumulative costs due to frequent participation. Extensive evaluations on MNIST and CIFAR-10 demonstrate that JSAM achieves up to 15% improvement in test accuracy compared to existing unbiased selection mechanisms while maintaining cost efficiency across varying data heterogeneity levels.
- Abstract(参考訳): クライアントデータを同時に保護するプライバシー保護メカニズムは、参加を妨げ、協調的なトレーニングプロセスを損なう、定量的なプライバシコストを発生させる。
既存のインセンティブメカニズムは、バイアスのないクライアントの選択に依存しており、サーバは最もプライバシーに敏感なクライアント(プライバシ・ストラグラー)でさえ補償せざるを得ない。
JSAM(Joint client Selection and Privacy compensAtion Mechanism)は,予算制約下でのトレーニング効率を最大化するために,クライアント選択確率とプライバシ補償を同時に最適化するベイズ最適化フレームワークである。
提案手法は, 複雑な2N次元最適化問題を最適選択戦略の新たな理論的特徴付けにより, 効率的な3次元定式化に変換する。
サーバは、高感度の参加者を除外しながら、優先的にプライバシ耐性のあるクライアントを選択するべきであることを証明し、プライバシ感受性の低いクライアントが、頻繁な参加によって最高の累積コストを発生させる可能性があるという、反直感的な洞察を明らかにする。
MNIST と CIFAR-10 の大規模評価は、JSAM が既存の不偏選択機構と比較して最大15%の精度向上を実現し、様々なデータ不均一度レベルのコスト効率を維持していることを示している。
関連論文リスト
- CoSIFL: Collaborative Secure and Incentivized Federated Learning with Differential Privacy [1.1266158555540042]
CoSIFLは、堅牢なセキュリティとローカルディファレンシャルプライバシのためのプロアクティブアラームを統合するフレームワークである。
Tullockコンテストにインスパイアされたインセンティブモジュールは、データコントリビューションと信頼性の高いアラームトリガーの両方に対して、誠実なクライアントに報いる。
サーバ・クライアント・ゲームはユニークな平衡性を認めており、クライアントの多次元属性(例えば、IIDの学位やプライバシー予算など)がシステム効率にどのように影響を与えるかを分析する。
論文 参考訳(メタデータ) (2025-09-27T08:45:40Z) - Optimal Client Sampling in Federated Learning with Client-Level Heterogeneous Differential Privacy [8.683908900328237]
プライバシー予算に基づいてクライアントをグループに分割し,各グループ内のクライアントレベルのDPを実現し,プライバシー予算の無駄を削減するGDPFedを提案する。
また、GDPFed$+$を導入することで、不要なノイズを排除し、グループごとのクライアントサンプリング比率を最適化します。
論文 参考訳(メタデータ) (2025-05-19T18:55:34Z) - Revisiting Locally Differentially Private Protocols: Towards Better Trade-offs in Privacy, Utility, and Attack Resistance [4.5282933786221395]
ローカル微分プライバシー(LDP)は、特にデータを収集するサーバが信頼できない設定で、強力なプライバシ保護を提供する。
本稿では, LDPプロトコルを改良するための汎用多目的最適化フレームワークを提案する。
我々のフレームワークは、調整可能なプライバシ・ユーティリティ・トレードオフによるLPP機構のモジュール化とコンテキスト対応のデプロイを可能にする。
論文 参考訳(メタデータ) (2025-03-03T12:41:01Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Emulating Full Participation: An Effective and Fair Client Selection Strategy for Federated Learning [50.060154488277036]
連合学習では、クライアントの選択はモデルの性能と公平性の両方に大きな影響を及ぼす重要な問題である。
2つの指標間の固有の対立に対処し、互いに強化する2つの原則を提案する。
提案手法は,データ分布に基づいてクライアントを選択することにより,この多様性を適応的に向上させ,モデル性能と公平性の両方を改善する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Shuffled Model of Federated Learning: Privacy, Communication and
Accuracy Trade-offs [30.58690911428577]
通信効率とプライバシ要求を考慮した分散経験的リスク最小化(ERM)の最適化問題を考察する。
いくつかの$ell_p$空間に対するプライベート平均推定のための(最適)通信効率スキームを開発する。
完全精度通信を用いた最近の手法で開発された,同一のプライバシ,最適化性能のオペレーティングポイントを実現できることを示す。
論文 参考訳(メタデータ) (2020-08-17T09:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。