論文の概要: FedRE: Robust and Effective Federated Learning with Privacy Preference
- arxiv url: http://arxiv.org/abs/2505.04889v1
- Date: Thu, 08 May 2025 01:50:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.717958
- Title: FedRE: Robust and Effective Federated Learning with Privacy Preference
- Title(参考訳): FedRE: プライバシーを優先したロバストで効果的なフェデレーション学習
- Authors: Tianzhe Xiao, Yichen Li, Yu Zhou, Yining Qi, Yi Liu, Wei Wang, Haozhao Wang, Yi Wang, Ruixuan Li,
- Abstract要約: Federated Learning (FL) は、生データのプライバシー漏洩を防ぐために、分散トレーニングのためにサーバにグラデーションアグリゲーションを採用する。
プライベート情報は、クライアントからアップロードされたグラデーションの分析を通じて、依然として拡散することができる。
既存の手法では、各サンプルを同じメカニズムで摂動するだけで、実用的な問題を考慮できない。
- 参考スコア(独自算出の注目度): 20.969342596181246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite Federated Learning (FL) employing gradient aggregation at the server for distributed training to prevent the privacy leakage of raw data, private information can still be divulged through the analysis of uploaded gradients from clients. Substantial efforts have been made to integrate local differential privacy (LDP) into the system to achieve a strict privacy guarantee. However, existing methods fail to take practical issues into account by merely perturbing each sample with the same mechanism while each client may have their own privacy preferences on privacy-sensitive information (PSI), which is not uniformly distributed across the raw data. In such a case, excessive privacy protection from private-insensitive information can additionally introduce unnecessary noise, which may degrade the model performance. In this work, we study the PSI within data and develop FedRE, that can simultaneously achieve robustness and effectiveness benefits with LDP protection. More specifically, we first define PSI with regard to the privacy preferences of each client. Then, we optimize the LDP by allocating less privacy budget to gradients with higher PSI in a layer-wise manner, thus providing a stricter privacy guarantee for PSI. Furthermore, to mitigate the performance degradation caused by LDP, we design a parameter aggregation mechanism based on the distribution of the perturbed information. We conducted experiments with text tamper detection on T-SROIE and DocTamper datasets, and FedRE achieves competitive performance compared to state-of-the-art methods.
- Abstract(参考訳): Federated Learning (FL) は、生データのプライバシー漏洩を防ぐために、分散トレーニングのためにサーバにグラデーションアグリゲーションを使用しているが、クライアントからアップロードされたグラデーションの分析を通じて、プライベート情報を漏らすことができる。
ローカルディファレンシャルプライバシ(LDP)をシステムに統合し、厳格なプライバシ保証を実現するため、実質的な努力がなされている。
しかし、既存の手法では、サンプルを同じメカニズムで摂動するだけで、実際の問題を考慮できない。一方、各クライアントはプライバシに敏感な情報(PSI)に対して独自のプライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・インフォメーション(PSI)を持つ可能性がある。
このような場合、機密性の高い情報からの過剰なプライバシー保護は、不要なノイズを付加し、モデルの性能を低下させる可能性がある。
本研究では、データ内のPSIを調査し、LDP保護による堅牢性と有効性を同時に達成できるFedREを開発する。
具体的には、まず、各クライアントのプライバシー設定に関してPSIを定義します。
そして、プライバシー予算の削減を、階層的に高いPSIの勾配に割り当てることで、DPを最適化し、PSIに対してより厳格なプライバシー保証を提供する。
さらに, LDPによる性能劣化を軽減するため, 摂動情報の分布に基づくパラメータ集約機構を設計する。
我々はT-SROIEおよびDocTamperデータセットのテキスト改ざん検出実験を行い、FedREは最先端の手法と比較して競合性能を達成した。
関連論文リスト
- FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - Federated Learning With Individualized Privacy Through Client Sampling [2.0432201743624456]
フェデレートラーニング(FL)における個別微分プライバシー(IDP)を実現するための適応的手法を提案する。
我々は、不均一なプライバシー予算に基づいてクライアント固有のサンプリングレートを計算し、修正IDP-FedAvgアルゴリズムに統合する。
実験の結果,DPベースラインの統一化により,プライバシとユーティリティのトレードオフを低減できることがわかった。
論文 参考訳(メタデータ) (2025-01-29T13:11:21Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Gradient-Leakage Resilient Federated Learning [8.945356237213007]
Federated Learning(FL)は,クライアントプライバシをデフォルトとする,新たな分散学習パラダイムである。
近年の研究では、FLの勾配リークがクライアントのトレーニングデータのプライバシーを損なう可能性があることが示されている。
本稿では,学習例ごとのクライアント差分プライバシーを用いて,プライバシー保護フェデレーション学習への勾配リーク耐性アプローチを提案する。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。