論文の概要: Local Differential Privacy for Federated Learning with Fixed Memory Usage and Per-Client Privacy
- arxiv url: http://arxiv.org/abs/2510.12908v1
- Date: Tue, 14 Oct 2025 18:32:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.382618
- Title: Local Differential Privacy for Federated Learning with Fixed Memory Usage and Per-Client Privacy
- Title(参考訳): メモリ使用量とクライアント毎のプライバシを固定したフェデレーション学習のためのローカル差分プライバシー
- Authors: Rouzbeh Behnia, Jeremiah Birrell, Arman Riasi, Reza Ebrahimi, Kaushik Dutta, Thang Hoang,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、各参加者が送信前に更新を民営化することで、強力な保護を提供する。
これらの問題は、HIPAAやフェデレーテッドラーニングのような規則に対するモデル一般化可能性、公正性、コンプライアンスを損なう。
本稿では,L-RDPを提案する。L-RDPはLCP用に設計されたDP方式であり,メモリ使用量が少なく,ドロップアウトを低減し,より厳密なクライアント毎のプライバシー保証を提供する。
- 参考スコア(独自算出の注目度): 10.651246049060166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables organizations to collaboratively train models without sharing their datasets. Despite this advantage, recent studies show that both client updates and the global model can leak private information, limiting adoption in sensitive domains such as healthcare. Local differential privacy (LDP) offers strong protection by letting each participant privatize updates before transmission. However, existing LDP methods were designed for centralized training and introduce challenges in FL, including high resource demands that can cause client dropouts and the lack of reliable privacy guarantees under asynchronous participation. These issues undermine model generalizability, fairness, and compliance with regulations such as HIPAA and GDPR. To address them, we propose L-RDP, a DP method designed for LDP that ensures constant, lower memory usage to reduce dropouts and provides rigorous per-client privacy guarantees by accounting for intermittent participation.
- Abstract(参考訳): フェデレートラーニング(FL)は、データセットを共有することなく、協力的にモデルをトレーニングすることを可能にする。
この優位性にもかかわらず、最近の研究では、クライアントのアップデートとグローバルモデルの両方がプライベート情報を漏洩し、医療などの機密分野への導入を制限することが示されている。
ローカルディファレンシャルプライバシ(LDP)は、各参加者が送信前に更新を民営化することで、強力な保護を提供する。
しかし、既存のLCPメソッドは集中的なトレーニングのために設計され、クライアントのドロップアウトを引き起こす高いリソース要求や非同期参加時の信頼性の高いプライバシ保証の欠如など、FLの課題を導入している。
これらの問題は、HIPAAやGDPRなどの規制に対するモデル一般化可能性、公正性、コンプライアンスを損なう。
L-RDP, L-RDPは, LDP用に設計され, メモリ使用量が少なく, ドロップアウトを低減し, 間欠的参加を考慮し, 厳密なクライアント毎のプライバシー保証を提供する。
関連論文リスト
- Can Federated Learning Safeguard Private Data in LLM Training? Vulnerabilities, Attacks, and Defense Evaluation [20.37072541084284]
フェデレートラーニング(FL)により、クライアントは、コラボレーティブトレーニングのためのモデルパラメータのみを共有しながら、ローカルデータを保持できる。
攻撃者は、簡単な生成方法を用いても、グローバルモデルからトレーニングデータを抽出できることを示す。
FLに合わせた攻撃戦略を導入し、トレーニング中にグローバルモデルのアップデートを追跡し、プライバシーの漏洩を強化する。
論文 参考訳(メタデータ) (2025-09-25T02:28:08Z) - Theoretically Unmasking Inference Attacks Against LDP-Protected Clients in Federated Vision Models [22.023648710005734]
フェデレーション学習は、直接的なデータ共有を避けながら、サーバの調整を通じてクライアント間の協調学習を可能にする。
メンバーシップ推論攻撃(MIA)に関する最近の研究は、この概念に異議を唱えており、未保護のトレーニングデータに対する高い成功率を示している。
完全連結層や自己アテンション層の脆弱性を利用する低ポリノミカル時間MIAの成功率について理論的に低い境界を導出する。
論文 参考訳(メタデータ) (2025-06-16T21:48:11Z) - DP-RTFL: Differentially Private Resilient Temporal Federated Learning for Trustworthy AI in Regulated Industries [0.0]
本稿では,DP-RTFL(Disferially Private Resilient Temporal Federated Learning)を紹介する。
トレーニングの継続性、正確な状態回復、強力なデータプライバシを保証するように設計されている。
このフレームワークは、機密性の高い財務データを使用した信用リスク評価のような重要なアプリケーションに特に適している。
論文 参考訳(メタデータ) (2025-05-27T16:30:25Z) - Privacy-Preserving Customer Support: A Framework for Secure and Scalable Interactions [0.0]
本稿では,大規模言語モデル(LLM)をゼロショット学習モードで活用する新しいアプローチとして,プライバシー保護ゼロショット学習(PP-ZSL)フレームワークを提案する。
従来の機械学習手法とは異なり、PP-ZSLは、事前学習されたLLMを使用して直接応答を生成することで、機密データに対する局所的なトレーニングを不要にしている。
このフレームワークには、リアルタイムデータ匿名化による機密情報の修正やマスク、ドメイン固有のクエリ解決のための検索強化生成(RAG)、規制基準の遵守を保証するための堅牢な後処理が含まれている。
論文 参考訳(メタデータ) (2024-12-10T17:20:47Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。