論文の概要: Theoretically Principled Federated Learning for Balancing Privacy and
Utility
- arxiv url: http://arxiv.org/abs/2305.15148v2
- Date: Sat, 3 Jun 2023 12:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 00:47:32.131461
- Title: Theoretically Principled Federated Learning for Balancing Privacy and
Utility
- Title(参考訳): プライバシとユーティリティのバランスをとるための理論的に原理的な連合学習
- Authors: Xiaojin Zhang, Wenjie Li, Kai Chen, Shutao Xia, Qiang Yang
- Abstract要約: モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
- 参考スコア(独自算出の注目度): 61.03993520243198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a general learning framework for the protection mechanisms that
protects privacy via distorting model parameters, which facilitates the
trade-off between privacy and utility. The algorithm is applicable to arbitrary
privacy measurements that maps from the distortion to a real value. It can
achieve personalized utility-privacy trade-off for each model parameter, on
each client, at each communication round in federated learning. Such adaptive
and fine-grained protection can improve the effectiveness of privacy-preserved
federated learning.
Theoretically, we show that gap between the utility loss of the protection
hyperparameter output by our algorithm and that of the optimal protection
hyperparameter is sub-linear in the total number of iterations. The
sublinearity of our algorithm indicates that the average gap between the
performance of our algorithm and that of the optimal performance goes to zero
when the number of iterations goes to infinity. Further, we provide the
convergence rate of our proposed algorithm. We conduct empirical results on
benchmark datasets to verify that our method achieves better utility than the
baseline methods under the same privacy budget.
- Abstract(参考訳): 本稿では,プライバシとユーティリティのトレードオフを容易にするモデルパラメータの歪みによるプライバシ保護機構の一般学習フレームワークを提案する。
このアルゴリズムは、歪みから実際の値にマップする任意のプライバシー測定に適用できる。
フェデレーション学習では、各モデルパラメータ、各クライアント、各通信ラウンドに対するパーソナライズされたユーティリティプライバシートレードオフを実現することができる。
このような適応的できめ細かい保護は、プライバシー保護された連合学習の有効性を向上させることができる。
理論的には,本アルゴリズムが生成する保護ハイパーパラメータの効用損失と最適保護ハイパーパラメータの損失の差は,反復数でサブリニアであることが示されている。
アルゴリズムのサブリニア性は,反復回数が無限大となると,アルゴリズムの性能と最適性能の平均差がゼロになることを示す。
さらに,提案アルゴリズムの収束率について述べる。
提案手法が同一のプライバシ予算下でのベースライン手法よりも有効であることを示すため,ベンチマークデータセット上で実証実験を行った。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Immersion and Invariance-based Coding for Privacy-Preserving Federated Learning [1.4226399196408985]
協調分散学習におけるプライバシ保護手法として,フェデレートラーニング(FL)が登場している。
制御理論から差分プライバシーとシステム浸漬ツールを組み合わせたプライバシー保護FLフレームワークを提案する。
提案手法は,局所モデルパラメータとグローバルモデルパラメータの両方に対して,任意のレベルの差分プライバシを提供するように調整可能であることを実証する。
論文 参考訳(メタデータ) (2024-09-25T15:04:42Z) - Efficient Privacy-Preserving KAN Inference Using Homomorphic Encryption [9.0993556073886]
ホモモルフィック暗号化(HE)は、ディープラーニングモデルのプライバシー保護推論を容易にする。
SiLUアクティベーション関数やB-スプライン関数などの非線形要素を組み込んだkanの複雑な構造は、既存のプライバシ保存推論技術が不十分である。
そこで我々は,kansに適した高精度かつ効率的なプライバシ保護型推論手法を提案する。
論文 参考訳(メタデータ) (2024-09-12T04:51:27Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Towards Achieving Near-optimal Utility for Privacy-Preserving Federated
Learning via Data Generation and Parameter Distortion [19.691227962303515]
フェデレートラーニング(FL)は、参加者がプライベートデータ情報を開示することなく、強化されたユーティリティでグローバルモデルを構築することを可能にする。
テキストプライバシーの維持と高モデルテキストティタリティ維持の要件を満たすために、様々な保護メカニズムを採用する必要がある。
論文 参考訳(メタデータ) (2023-05-07T14:34:15Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。