論文の概要: Towards Achieving Near-optimal Utility for Privacy-Preserving Federated
Learning via Data Generation and Parameter Distortion
- arxiv url: http://arxiv.org/abs/2305.04288v1
- Date: Sun, 7 May 2023 14:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:30:03.083114
- Title: Towards Achieving Near-optimal Utility for Privacy-Preserving Federated
Learning via Data Generation and Parameter Distortion
- Title(参考訳): データ生成とパラメータ歪みによるプライバシー保護型連合学習の至近最適ユーティリティの実現に向けて
- Authors: Xiaojin Zhang, Kai Chen, Qiang Yang
- Abstract要約: フェデレートラーニング(FL)は、参加者がプライベートデータ情報を開示することなく、強化されたユーティリティでグローバルモデルを構築することを可能にする。
適切な保護機構が採用され、テクストプライティを維持し、高いモデルテクストティリティを維持するための要件を満たす必要がある。
保護機構の主な技術はパラメータの歪みとデータ生成であり、汎用的で広範囲に適用できる。
- 参考スコア(独自算出の注目度): 17.953531985966226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables participating parties to collaboratively
build a global model with boosted utility without disclosing private data
information. Appropriate protection mechanisms have to be adopted to fulfill
the requirements in preserving \textit{privacy} and maintaining high model
\textit{utility}. The nature of the widely-adopted protection mechanisms
including \textit{Randomization Mechanism} and \textit{Compression Mechanism}
is to protect privacy via distorting model parameter. We measure the utility
via the gap between the original model parameter and the distorted model
parameter. We want to identify under what general conditions privacy-preserving
federated learning can achieve near-optimal utility via data generation and
parameter distortion. To provide an avenue for achieving near-optimal utility,
we present an upper bound for utility loss, which is measured using two main
terms called variance-reduction and model parameter discrepancy separately. Our
analysis inspires the design of appropriate protection parameters for the
protection mechanisms to achieve near-optimal utility and meet the privacy
requirements simultaneously. The main techniques for the protection mechanism
include parameter distortion and data generation, which are generic and can be
applied extensively. Furthermore, we provide an upper bound for the trade-off
between privacy and utility, which together with the lower bound illustrated in
NFL form the conditions for achieving optimal trade-off.
- Abstract(参考訳): フェデレートラーニング(FL)は、参加者がプライベートデータ情報を開示することなく、強化されたユーティリティでグローバルモデルを構築することを可能にする。
適切な保護機構は、 \textit{privacy} の保存と高モデル \textit{utility} の維持の要件を満たすために採用する必要がある。
広く採用されている保護機構の性質として, モデルパラメータを歪ませることにより, プライバシを保護することが挙げられる。
元のモデルパラメータと歪んだモデルパラメータのギャップを通じて有効性を測定する。
我々は,プライバシ保護フェデレーション学習がデータ生成やパラメータの歪みを通じてほぼ最適に利用できるという,一般的な条件下での認識を望んでいる。
分散還元(distribution-reduction)とモデルパラメータの不一致(model parameter discrepancy)という2つの主な用語を用いて、ユーティリティ損失の上限を別々に測定する。
本分析は,プライバシ要件を同時に満たすために,保護機構の適切な保護パラメータの設計を刺激する。
保護機構の主な技術はパラメータの歪みとデータ生成であり、汎用的で広く適用可能である。
さらに,プライバシとユーティリティのトレードオフを上限として,nflで示される下限とともに最適なトレードオフを実現する条件を提供する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Immersion and Invariance-based Coding for Privacy-Preserving Federated Learning [1.4226399196408985]
協調分散学習におけるプライバシ保護手法として,フェデレートラーニング(FL)が登場している。
制御理論から差分プライバシーとシステム浸漬ツールを組み合わせたプライバシー保護FLフレームワークを提案する。
提案手法は,局所モデルパラメータとグローバルモデルパラメータの両方に対して,任意のレベルの差分プライバシを提供するように調整可能であることを実証する。
論文 参考訳(メタデータ) (2024-09-25T15:04:42Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - A Meta-learning Framework for Tuning Parameters of Protection Mechanisms
in Trustworthy Federated Learning [27.909662318838873]
信頼できるフェデレートラーニング(TFL)は通常、プライバシを保証するために保護メカニズムを活用する。
プライバシリーク, ユーティリティ損失, 効率低下のトレードオフを最適化する保護機構を見つける問題として, TFLを定式化するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-28T15:01:18Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Trading Off Privacy, Utility and Efficiency in Federated Learning [22.53326117450263]
プライバシリーク、ユーティリティ損失、効率低下の間のトレードオフを定式化し、定量化する。
我々は, プライバシー漏洩, ユーティリティ損失, 効率の低下など, 広く認識されている保護機構の下位領域を解析した。
論文 参考訳(メタデータ) (2022-09-01T05:20:04Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。