論文の概要: Group privacy for personalized federated learning
- arxiv url: http://arxiv.org/abs/2206.03396v1
- Date: Tue, 7 Jun 2022 15:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 16:46:18.191038
- Title: Group privacy for personalized federated learning
- Title(参考訳): パーソナライズド・フェデレーション学習のためのグループプライバシ
- Authors: Filippo Galli, Sayan Biswas, Kangsoo Jung, Catuscia Palamidessi,
Tommaso Cucinotta
- Abstract要約: フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
- 参考スコア(独自算出の注目度): 4.30484058393522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a type of collaborative machine learning, where
participating clients process their data locally, sharing only updates to the
collaborative model. This enables to build privacy-aware distributed machine
learning models, among others. The goal is the optimization of a statistical
model's parameters by minimizing a cost function of a collection of datasets
which are stored locally by a set of clients. This process exposes the clients
to two issues: leakage of private information and lack of personalization of
the model. On the other hand, with the recent advancements in techniques to
analyze data, there is a surge of concern for the privacy violation of the
participating clients. To mitigate this, differential privacy and its variants
serve as a standard for providing formal privacy guarantees. Often the clients
represent very heterogeneous communities and hold data which are very diverse.
Therefore, aligned with the recent focus of the FL community to build a
framework of personalized models for the users representing their diversity, it
is also of utmost importance to protect against potential threats against the
sensitive and personal information of the clients. $d$-privacy, which is a
generalization of geo-indistinguishability, the lately popularized paradigm of
location privacy, uses a metric-based obfuscation technique that preserves the
spatial distribution of the original data. To address the issue of protecting
the privacy of the clients and allowing for personalized model training to
enhance the fairness and utility of the system, we propose a method to provide
group privacy guarantees exploiting some key properties of $d$-privacy which
enables personalized models under the framework of FL. We provide with
theoretical justifications to the applicability and experimental validation on
real-world datasets to illustrate the working of the proposed method.
- Abstract(参考訳): フェデレーション学習(federated learning)は、コラボレーションマシンラーニングの一種で、参加者のクライアントがデータをローカルに処理し、コラボレーティブモデルのアップデートのみを共有する。
これにより、プライバシを意識した分散機械学習モデルの構築が可能になる。
目標は、クライアントのセットによってローカルに保存されるデータセットの集合のコスト関数を最小化することで、統計モデルのパラメータの最適化である。
このプロセスでは、クライアントがプライベート情報の漏洩とモデルのパーソナライゼーションの欠如という2つの問題に対処する。
一方,近年のデータ解析技術の進歩に伴い,参加者のプライバシー侵害に対する懸念が高まっている。
これを軽減するために、差分プライバシーとその変種は、正式なプライバシー保証を提供する標準となる。
クライアントは、しばしば非常に異質なコミュニティを表し、非常に多様なデータを保持する。
したがって、FLコミュニティが最近焦点を合わせ、多様性を表すユーザのためのパーソナライズされたモデルのフレームワークを構築することは、クライアントの機密情報や個人情報に対する潜在的な脅威から保護することが最も重要である。
最近普及した位置情報プライバシのパラダイムであるgeo-indistinguishabilityの一般化である$d$-privacyは、元のデータの空間分布を保存するメトリックベースの難読化技術を使用している。
クライアントのプライバシ保護とパーソナライズされたモデルトレーニングによるシステムの公平性と有用性の向上という課題に対処するため,FLの枠組みの下でパーソナライズされたモデルを可能にする$d$-privacyのキープロパティを利用するグループプライバシ保証を提案する。
提案手法の適用可能性と実世界のデータセットの実験的検証を理論的に正当化し,提案手法の動作を説明する。
関連論文リスト
- Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。