論文の概要: Group privacy for personalized federated learning
- arxiv url: http://arxiv.org/abs/2206.03396v1
- Date: Tue, 7 Jun 2022 15:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 16:46:18.191038
- Title: Group privacy for personalized federated learning
- Title(参考訳): パーソナライズド・フェデレーション学習のためのグループプライバシ
- Authors: Filippo Galli, Sayan Biswas, Kangsoo Jung, Catuscia Palamidessi,
Tommaso Cucinotta
- Abstract要約: フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
- 参考スコア(独自算出の注目度): 4.30484058393522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a type of collaborative machine learning, where
participating clients process their data locally, sharing only updates to the
collaborative model. This enables to build privacy-aware distributed machine
learning models, among others. The goal is the optimization of a statistical
model's parameters by minimizing a cost function of a collection of datasets
which are stored locally by a set of clients. This process exposes the clients
to two issues: leakage of private information and lack of personalization of
the model. On the other hand, with the recent advancements in techniques to
analyze data, there is a surge of concern for the privacy violation of the
participating clients. To mitigate this, differential privacy and its variants
serve as a standard for providing formal privacy guarantees. Often the clients
represent very heterogeneous communities and hold data which are very diverse.
Therefore, aligned with the recent focus of the FL community to build a
framework of personalized models for the users representing their diversity, it
is also of utmost importance to protect against potential threats against the
sensitive and personal information of the clients. $d$-privacy, which is a
generalization of geo-indistinguishability, the lately popularized paradigm of
location privacy, uses a metric-based obfuscation technique that preserves the
spatial distribution of the original data. To address the issue of protecting
the privacy of the clients and allowing for personalized model training to
enhance the fairness and utility of the system, we propose a method to provide
group privacy guarantees exploiting some key properties of $d$-privacy which
enables personalized models under the framework of FL. We provide with
theoretical justifications to the applicability and experimental validation on
real-world datasets to illustrate the working of the proposed method.
- Abstract(参考訳): フェデレーション学習(federated learning)は、コラボレーションマシンラーニングの一種で、参加者のクライアントがデータをローカルに処理し、コラボレーティブモデルのアップデートのみを共有する。
これにより、プライバシを意識した分散機械学習モデルの構築が可能になる。
目標は、クライアントのセットによってローカルに保存されるデータセットの集合のコスト関数を最小化することで、統計モデルのパラメータの最適化である。
このプロセスでは、クライアントがプライベート情報の漏洩とモデルのパーソナライゼーションの欠如という2つの問題に対処する。
一方,近年のデータ解析技術の進歩に伴い,参加者のプライバシー侵害に対する懸念が高まっている。
これを軽減するために、差分プライバシーとその変種は、正式なプライバシー保証を提供する標準となる。
クライアントは、しばしば非常に異質なコミュニティを表し、非常に多様なデータを保持する。
したがって、FLコミュニティが最近焦点を合わせ、多様性を表すユーザのためのパーソナライズされたモデルのフレームワークを構築することは、クライアントの機密情報や個人情報に対する潜在的な脅威から保護することが最も重要である。
最近普及した位置情報プライバシのパラダイムであるgeo-indistinguishabilityの一般化である$d$-privacyは、元のデータの空間分布を保存するメトリックベースの難読化技術を使用している。
クライアントのプライバシ保護とパーソナライズされたモデルトレーニングによるシステムの公平性と有用性の向上という課題に対処するため,FLの枠組みの下でパーソナライズされたモデルを可能にする$d$-privacyのキープロパティを利用するグループプライバシ保証を提案する。
提案手法の適用可能性と実世界のデータセットの実験的検証を理論的に正当化し,提案手法の動作を説明する。
関連論文リスト
- Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。