論文の概要: Personalized Graph Federated Learning with Differential Privacy
- arxiv url: http://arxiv.org/abs/2306.06399v1
- Date: Sat, 10 Jun 2023 09:52:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:15:42.424546
- Title: Personalized Graph Federated Learning with Differential Privacy
- Title(参考訳): 個人化グラフフェデレーション学習と差分プライバシー
- Authors: Francois Gauthier, Vinay Chakravarthi Gogineni, Stefan Werner,
Yih-Fang Huang, Anthony Kuh
- Abstract要約: 本稿では、分散接続されたサーバとそのエッジデバイスが協調してデバイスやクラスタ固有のモデルを学習する、パーソナライズされたグラフフェデレーション学習(PGFL)フレームワークを提案する。
本稿では、差分プライバシー、特にノイズシーケンスがモデル交換を行うゼロ集中差分プライバシーを利用するPGFL実装の変種について検討する。
分析の結果,このアルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシを保証することがわかった。
- 参考スコア(独自算出の注目度): 6.282767337715445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a personalized graph federated learning (PGFL) framework
in which distributedly connected servers and their respective edge devices
collaboratively learn device or cluster-specific models while maintaining the
privacy of every individual device. The proposed approach exploits similarities
among different models to provide a more relevant experience for each device,
even in situations with diverse data distributions and disproportionate
datasets. Furthermore, to ensure a secure and efficient approach to
collaborative personalized learning, we study a variant of the PGFL
implementation that utilizes differential privacy, specifically
zero-concentrated differential privacy, where a noise sequence perturbs model
exchanges. Our mathematical analysis shows that the proposed privacy-preserving
PGFL algorithm converges to the optimal cluster-specific solution for each
cluster in linear time. It also shows that exploiting similarities among
clusters leads to an alternative output whose distance to the original solution
is bounded, and that this bound can be adjusted by modifying the algorithm's
hyperparameters. Further, our analysis shows that the algorithm ensures local
differential privacy for all clients in terms of zero-concentrated differential
privacy. Finally, the performance of the proposed PGFL algorithm is examined by
performing numerical experiments in the context of regression and
classification using synthetic data and the MNIST dataset.
- Abstract(参考訳): 本稿では,分散接続されたサーバとそのエッジデバイスが,各デバイスのプライバシを維持しながらデバイスやクラスタ固有のモデルを協調的に学習する,パーソナライズドグラフフェデレーション学習(pgfl)フレームワークを提案する。
提案手法では,異なるモデル間の類似性を生かして,多様なデータ分布や不釣り合いなデータセットの状況においても,各デバイスに対してより適切なエクスペリエンスを提供する。
さらに,協調型パーソナライズ学習への安全かつ効率的なアプローチを確保するために,ノイズシーケンスがモデル交換を混乱させるディファレンシャルプライバシ,特にゼロ集中ディファレンシャルプライバシを利用したpgfl実装の変種について検討する。
提案するプライバシ保存型pgflアルゴリズムは,線形時間で各クラスタの最適クラスタ固有解に収束することを示す。
また、クラスタ間の類似性を利用すると、元の解までの距離が有界な別の出力となり、この境界はアルゴリズムのハイパーパラメータを変更することで調整できることを示した。
さらに,本アルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシーを保証する。
最後に, 合成データとmnistデータセットを用いて, 回帰・分類の文脈で数値実験を行い, pgflアルゴリズムの性能について検討した。
関連論文リスト
- Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Optimal Federated Learning for Nonparametric Regression with Heterogeneous Distributed Differential Privacy Constraints [5.3595271893779906]
本研究では,異なるサーバにまたがる分散サンプルのコンテキストにおける非パラメトリック回帰のためのフェデレーション学習について検討した。
統計の正確さとプライバシーの保護のトレードオフに光を当てている。
論文 参考訳(メタデータ) (2024-06-10T19:34:07Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Differentially Private Vertical Federated Clustering [13.27934054846057]
多くのアプリケーションでは、複数のパーティが同じユーザのセットに関するプライベートデータを持っているが、非結合な属性のセットについてである。
データ対象者のプライバシーを保護しながらモデル学習を可能にするためには、垂直連合学習(VFL)技術が必要である。
本論文で提案するアルゴリズムは, 個人用垂直結合型K平均クラスタリングのための最初の実用的な解法である。
論文 参考訳(メタデータ) (2022-08-02T19:23:48Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Sample-based and Feature-based Federated Learning via Mini-batch SSCA [18.11773963976481]
本稿ではサンプルベースおよび特徴ベース連合最適化について検討する。
提案アルゴリズムは,モデルアグリゲーション機構を通じてデータプライバシを保持できることを示した。
また,提案アルゴリズムは,各フェデレーション最適化問題のKarush-Kuhn-Tucker点に収束することを示した。
論文 参考訳(メタデータ) (2021-04-13T08:23:46Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。