論文の概要: A Graph Federated Architecture with Privacy Preserving Learning
- arxiv url: http://arxiv.org/abs/2104.13215v1
- Date: Mon, 26 Apr 2021 09:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:35:49.981248
- Title: A Graph Federated Architecture with Privacy Preserving Learning
- Title(参考訳): プライバシ保護学習を用いたグラフフェデレーションアーキテクチャ
- Authors: Elsa Rizk and Ali H. Sayed
- Abstract要約: フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
- 参考スコア(独自算出の注目度): 48.24121036612076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning involves a central processor that works with multiple
agents to find a global model. The process consists of repeatedly exchanging
estimates, which results in the diffusion of information pertaining to the
local private data. Such a scheme can be inconvenient when dealing with
sensitive data, and therefore, there is a need for the privatization of the
algorithms. Furthermore, the current architecture of a server connected to
multiple clients is highly sensitive to communication failures and
computational overloads at the server. Thus in this work, we develop a private
multi-server federated learning scheme, which we call graph federated learning.
We use cryptographic and differential privacy concepts to privatize the
federated learning algorithm that we extend to the graph structure. We study
the effect of privatization on the performance of the learning algorithm for
general private schemes that can be modeled as additive noise. We show under
convexity and Lipschitz conditions, that the privatized process matches the
performance of the non-private algorithm, even when we increase the noise
variance.
- Abstract(参考訳): フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
このプロセスは、繰り返し見積もりを交換し、ローカルなプライベートデータに関連する情報の拡散をもたらす。
このようなスキームは、センシティブなデータを扱う際に不便であり、したがってアルゴリズムの民営化が必要である。
さらに、複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバにおける通信障害や計算過負荷に非常に敏感である。
そこで本研究では,グラフフェデレーション学習と呼ばれる,プライベートなマルチサーバフェデレーション学習手法を開発した。
我々は、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化するために、暗号と差分プライバシーの概念を使用します。
民営化が付加雑音としてモデル化可能な一般民間スキームにおける学習アルゴリズムの性能に及ぼす影響について検討した。
畳み込み条件およびリプシッツ条件下では, 雑音分散が増大しても, 民営化処理が非民営化アルゴリズムの性能と一致することを示す。
関連論文リスト
- Locally Differentially Private Gradient Tracking for Distributed Online
Learning over Directed Graphs [2.1271873498506038]
本稿では,局所的に個人差分な勾配追跡に基づく分散オンライン学習アルゴリズムを提案する。
提案アルゴリズムは,厳密な局所差分プライバシーを確保しつつ,平均二乗を最適解に収束させることを証明した。
論文 参考訳(メタデータ) (2023-10-24T18:15:25Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Randomized Quantization is All You Need for Differential Privacy in
Federated Learning [1.9785872350085876]
量子化と差分プライバシーを組み合わせたフェデレーション学習のアプローチを検討する。
我々は textbfRandomized textbfQuantization textbfMechanism (RQM) と呼ばれる新しいアルゴリズムを開発した。
アルゴリズムの性能を実証的に研究し、これまでの研究と比較すると、プライバシーと精度のトレードオフが改善されていることを示す。
論文 参考訳(メタデータ) (2023-06-20T21:54:13Z) - Privatized Graph Federated Learning [57.14673504239551]
グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-03-14T13:48:23Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Learning Differentially Private Mechanisms [13.40946759638048]
特定の非プライベートプログラムの正確で微分的なプライベートバージョンを自動的に学習する手法を提案する。
本手法は, 差分プライバシー文献から基礎的アルゴリズムを学習し, 自然なプログラム合成ベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2021-01-04T13:33:57Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。