論文の概要: Private Aggregation in Wireless Federated Learning with Heterogeneous
Clusters
- arxiv url: http://arxiv.org/abs/2306.14088v1
- Date: Sun, 25 Jun 2023 01:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 17:02:59.647131
- Title: Private Aggregation in Wireless Federated Learning with Heterogeneous
Clusters
- Title(参考訳): 不均一クラスタを用いた無線フェデレーション学習におけるプライベートアグリゲーション
- Authors: Maximilian Egger, Christoph Hofmeister, Antonia Wachter-Zeh and Rawad
Bitar
- Abstract要約: フェデレーション学習は、複数の参加するクライアントが保有するプライベートなデータにニューラルネットワークを協調的にトレーニングする。
本稿では,クライアントが基地局を介してフェデレーターにのみ接続される無線システムアーキテクチャについて考察する。
- 参考スコア(独自算出の注目度): 23.289979018463406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning collaboratively trains a neural network on privately owned
data held by several participating clients. The gradient descent algorithm, a
well-known and popular iterative optimization procedure, is run to train the
neural network. Every client uses its local data to compute partial gradients
and sends it to the federator which aggregates the results. Privacy of the
clients' data is a major concern. In fact, observing the partial gradients can
be enough to reveal the clients' data. Private aggregation schemes have been
investigated to tackle the privacy problem in federated learning where all the
users are connected to each other and to the federator. In this paper, we
consider a wireless system architecture where clients are only connected to the
federator via base stations. We derive fundamental limits on the communication
cost when information-theoretic privacy is required, and introduce and analyze
a private aggregation scheme tailored for this setting.
- Abstract(参考訳): フェデレーション学習は、複数の参加するクライアントが保有するプライベートなデータにニューラルネットワークを協調的にトレーニングする。
勾配降下アルゴリズムはよく知られ、よく知られた反復最適化手法であり、ニューラルネットワークを訓練するために実行される。
すべてのクライアントはローカルデータを使用して部分勾配を計算し、結果を集約するフェデレータに送信します。
クライアントのデータのプライバシは大きな懸念事項である。
実際、部分的な勾配の観測は、クライアントのデータを明らかにするのに十分である。
すべてのユーザが相互に接続し,フェデレーターに接続するフェデレーション学習において,プライバシ問題に対処するために,プライベートアグリゲーション方式が検討されている。
本稿では,クライアントが基地局を介してフェデレーターにのみ接続される無線システムアーキテクチャについて考察する。
情報理論のプライバシが必要な場合の通信コストの基本的な制限を導出し、この設定に適したプライベートアグリゲーションスキームを導入・分析する。
関連論文リスト
- Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - FedHP: Heterogeneous Federated Learning with Privacy-preserving [0.0]
フェデレーション学習は分散機械学習環境であり、パラメータを交換するだけで、クライアントがプライベートデータを共有せずにコラボレーティブなトレーニングを完了できるようにする。
本稿では,事前学習されたモデルをバックボーンとして,完全に接続されたレイヤをヘッドとして構成する,新しいフェデレーション学習手法を提案する。
勾配空間に基づくパラメータではなく、クラスの埋め込みベクトルを共有することで、クライアントはプライベートデータにより適応でき、サーバとクライアント間の通信においてより効率的になります。
論文 参考訳(メタデータ) (2023-01-27T13:32:17Z) - FedClassAvg: Local Representation Learning for Personalized Federated
Learning on Heterogeneous Neural Networks [21.613436984547917]
我々は、フェデレーション分類器平均化(FedClassAvg)と呼ばれる、新しいパーソナライズされたフェデレーション学習手法を提案する。
FedClassAvgは、特徴空間上の決定境界に関する合意として重みを集約する。
異質なパーソナライズされたフェデレーション学習タスクにおいて、現在の最先端のアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-25T08:32:08Z) - Privatized Graph Federated Learning [57.14673504239551]
グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-03-14T13:48:23Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - PPSGCN: A Privacy-Preserving Subgraph Sampling Based Distributed GCN
Training Method [28.829761038950707]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習に広く採用されており、優れた性能を実現している。
既存のメソッドは、ノード機能を異なるクライアント間で直接交換する。
本稿では,プライバシ保護サブグラフサンプリングに基づく分散GCNトレーニング手法(PPSGCN)を提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。