論文の概要: Private Aggregation in Wireless Federated Learning with Heterogeneous
Clusters
- arxiv url: http://arxiv.org/abs/2306.14088v1
- Date: Sun, 25 Jun 2023 01:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 17:02:59.647131
- Title: Private Aggregation in Wireless Federated Learning with Heterogeneous
Clusters
- Title(参考訳): 不均一クラスタを用いた無線フェデレーション学習におけるプライベートアグリゲーション
- Authors: Maximilian Egger, Christoph Hofmeister, Antonia Wachter-Zeh and Rawad
Bitar
- Abstract要約: フェデレーション学習は、複数の参加するクライアントが保有するプライベートなデータにニューラルネットワークを協調的にトレーニングする。
本稿では,クライアントが基地局を介してフェデレーターにのみ接続される無線システムアーキテクチャについて考察する。
- 参考スコア(独自算出の注目度): 23.289979018463406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning collaboratively trains a neural network on privately owned
data held by several participating clients. The gradient descent algorithm, a
well-known and popular iterative optimization procedure, is run to train the
neural network. Every client uses its local data to compute partial gradients
and sends it to the federator which aggregates the results. Privacy of the
clients' data is a major concern. In fact, observing the partial gradients can
be enough to reveal the clients' data. Private aggregation schemes have been
investigated to tackle the privacy problem in federated learning where all the
users are connected to each other and to the federator. In this paper, we
consider a wireless system architecture where clients are only connected to the
federator via base stations. We derive fundamental limits on the communication
cost when information-theoretic privacy is required, and introduce and analyze
a private aggregation scheme tailored for this setting.
- Abstract(参考訳): フェデレーション学習は、複数の参加するクライアントが保有するプライベートなデータにニューラルネットワークを協調的にトレーニングする。
勾配降下アルゴリズムはよく知られ、よく知られた反復最適化手法であり、ニューラルネットワークを訓練するために実行される。
すべてのクライアントはローカルデータを使用して部分勾配を計算し、結果を集約するフェデレータに送信します。
クライアントのデータのプライバシは大きな懸念事項である。
実際、部分的な勾配の観測は、クライアントのデータを明らかにするのに十分である。
すべてのユーザが相互に接続し,フェデレーターに接続するフェデレーション学習において,プライバシ問題に対処するために,プライベートアグリゲーション方式が検討されている。
本稿では,クライアントが基地局を介してフェデレーターにのみ接続される無線システムアーキテクチャについて考察する。
情報理論のプライバシが必要な場合の通信コストの基本的な制限を導出し、この設定に適したプライベートアグリゲーションスキームを導入・分析する。
関連論文リスト
- Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - FedHP: Heterogeneous Federated Learning with Privacy-preserving [0.0]
フェデレーション学習は分散機械学習環境であり、パラメータを交換するだけで、クライアントがプライベートデータを共有せずにコラボレーティブなトレーニングを完了できるようにする。
本稿では,事前学習されたモデルをバックボーンとして,完全に接続されたレイヤをヘッドとして構成する,新しいフェデレーション学習手法を提案する。
勾配空間に基づくパラメータではなく、クラスの埋め込みベクトルを共有することで、クライアントはプライベートデータにより適応でき、サーバとクライアント間の通信においてより効率的になります。
論文 参考訳(メタデータ) (2023-01-27T13:32:17Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FedClassAvg: Local Representation Learning for Personalized Federated
Learning on Heterogeneous Neural Networks [21.613436984547917]
我々は、フェデレーション分類器平均化(FedClassAvg)と呼ばれる、新しいパーソナライズされたフェデレーション学習手法を提案する。
FedClassAvgは、特徴空間上の決定境界に関する合意として重みを集約する。
異質なパーソナライズされたフェデレーション学習タスクにおいて、現在の最先端のアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-25T08:32:08Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - Privatized Graph Federated Learning [57.14673504239551]
グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-03-14T13:48:23Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Prioritized Multi-Criteria Federated Learning [16.35440946424973]
マシンラーニングのシナリオでは、モデルがサービスのユーザから来るプライベートデータでトレーニングされる必要がある場合、プライバシが重要な問題になります。
我々は,多数のクライアントに分散したプライベートデータセットに基づくMLモデルを構築する手段として,フェデレートラーニング(FL)を提案する。
中央コーディネートサーバは、クライアントによってローカルに計算された更新を受け取り、それらを集約してより良いグローバルモデルを得る。
論文 参考訳(メタデータ) (2020-07-17T10:49:47Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。