論文の概要: Fully Privacy-Preserving Federated Representation Learning via Secure
Embedding Aggregation
- arxiv url: http://arxiv.org/abs/2206.09097v1
- Date: Sat, 18 Jun 2022 03:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 20:00:57.907384
- Title: Fully Privacy-Preserving Federated Representation Learning via Secure
Embedding Aggregation
- Title(参考訳): セキュアな埋め込みアグリゲーションによる完全プライバシー保存型フェデレーション表現学習
- Authors: Jiaxiang Tang, Jinbao Zhu, Songze Li, Kai Zhang, Lichao Sun
- Abstract要約: 分散クライアントのグループは、プライベートデータを共同でトレーニングします。
我々はSecEAというセキュアな埋め込みアグリゲーションプロトコルを開発した。
各アグリゲーションラウンドでは、ローカルな埋め込みがクライアント間で秘密に共有される。
- 参考スコア(独自算出の注目度): 23.693519498675407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a federated representation learning framework, where with the
assistance of a central server, a group of $N$ distributed clients train
collaboratively over their private data, for the representations (or
embeddings) of a set of entities (e.g., users in a social network). Under this
framework, for the key step of aggregating local embeddings trained at the
clients in a private manner, we develop a secure embedding aggregation protocol
named SecEA, which provides information-theoretical privacy guarantees for the
set of entities and the corresponding embeddings at each client
$simultaneously$, against a curious server and up to $T < N/2$ colluding
clients. As the first step of SecEA, the federated learning system performs a
private entity union, for each client to learn all the entities in the system
without knowing which entities belong to which clients. In each aggregation
round, the local embeddings are secretly shared among the clients using
Lagrange interpolation, and then each client constructs coded queries to
retrieve the aggregated embeddings for the intended entities. We perform
comprehensive experiments on various representation learning tasks to evaluate
the utility and efficiency of SecEA, and empirically demonstrate that compared
with embedding aggregation protocols without (or with weaker) privacy
guarantees, SecEA incurs negligible performance loss (within 5%); and the
additional computation latency of SecEA diminishes for training deeper models
on larger datasets.
- Abstract(参考訳): 我々は、中央サーバの助けを借りて、分散クライアントのグループは、一連のエンティティ(例えば、ソーシャルネットワークのユーザ)の表現(または埋め込み)に対して、プライベートデータを協調的にトレーニングする、連合表現学習フレームワークを検討する。
このフレームワークでは、クライアントでトレーニングされたローカルな埋め込みをプライベートな方法で集約する重要なステップとして、SecEAと呼ばれるセキュアな埋め込み集約プロトコルを開発します。
SecEAの最初のステップとして、連合学習システムは、各クライアントがどのエンティティがどのクライアントに属しているかを知ることなく、システム内のすべてのエンティティを学習するためのプライベートエンティティユニオンを実行する。
各アグリゲーションラウンドでは、ローカルな埋め込みはLagrange補間を使用してクライアント間で秘密に共有され、各クライアントはコード化されたクエリを構築して、意図したエンティティの集約された埋め込みを検索する。
我々は,seceaの実用性と効率を評価するために,様々な表現学習タスクを包括的に実験し,プライバシの保証を伴わない(または弱い)アグリゲーションプロトコルを組み込んだ場合と比較して,(5%で)性能の低下を招き,より大きなデータセットでより深いモデルをトレーニングするためにseceaの計算遅延が減少することを示す。
関連論文リスト
- Co-clustering for Federated Recommender System [33.70723179405055]
Federated Recommender System(FRS)は、高品質なレコメンデーションの提供とユーザのプライバシの保護のバランスをとるソリューションを提供する。
パーソナライズされた意思決定パターンによって一般的に観察されるFRSにおける統計的不均一性の存在は、課題を引き起こす可能性がある。
本稿では,Co-clustering Federated RecommendationメカニズムであるCoFedRecを提案する。
論文 参考訳(メタデータ) (2024-11-03T21:32:07Z) - A collaborative ensemble construction method for federated random forest [3.245822581039027]
本研究では,非IIDデータによる性能向上を目的とした,新しいアンサンブル構築手法を用いたランダムな森林群集構築手法を提案する。
クライアントのデータのプライバシを維持するため、各ノードに到達したクライアントのローカルデータのサンプルから特定された多数決クラスラベルに、リーフノードに格納された情報を格納する。
論文 参考訳(メタデータ) (2024-07-27T07:21:45Z) - Federated Deep Multi-View Clustering with Global Self-Supervision [51.639891178519136]
フェデレートされたマルチビュークラスタリングは、複数のデバイスに分散したデータからグローバルクラスタリングモデルを学習する可能性がある。
この設定では、ラベル情報は未知であり、データのプライバシを保持する必要がある。
本稿では,複数のクライアントから補完的なクラスタ構造をマイニングできる,新しい多視点クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2023-09-24T17:07:01Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - Privacy-Preserving Federated Deep Clustering based on GAN [12.256298398007848]
我々はGAN(Generative Adversarial Networks)に基づくフェデレーションディープクラスタリングへの新しいアプローチを提案する。
各クライアントは、ローカルな生成敵ネットワーク(GAN)をローカルにトレーニングし、合成データをサーバにアップロードする。
サーバは合成データに深いクラスタリングネットワークを適用して$k$のクラスタセントロイドを確立し、クラスタ割り当てのためにクライアントにダウンロードする。
論文 参考訳(メタデータ) (2022-11-30T13:20:11Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Secure Federated Clustering [18.37669220755388]
SecFCはセキュアなフェデレーションクラスタリングアルゴリズムであり、同時にユニバーサルパフォーマンスを実現する。
各クライアントのプライベートデータとクラスタセンターは、他のクライアントやサーバにリークされない。
論文 参考訳(メタデータ) (2022-05-31T06:47:18Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - DeFed: A Principled Decentralized and Privacy-Preserving Federated
Learning Algorithm [10.487593244018933]
フェデレートラーニングは、多数のクライアントが、各クライアントに格納されたトレーニングデータを維持しながら、共有モデル学習に参加することを可能にする。
本稿では、従来のフェデレーション平均化(FedAvg)設定における中心的クライアントを除去する、分散型分散学習アルゴリズム(DeFed)を提案する。
提案アルゴリズムは, 損失関数が滑らかで, 強凸である場合には, 収束率$O(1/T)$で大域的最小値に達することが証明された。
論文 参考訳(メタデータ) (2021-07-15T07:39:19Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。