論文の概要: Personalised Federated Learning On Heterogeneous Feature Spaces
- arxiv url: http://arxiv.org/abs/2301.11447v1
- Date: Thu, 26 Jan 2023 22:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 16:57:42.372145
- Title: Personalised Federated Learning On Heterogeneous Feature Spaces
- Title(参考訳): 不均一特徴空間における個人化連合学習
- Authors: Alain Rakotomamonjy and Maxime Vono and Hamlet Jesse Medina Ruiz and
Liva Ralaivola
- Abstract要約: ほとんどのパーソナライズド・フェデレーションド・ラーニング・アプローチは、すべてのクライアントの生データは共通の部分空間で定義されていると仮定する。
本稿では,クライアントのデータをローカルな埋め込み関数を介して共通の特徴空間にマッピングする汎用フレームワークFLICを提案する。
- 参考スコア(独自算出の注目度): 17.243339961137643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most personalised federated learning (FL) approaches assume that raw data of
all clients are defined in a common subspace i.e. all clients store their data
according to the same schema. For real-world applications, this assumption is
restrictive as clients, having their own systems to collect and then store
data, may use heterogeneous data representations. We aim at filling this gap.
To this end, we propose a general framework coined FLIC that maps client's data
onto a common feature space via local embedding functions. The common feature
space is learnt in a federated manner using Wasserstein barycenters while the
local embedding functions are trained on each client via distribution
alignment. We integrate this distribution alignement mechanism into a federated
learning approach and provide the algorithmics of FLIC. We compare its
performances against FL benchmarks involving heterogeneous input features
spaces. In addition, we provide theoretical insights supporting the relevance
of our methodology.
- Abstract(参考訳): ほとんどのパーソナライズドフェデレーション学習(fl)アプローチでは、すべてのクライアントの生データは共通のサブスペースで定義されていると仮定している。
現実世界のアプリケーションでは、クライアントがデータを収集して保存する独自のシステムを持っているため、この仮定は制約を受ける。
私たちはこのギャップを埋めようとしている。
この目的のために,クライアントのデータをローカルな埋め込み関数を介して共通の特徴空間にマッピングする汎用フレームワークFLICを提案する。
共通特徴空間はwasserstein barycentersを用いて連合的に学習され、局所埋め込み関数は分散アライメントを介して各クライアントで訓練される。
我々は,この分布整合機構をフェデレート学習手法に統合し,FLICのアルゴリズムを提供する。
不均一な入力特徴空間を含むFLベンチマークと比較した。
さらに,方法論の妥当性を裏付ける理論的洞察を提供する。
関連論文リスト
- Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Privacy Preserving Bayesian Federated Learning in Heterogeneous Settings [20.33482170846688]
本稿では,大規模なローカルデータセットがなくても,カスタマイズされたローカルベイズモデルに基づく統合学習フレームワークを提案する。
ネットワークの機能的(アウトプット)空間における事前情報を用いて、異種クライアント間のコラボレーションを容易にする。
標準FLデータセットを用いた実験により、同種および異種両方の設定において、我々のアプローチが強いベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-13T17:55:30Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - FRAug: Tackling Federated Learning with Non-IID Features via
Representation Augmentation [31.12851987342467]
Federated Learning(FL)は、複数のクライアントが協調してディープラーニングモデルをトレーニングする分散学習パラダイムである。
本稿では,FRAug(Federated Representation Augmentation)を提案する。
当社のアプローチでは,通常は小さなクライアントデータセットを増大させるために,埋め込み空間にクライアント固有の合成サンプルを生成する。
論文 参考訳(メタデータ) (2022-05-30T07:43:42Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - Subspace Learning for Personalized Federated Optimization [7.475183117508927]
本稿では,AIシステムにおけるパーソナライズされた学習の問題に対処する手法を提案する。
提案手法は、パーソナライズされたクライアント評価設定と見当たらないクライアント評価設定の両方において、一貫した利得が得られることを示す。
論文 参考訳(メタデータ) (2021-09-16T00:03:23Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。