論文の概要: Federated Learning of Shareable Bases for Personalization-Friendly Image
Classification
- arxiv url: http://arxiv.org/abs/2304.07882v1
- Date: Sun, 16 Apr 2023 20:19:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:50:19.444320
- Title: Federated Learning of Shareable Bases for Personalization-Friendly Image
Classification
- Title(参考訳): パーソナライズフレンドリな画像分類のための共有基盤の連合学習
- Authors: Hong-You Chen, Jike Zhong, Mingda Zhang, Xuhui Jia, Hang Qi, Boqing
Gong, Wei-Lun Chao, Li Zhang
- Abstract要約: FedBasisは、少数の共有可能なベースモデルの集合を学習し、リニアに組み合わせて、クライアント用のパーソナライズされたモデルを形成することができる。
具体的には、新しいクライアントの場合、モデルではなく、小さな組み合わせ係数だけを学ぶ必要があります。
この概念により、FedBasisは他の競合するPFLベースラインに比べてパラメータ効率が良く、堅牢で、正確である。
- 参考スコア(独自算出の注目度): 46.71612057607445
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Personalized federated learning (PFL) aims to harness the collective wisdom
of clients' data to build customized models tailored to individual clients'
data distributions. Existing works offer personalization primarily to clients
who participate in the FL process, making it hard to encompass new clients who
were absent or newly show up. In this paper, we propose FedBasis, a novel PFL
framework to tackle such a deficiency. FedBasis learns a set of few, shareable
``basis'' models, which can be linearly combined to form personalized models
for clients. Specifically for a new client, only a small set of combination
coefficients, not the models, needs to be learned. This notion makes FedBasis
more parameter-efficient, robust, and accurate compared to other competitive
PFL baselines, especially in the low data regime, without increasing the
inference cost. To demonstrate its applicability, we also present a more
practical PFL testbed for image classification, featuring larger data
discrepancies across clients in both the image and label spaces as well as more
faithful training and test splits.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、個々のクライアントのデータ配信に合わせてカスタマイズされたモデルを構築するために、クライアントのデータの集合的な知恵を活用することを目的としている。
既存の作業は、主にFLプロセスに参加する顧客に対してパーソナライズを提供しており、欠席または新しく現れた新しいクライアントを包含することが困難である。
本稿では,このような障害に対処する新しいPFLフレームワークであるFedBasisを提案する。
fedbasisは、いくつかの共有可能な‘basis’モデルのセットを学習し、線形に組み合わせてクライアント向けにパーソナライズされたモデルを形成することができる。
具体的には、新しいクライアントの場合、モデルではなく、小さな組み合わせ係数だけを学ぶ必要があります。
この概念により、推定コストを増加させることなく、他の競合pflベースライン、特に低データレジームと比較して、feedbasisはパラメータ効率が高く、ロバストで正確である。
また、その適用性を示すために、画像分類のためのより実用的なPFLテストベッドを提示し、画像とラベル空間の両方においてクライアント間で大きなデータ不一致と、より忠実なトレーニングとテストの分割を特徴とする。
関連論文リスト
- MAP: Model Aggregation and Personalization in Federated Learning with Incomplete Classes [49.22075916259368]
一部の実世界のアプリケーションでは、データサンプルは通常、ローカルデバイスに分散される。
本稿では,クライアントが不完全なクラスを所有する特別なI.I.D.シーンに焦点を当てる。
提案するMAPアルゴリズムは,FLにおけるアグリゲーションとパーソナライゼーションの目標を同時に達成できる。
論文 参考訳(メタデータ) (2024-04-14T12:22:42Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - FedDWA: Personalized Federated Learning with Dynamic Weight Adjustment [20.72576355616359]
本稿では,この問題を解決するために,emphFedDWA (Federated Learning with Dynamic Weight Adjustment) と呼ばれる新しいPFLアルゴリズムを提案する。
FedDWAは、クライアントから収集したモデルに基づいて、パーソナライズされたアグリゲーション重みを計算する。
我々は,5つの実データを用いて広範囲な実験を行い,FedDWAが通信トラフィックを大幅に削減し,最先端のアプローチよりもはるかに高いモデル精度を達成できることを実証した。
論文 参考訳(メタデータ) (2023-05-10T13:12:07Z) - Can Fair Federated Learning reduce the need for Personalisation? [9.595853312558276]
フェデレートラーニング(FL)は、データを共有することなく、エッジクライアント上でMLモデルをトレーニングすることを可能にする。
本稿では、Fair FL (FFL) アルゴリズムをパーソナライゼーションの出発点として評価する。
本研究では,個人化を意識したフェデレーション学習(PaFL)を,トレーニング中に個人化損失を事前に活用するパラダイムとして提案する。
論文 参考訳(メタデータ) (2023-05-04T11:03:33Z) - Personalized Federated Learning on Long-Tailed Data via Adversarial
Feature Augmentation [24.679535905451758]
PFLは、プライバシを保存する方法で、すべてのクライアントの知識に基づいて、各クライアントのパーソナライズされたモデルを学ぶことを目的としている。
既存のPFL法では、全てのクライアントにわたる基礎となるグローバルデータが、ロングテール分布を考慮せずに均一に分散されていると仮定している。
PFLにおけるこの共同問題に対処するために,FedAFA(Federated Learning with Adversarial Feature Augmentation)を提案する。
論文 参考訳(メタデータ) (2023-03-27T13:00:20Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Inference-Time Personalized Federated Learning [17.60724466773559]
推論時間 PFL (Inference-Time PFL) は、一連のクライアントでトレーニングされたモデルを、推論時に新しい未ラベルのクライアントで後で評価する必要がある場所である。
本稿では,ハイパーネットワークモジュールとエンコーダモジュールをベースとしたIT-PFL-HNを提案する。
IT-PFL-HNは、特に新規クライアントが大きなドメインシフトを持つ場合、現在のFL法やPFL法よりも一般化されている。
論文 参考訳(メタデータ) (2021-11-16T10:57:20Z) - Unifying Distillation with Personalization in Federated Learning [1.8262547855491458]
Federated Learning(FL)は、クライアントがデータを共有せずに中央アグリゲータを通じて共同作業モデルを学習する分散プライバシ保護学習技術である。
この設定では、すべてのクライアントが単一の共通予測器(FedAvg)を学習する。
本稿では,2段階のパーソナライズされた学習アルゴリズムPersFLを用いてこの問題に対処する。
第1段階では、PersFLはFLトレーニングフェーズにおいて各クライアントの最適な教師モデルを見つけ、第2段階では、PersFLは有用な知識を抽出する。
論文 参考訳(メタデータ) (2021-05-31T17:54:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。