論文の概要: FedIL: Federated Incremental Learning from Decentralized Unlabeled Data
with Convergence Analysis
- arxiv url: http://arxiv.org/abs/2302.11823v1
- Date: Thu, 23 Feb 2023 07:12:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 16:12:28.446309
- Title: FedIL: Federated Incremental Learning from Decentralized Unlabeled Data
with Convergence Analysis
- Title(参考訳): FedIL: 収束分析による分散化未ラベルデータからのフェデレーションインクリメンタルラーニング
- Authors: Nan Yang, Dong Yuan, Charles Z Liu, Yongkun Deng and Wei Bao
- Abstract要約: この研究は、サーバを小さなラベル付きデータセットで検討し、ラベルなしデータを複数のクライアントで半教師付き学習に使用することを意図している。
本稿では,サーバ内のラベル付きデータとクライアント内のラベルなしデータをどのように利用するかという問題に対処するため,一般化されたモデルであるFederated Incremental Learning (FedIL)を提案する。
- 参考スコア(独自算出の注目度): 23.70951896315126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing federated learning methods assume that clients have fully
labeled data to train on, while in reality, it is hard for the clients to get
task-specific labels due to users' privacy concerns, high labeling costs, or
lack of expertise. This work considers the server with a small labeled dataset
and intends to use unlabeled data in multiple clients for semi-supervised
learning. We propose a new framework with a generalized model, Federated
Incremental Learning (FedIL), to address the problem of how to utilize labeled
data in the server and unlabeled data in clients separately in the scenario of
Federated Learning (FL). FedIL uses the Iterative Similarity Fusion to enforce
the server-client consistency on the predictions of unlabeled data and uses
incremental confidence to establish a credible pseudo-label set in each client.
We show that FedIL will accelerate model convergence by Cosine Similarity with
normalization, proved by Banach Fixed Point Theorem. The code is available at
https://anonymous.4open.science/r/fedil.
- Abstract(参考訳): 既存のフェデレーション学習手法の多くは、クライアントがトレーニングを行うための完全なラベル付きデータを持っていると仮定しているが、実際には、ユーザのプライバシの懸念、ラベル付けコストの上昇、専門知識の欠如などにより、クライアントがタスク固有のラベルを取得することは困難である。
この研究は、サーバを小さなラベル付きデータセットで検討し、ラベルなしデータを複数のクライアントで半教師付き学習に使用することを意図している。
本稿では,FedIL(Federated Incremental Learning)という一般化モデルを用いた新しいフレームワークを提案し,FedIL(Federated Acremental Learning)のシナリオにおいて,サーバ内のラベル付きデータとクライアント内のラベルなしデータをどのように利用するかという問題に対処する。
FedILはIterative similarity Fusionを使用して、未ラベルデータの予測にサーバ-クライアントの一貫性を強制し、インクリメンタルな信頼を使って各クライアントに信頼できる擬似ラベルセットを確立する。
我々は、FedILが正規化とコサイン類似によりモデル収束を加速することを示し、Banach Fixed Point Theoremによって証明された。
コードはhttps://anonymous.4open.science/r/fedilで入手できる。
関連論文リスト
- Federated Learning with Label-Masking Distillation [33.80340338038264]
フェデレーション学習は、複数のローカルクライアントに分散したデータ上でモデルを協調的にトレーニングするための、プライバシ保護の方法を提供する。
クライアントのユーザ動作が異なるため、異なるクライアント間のラベルの分布は著しく異なる。
本稿では,FedLMDと呼ばれるラベルマスキング蒸留手法を提案し,各クライアントのラベル分布を知覚することで,フェデレーション学習を容易にする。
論文 参考訳(メタデータ) (2024-09-20T00:46:04Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - FedAnchor: Enhancing Federated Semi-Supervised Learning with Label
Contrastive Loss for Unlabeled Clients [19.3885479917635]
Federated Learning(FL)は、デバイス間で共有されたグローバルモデルの協調トレーニングを促進する分散学習パラダイムである。
本稿では,サーバ上のラベル付きアンカーデータにのみ訓練された分類ヘッドと組み合わせて,アンカーヘッドと呼ばれるユニークな二重ヘッド構造を導入する,革新的なFSSL手法であるFedAnchorを提案する。
提案手法は, 高信頼度モデル予測サンプルに基づいて, 疑似ラベル技術に係わる検証バイアスと過度に適合する問題を緩和する。
論文 参考訳(メタデータ) (2024-02-15T18:48:21Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - SemiFed: Semi-supervised Federated Learning with Consistency and
Pseudo-Labeling [14.737638416823772]
フェデレートラーニングは、携帯電話や組織などの複数のクライアントが共同で、予測のための共有モデルを学ぶことを可能にする。
本研究では、各クライアントのデータサンプルを部分的にラベル付けするクロスサイロ・フェデレーション学習の新しいシナリオに焦点を当てる。
そこで我々は,半教師付き学習において,一貫性の正規化と擬似ラベル付けという2つの主要なアプローチを統一する,SemiFedと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-21T01:14:27Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。