論文の概要: Federated Learning with Positive and Unlabeled Data
- arxiv url: http://arxiv.org/abs/2106.10904v1
- Date: Mon, 21 Jun 2021 08:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:23:11.934562
- Title: Federated Learning with Positive and Unlabeled Data
- Title(参考訳): ポジティブデータとラベルなしデータによるフェデレーション学習
- Authors: Xinyang Lin, Hanting Chen, Yixing Xu, Chao Xu, Xiaolin Gui, Yiping
Deng, Yunhe Wang
- Abstract要約: フェデレーション設定における正・ラベルなし(PU)データから学習する問題について検討する。
実証データとラベルなしデータを用いたフェデレーション学習(FedPU)という新しいフレームワークを提案する。
また,FedPUは,前向きなデータしか利用できない従来の学習手法よりもはるかに優れた性能が得られることを示す。
- 参考スコア(独自算出の注目度): 39.4214951077286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of learning from positive and unlabeled (PU) data in the
federated setting, where each client only labels a little part of their dataset
due to the limitation of resources and time. Different from the settings in
traditional PU learning where the negative class consists of a single class,
the negative samples which cannot be identified by a client in the federated
setting may come from multiple classes which are unknown to the client.
Therefore, existing PU learning methods can be hardly applied in this
situation. To address this problem, we propose a novel framework, namely
Federated learning with Positive and Unlabeled data (FedPU), to minimize the
expected risk of multiple negative classes by leveraging the labeled data in
other clients. We theoretically prove that the proposed FedPU can achieve a
generalization bound which is no worse than $C\sqrt{C}$ times (where $C$
denotes the number of classes) of the fully-supervised model. Empirical
experiments show that the FedPU can achieve much better performance than
conventional learning methods which can only use positive data.
- Abstract(参考訳): 我々は、各クライアントがリソースと時間の制限のためにデータセットのごく一部のみをラベル付けするフェデレーション環境で、正およびラベルなし(PU)データから学習する問題を調査する。
負のクラスが単一のクラスで構成されている従来のPU学習の設定とは異なり、フェデレートされた設定でクライアントによって識別できない負のサンプルは、クライアントに未知の複数のクラスから来ることがある。
そのため、この状況では既存のPU学習手法をほとんど適用できない。
そこで,本研究では,ラベル付きデータを他のクライアントで活用することで,複数の否定クラスが想定されるリスクを最小限に抑えるための新しいフレームワーク,federated learning with positive and unlabeled data (fedpu)を提案する。
理論上、提案されたfeedpu は完全教師付きモデルの $c\sqrt{c}$ times (ここで $c$ はクラス数を表す) 以下の一般化を実現できることを証明している。
実証実験により、FedPUは前向きなデータしか利用できない従来の学習方法よりもはるかに優れた性能が得られることが示された。
関連論文リスト
- Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Learning from Positive and Unlabeled Data with Augmented Classes [17.97372291914351]
Augmented Classes (PUAC) を用いたPU学習のための非バイアスリスク推定器を提案する。
提案手法は,最適解への収束を理論的に保証する推定誤差を導出する。
論文 参考訳(メタデータ) (2022-07-27T03:40:50Z) - Positive Unlabeled Contrastive Learning [14.975173394072053]
自己教師型事前学習パラダイムを古典的正の未ラベル(PU)設定に拡張する。
PU固有のクラスタリング手法を用いて,ラベルのないサンプルを擬似ラベル付けする手法を開発した。
提案手法は,いくつかの標準PUベンチマークデータセットに対して,最先端のPU手法を手作業で上回っている。
論文 参考訳(メタデータ) (2022-06-01T20:16:32Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Federated Semi-Supervised Learning with Class Distribution Mismatch [34.46190258291223]
フェデレート半教師付き学習(Fed-SSL)はラベル付きデータとラベルなしデータの両方を完全に活用するための魅力的なソリューションである。
我々は、Fed-SSLにおけるクラス分散ミスマッチ問題を効果的に緩和できる2つの適切な正規化項を導入する。
我々は、分散低減と正規化平均化技術を活用して、新しいFed-SSLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-29T14:18:20Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z) - Federated Learning with Only Positive Labels [71.63836379169315]
FedAwS(Federated Averaging with Spreadout)という,正のラベルのみを用いたトレーニングのための汎用フレームワークを提案する。
理論的にも経験的にも、FedAwSは、ユーザが負のラベルにアクセス可能な従来の学習のパフォーマンスとほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-04-21T23:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。