論文の概要: Federated Learning with Heterogeneous and Private Label Sets
- arxiv url: http://arxiv.org/abs/2508.18774v1
- Date: Tue, 26 Aug 2025 07:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.739264
- Title: Federated Learning with Heterogeneous and Private Label Sets
- Title(参考訳): 不均一かつプライベートなラベルセットによるフェデレーション学習
- Authors: Adam Breitholtz, Edvin Listo Zec, Fredrik D. Johansson,
- Abstract要約: 不均一なクライアントラベルセットは、フェデレートラーニング(FL)において滅多に研究されない
モデルの性能に及ぼすラベルセットの不均一なクライアントラベルセットの影響について検討する。
クライアントは、精度をモデル化するために、少しのコストでプライバシーの向上を楽しむことができる。
- 参考スコア(独自算出の注目度): 10.355835466049092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although common in real-world applications, heterogeneous client label sets are rarely investigated in federated learning (FL). Furthermore, in the cases they are, clients are assumed to be willing to share their entire label sets with other clients. Federated learning with private label sets, shared only with the central server, adds further constraints on learning algorithms and is, in general, a more difficult problem to solve. In this work, we study the effects of label set heterogeneity on model performance, comparing the public and private label settings -- when the union of label sets in the federation is known to clients and when it is not. We apply classical methods for the classifier combination problem to FL using centralized tuning, adapt common FL methods to the private label set setting, and discuss the justification of both approaches under practical assumptions. Our experiments show that reducing the number of labels available to each client harms the performance of all methods substantially. Centralized tuning of client models for representational alignment can help remedy this, but often at the cost of higher variance. Throughout, our proposed adaptations of standard FL methods perform well, showing similar performance in the private label setting as the standard methods achieve in the public setting. This shows that clients can enjoy increased privacy at little cost to model accuracy.
- Abstract(参考訳): 実世界のアプリケーションでは一般的であるが、フェデレートラーニング(FL)において異種クライアントラベルセットが研究されることは稀である。
さらに、彼らがいる場合、クライアントは他のクライアントとラベルセット全体を共有する意思があると考えられている。
プライベートラベルセットによるフェデレーション学習は、中央サーバとのみ共有され、学習アルゴリズムのさらなる制約を追加し、一般的には、解決するのがより難しい問題である。
本研究では,ラベルセットがモデル性能に与える影響について検討し,公開およびプライベートなラベル設定を比較した。
本稿では,一元的チューニングを用いてFLに分類器結合問題の古典的解法を適用し,共通FL法をプライベートラベル設定に適応させ,実際的な仮定で両手法の正当性について議論する。
実験の結果,各クライアントに利用可能なラベルの数を減らすことは,すべてのメソッドのパフォーマンスを著しく損なうことがわかった。
表現的アライメントのためのクライアントモデルの集中的なチューニングは、これを改善するのに役立ちますが、しばしばより分散のコストがかかります。
提案した標準FL手法の適応性は良好に向上し,標準手法が公開設定で達成されるように,プライベートラベル設定でも類似した性能を示す。
これは、クライアントが精度をモデル化するために、少しのコストでプライバシーの向上を享受できることを示している。
関連論文リスト
- Overcoming label shift with target-aware federated learning [10.355835466049092]
フェデレートラーニングにより、複数のアクターがプライベートデータを共有せずに、協力的にモデルをトレーニングできる。
一般的な理由はラベルシフトです -- ラベルの分布がクライアントとターゲットドメインによって異なります。
対象領域の性能向上のためにラベルシフトに適応する,原則的で実用的なモデルアグリゲーションスキームであるFedPALSを提案する。
論文 参考訳(メタデータ) (2024-11-06T09:52:45Z) - Federated Learning with Label-Masking Distillation [33.80340338038264]
フェデレーション学習は、複数のローカルクライアントに分散したデータ上でモデルを協調的にトレーニングするための、プライバシ保護の方法を提供する。
クライアントのユーザ動作が異なるため、異なるクライアント間のラベルの分布は著しく異なる。
本稿では,FedLMDと呼ばれるラベルマスキング蒸留手法を提案し,各クライアントのラベル分布を知覚することで,フェデレーション学習を容易にする。
論文 参考訳(メタデータ) (2024-09-20T00:46:04Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Rethinking Semi-Supervised Federated Learning: How to co-train
fully-labeled and fully-unlabeled client imaging data [6.322831694506287]
分離フェデレートラーニング(IsoFed)は、半教師付きフェデレートラーニング(SSFL)に特化して設計されたラーニングスキームである。
本稿では,教師付きモデルと半教師付きモデルの簡易な平均化を回避し,SSFLに特化して設計した新しい学習手法を提案する。
特に、我々のトレーニングアプローチは、(a)ラベル付きおよびラベルなしのクライアントモデルの独立したアグリゲーションと、(b)すべてのクライアントで独立したグローバルモデルのローカルな自己教師付き事前トレーニングという2つの部分で構成されています。
論文 参考訳(メタデータ) (2023-10-28T20:41:41Z) - Little is Enough: Boosting Privacy by Sharing Only Hard Labels in Federated Semi-Supervised Learning [10.972006295280636]
多くの重要なアプリケーションでは、機密データは本質的に分散しており、プライバシー上の懸念のために集中できない。
我々は、公的なラベル付きデータセット上で決定的な(堅い)ラベルのみを共有することにより、プライバシーを改善するフェデレーションコトレーニング(FedCT)アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-09T13:16:10Z) - FedNoiL: A Simple Two-Level Sampling Method for Federated Learning with
Noisy Labels [49.47228898303909]
フェデレートラーニング(FL)は、トレーニングデータが収集され、ローカルデバイスに配置されている間、サーバ側のグローバルモデルをトレーニングすることを目的としている。
ノイズラベルの局所的なトレーニングは、集約を通じてグローバルモデルに破壊的な破壊的な、ノイズラベルへの過度な適合をもたらす可能性がある。
サーバ上でよりロバストなグローバルアグリゲーションを実現するため,クライアントを選択するための単純な2レベルサンプリング手法「FedNoiL」を開発した。
論文 参考訳(メタデータ) (2022-05-20T12:06:39Z) - Factorized-FL: Agnostic Personalized Federated Learning with Kernel
Factorization & Similarity Matching [70.95184015412798]
現実世界のフェデレートされた学習シナリオでは、参加者は他のクライアントのものと互換性のない、独自のパーソナライズされたラベルを持つことができる。
本研究では,ラベル・タスク・ヘテロジニアス・フェデレーション・ラーニング・セッティングに効果的に取り組むためのFacterized-FLを提案する。
本手法はラベルとドメインの不均一な設定の両方で広範に検証し、最先端の個人化フェデレーション学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-01T08:00:59Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z) - Federated Learning with Only Positive Labels [71.63836379169315]
FedAwS(Federated Averaging with Spreadout)という,正のラベルのみを用いたトレーニングのための汎用フレームワークを提案する。
理論的にも経験的にも、FedAwSは、ユーザが負のラベルにアクセス可能な従来の学習のパフォーマンスとほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-04-21T23:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。