論文の概要: FedSEAL: Semi-Supervised Federated Learning with Self-Ensemble Learning
and Negative Learning
- arxiv url: http://arxiv.org/abs/2110.07829v1
- Date: Fri, 15 Oct 2021 03:03:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 04:08:33.365381
- Title: FedSEAL: Semi-Supervised Federated Learning with Self-Ensemble Learning
and Negative Learning
- Title(参考訳): fedseal:自己感覚学習と否定学習を用いた半教師付き連合学習
- Authors: Jieming Bian, Zhu Fu, Jie Xu
- Abstract要約: Federated Learning (FL) は、分散化されたプライバシ保護機械学習(FL)フレームワークとして人気がある。
本稿では,この半教師付きフェデレート学習(SSFL)問題を解くために,FedSEALと呼ばれる新しいFLアルゴリズムを提案する。
提案アルゴリズムは,自己アンサンブル学習と相補的負学習を利用して,未ラベルデータに対するクライアントの教師なし学習の精度と効率を両立させる。
- 参考スコア(独自算出の注目度): 7.771967424619346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL), a popular decentralized and privacy-preserving
machine learning (FL) framework, has received extensive research attention in
recent years. The majority of existing works focus on supervised learning (SL)
problems where it is assumed that clients carry labeled datasets while the
server has no data. However, in realistic scenarios, clients are often unable
to label their data due to the lack of expertise and motivation while the
server may host a small amount of labeled data. How to reasonably utilize the
server labeled data and the clients' unlabeled data is thus of paramount
practical importance. In this paper, we propose a new FL algorithm, called
FedSEAL, to solve this Semi-Supervised Federated Learning (SSFL) problem. Our
algorithm utilizes self-ensemble learning and complementary negative learning
to enhance both the accuracy and the efficiency of clients' unsupervised
learning on unlabeled data, and orchestrates the model training on both the
server side and the clients' side. Our experimental results on Fashion-MNIST
and CIFAR10 datasets in the SSFL setting validate the effectiveness of our
method, which outperforms the state-of-the-art SSFL methods by a large margin.
- Abstract(参考訳): 分散機械学習とプライバシ保護機械学習(FL)フレームワークであるフェデレーションラーニング(FL)は,近年広く研究されている。
既存の作業の大部分は、クライアントがラベル付きデータセットを持ち、サーバがデータを持っていないと仮定される、教師あり学習(SL)の問題に重点を置いている。
しかし現実的なシナリオでは、サーバが少量のラベル付きデータをホストする一方で、専門知識やモチベーションの欠如のため、クライアントはデータをラベル付けできないことが多い。
サーバラベル付きデータとクライアントのラベルなしデータをどのように合理的に活用するかは、実用上極めて重要である。
本稿では,この半教師付きフェデレート学習(SSFL)問題を解くために,FedSEALと呼ばれる新しいFLアルゴリズムを提案する。
提案アルゴリズムは,自己アンサンブル学習と補完的負学習を利用して,未ラベルデータにおけるクライアントの教師なし学習の精度と効率を向上し,サーバ側とクライアント側の両方でモデルトレーニングを編成する。
SSFL設定におけるFashion-MNISTおよびCIFAR10データセットの実験結果から,最先端のSSFL法よりも高い精度で性能が向上した。
関連論文リスト
- (FL)$^2$: Overcoming Few Labels in Federated Semi-Supervised Learning [4.803231218533992]
Federated Learning(FL)は、クライアントのプライバシに敏感なデータを保存しながら、正確なグローバルモデルをトレーニングする分散機械学習フレームワークである。
ほとんどのFLアプローチは、クライアントがラベル付きデータを持っていると仮定するが、実際にはそうではないことが多い。
本稿では、シャープネスを意識した整合性正規化を用いたラベルなしクライアントのための堅牢なトレーニング手法である$(FL)2$を提案する。
論文 参考訳(メタデータ) (2024-10-30T17:15:02Z) - TPFL: Tsetlin-Personalized Federated Learning with Confidence-Based Clustering [0.0]
本稿では,Tsetlin-Personalized Federated Learningと呼ばれる新しい手法を提案する。
このように、モデルは特定のクラスに対する信頼性に基づいてクラスタにグループ化される。
クライアントは信頼しているものだけを共有し、結果として誤った重み付けが排除される。
その結果、TPFLはMNISTで98.94%、FashionMNISTで98.52%、FEMNISTデータセットで91.16%の精度でベースライン法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-16T15:27:35Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - SemiFL: Communication Efficient Semi-Supervised Federated Learning with
Unlabeled Clients [34.24028216079336]
我々はSemiFLと呼ばれる新しいフェデレートラーニングフレームワークを提案する。
SemiFLでは、クライアントは完全にラベル付けされていないデータを持ち、サーバは少量のラベル付きデータを持っている。
学習性能を向上させるためのSemiFLの様々な効率的な戦略を実証する。
論文 参考訳(メタデータ) (2021-06-02T19:22:26Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。