論文の概要: ProtoFSSL: Federated Semi-Supervised Learning with Prototype-based
Consistency Regularization
- arxiv url: http://arxiv.org/abs/2205.13921v1
- Date: Fri, 27 May 2022 11:55:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 12:50:48.638399
- Title: ProtoFSSL: Federated Semi-Supervised Learning with Prototype-based
Consistency Regularization
- Title(参考訳): ProtoFSSL: プロトタイプベースの一貫性規則化による半教師付き学習
- Authors: Woojung Kim, Keondo Park, Kihyuk Sohn, Raphael Shu, Hyung-Sin Kim
- Abstract要約: プロトタイプネットワークに基づく新しいFSSLアプローチであるProtoFSSLを提案する。
ProtoFSSLでは、クライアントは軽量プロトタイプを通じて知識を共有する。
ウェイトシェアリングに基づくFSSLアプローチと比較して、プロトタイプベースのクライアント間知識共有は通信コストと計算コストの両方を著しく削減する。
- 参考スコア(独自算出の注目度): 18.82809442813657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing computing power of edge devices, Federated Learning (FL)
emerges to enable model training without privacy concerns. The majority of
existing studies assume the data are fully labeled on the client side. In
practice, however, the amount of labeled data is often limited. Recently,
federated semi-supervised learning (FSSL) is explored as a way to effectively
utilize unlabeled data during training. In this work, we propose ProtoFSSL, a
novel FSSL approach based on prototypical networks. In ProtoFSSL, clients share
knowledge with each other via lightweight prototypes, which prevents the local
models from diverging. For computing loss on unlabeled data, each client
creates accurate pseudo-labels based on shared prototypes. Jointly with labeled
data, the pseudo-labels provide training signals for local prototypes. Compared
to a FSSL approach based on weight sharing, the prototype-based inter-client
knowledge sharing significantly reduces both communication and computation
costs, enabling more frequent knowledge sharing between more clients for better
accuracy. In multiple datasets, ProtoFSSL results in higher accuracy compared
to the recent FSSL methods with and without knowledge sharing, such as
FixMatch, FedRGD, and FedMatch. On SVHN dataset, ProtoFSSL performs comparably
to fully supervised FL methods.
- Abstract(参考訳): エッジデバイスのコンピューティング能力の増大に伴い、プライバシーを気にせずにモデルトレーニングを可能にするフェデレーション学習(fl)が出現する。
既存の研究の大半は、データがクライアント側で完全にラベル付けされていると仮定している。
しかし実際には、ラベル付きデータの量は限られていることが多い。
近年,未ラベルデータを効果的に活用する手段として,フェデレーション付き半教師付き学習(FSSL)が研究されている。
本研究では,プロトタイプネットワークに基づく新しいFSSLアプローチであるProtoFSSLを提案する。
ProtoFSSLでは、クライアントが軽量プロトタイプを通じて相互に知識を共有することで、ローカルモデルのばらつきを防止する。
ラベルなしデータの損失を計算するため、各クライアントは共有プロトタイプに基づいて正確な擬似ラベルを作成する。
ラベル付きデータと合わせて、擬似ラベルはローカルプロトタイプのトレーニング信号を提供する。
ウェイトシェアリングに基づくFSSLアプローチと比較して、プロトタイプベースのクライアント間知識共有は通信コストと計算コストの両方を著しく削減し、より多くのクライアント間でより頻繁な知識共有を可能にする。
複数のデータセットにおいて、ProtoFSSLは、FixMatch、FedRGD、FedMatchといった知識共有のない最近のFSSLメソッドと比較して、より正確である。
SVHNデータセットでは、ProtoFSSLは完全に教師付きFLメソッドと互換性がある。
関連論文リスト
- (FL)$^2$: Overcoming Few Labels in Federated Semi-Supervised Learning [4.803231218533992]
Federated Learning(FL)は、クライアントのプライバシに敏感なデータを保存しながら、正確なグローバルモデルをトレーニングする分散機械学習フレームワークである。
ほとんどのFLアプローチは、クライアントがラベル付きデータを持っていると仮定するが、実際にはそうではないことが多い。
本稿では、シャープネスを意識した整合性正規化を用いたラベルなしクライアントのための堅牢なトレーニング手法である$(FL)2$を提案する。
論文 参考訳(メタデータ) (2024-10-30T17:15:02Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - ProtoCon: Pseudo-label Refinement via Online Clustering and Prototypical
Consistency for Efficient Semi-supervised Learning [60.57998388590556]
ProtoConは信頼性に基づく疑似ラベル作成の新しい手法である。
ProtoConのオンライン版では、データセット全体のラベル履歴を1回のトレーニングサイクルで活用することができる。
最先端のデータセットよりも大幅に向上し、より高速に収束する。
論文 参考訳(メタデータ) (2023-03-22T23:51:54Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Dual Class-Aware Contrastive Federated Semi-Supervised Learning [9.742389743497045]
本稿では,FSSL(Federated Semi-Supervised Learning)手法について紹介する。
デュアルクラス対応のコントラストモジュールを実装することで、DCCFSSLは、さまざまなクライアントが大きな逸脱に対処するための統一的なトレーニング目標を確立する。
実験の結果,DCCFSSLは3つのベンチマークデータセットにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-11-16T13:54:31Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。