論文の概要: Distributed Unsupervised Visual Representation Learning with Fused
Features
- arxiv url: http://arxiv.org/abs/2111.10763v1
- Date: Sun, 21 Nov 2021 08:36:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:05:41.178102
- Title: Distributed Unsupervised Visual Representation Learning with Fused
Features
- Title(参考訳): 融合特徴を用いた分散教師なし視覚表現学習
- Authors: Yawen Wu, Zhepeng Wang, Dewen Zeng, Meng Li, Yiyu Shi, Jingtong Hu
- Abstract要約: フェデレートラーニング(FL)により、分散クライアントは、各クライアントにトレーニングデータをローカルに保持しながら、予測のための共有モデルを学ぶことができる。
本稿では,特徴融合と近傍マッチングという2つのアプローチからなる相互比較学習フレームワークを提案する。
IIDデータでは、他の手法よりも11%優れており、集中学習のパフォーマンスに匹敵する。
- 参考スコア(独自算出の注目度): 13.935997509072669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables distributed clients to learn a shared model
for prediction while keeping the training data local on each client. However,
existing FL requires fully-labeled data for training, which is inconvenient or
sometimes infeasible to obtain due to the high labeling cost and the
requirement of expertise. The lack of labels makes FL impractical in many
realistic settings. Self-supervised learning can address this challenge by
learning from unlabeled data such that FL can be widely used. Contrastive
learning (CL), a self-supervised learning approach, can effectively learn data
representations from unlabeled data. However, the distributed data collected on
clients are usually not independent and identically distributed (non-IID) among
clients, and each client may only have few classes of data, which degrades the
performance of CL and learned representations. To tackle this problem, we
propose a federated contrastive learning framework consisting of two
approaches: feature fusion and neighborhood matching, by which a unified
feature space among clients is learned for better data representations. Feature
fusion provides remote features as accurate contrastive information to each
client for better local learning. Neighborhood matching further aligns each
client's local features to the remote features such that well-clustered
features among clients can be learned. Extensive experiments show the
effectiveness of the proposed framework. It outperforms other methods by 11\%
on IID data and matches the performance of centralized learning.
- Abstract(参考訳): フェデレーション学習(fl)により、分散クライアントは、各クライアントのトレーニングデータをローカルに保持しながら、予測のための共有モデルを学ぶことができる。
しかし、既存のflは、高いラベリングコストと専門知識の要件のため、不便で時には入手できないトレーニングのための完全なラベル付きデータを必要としている。
ラベルがないため、flは多くの現実的な設定では実用的ではない。
自己教師付き学習は、flが広く利用できるようなラベルのないデータから学習することで、この課題に対処できる。
自己教師付き学習アプローチであるContrastive Learning (CL)は、ラベルのないデータからデータ表現を効果的に学習することができる。
しかし、クライアントで収集された分散データは、通常、独立ではなく、クライアント間で同一の分散(非iid)であり、各クライアントは、clと学習された表現のパフォーマンスを低下させる少数のデータクラスしか持たない。
この問題に対処するために,我々は,機能融合と近隣マッチングという2つのアプローチからなる統合コントラスト学習フレームワークを提案する。
機能融合は、ローカル学習を改善するために各クライアントに正確なコントラスト情報としてリモート機能を提供する。
近隣のマッチングは、各クライアントのローカル機能とリモート機能とをさらに整合させ、クライアント間でよくクラスタ化された機能を学ぶことができる。
広範な実験により,提案手法の有効性が示された。
iidデータで他の手法を11\%上回り、集中型学習のパフォーマンスに匹敵する。
関連論文リスト
- FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FLIS: Clustered Federated Learning via Inference Similarity for Non-IID
Data Distribution [7.924081556869144]
本稿では,クライアント集団をクラスタにグループ化し,共同でトレーニング可能なデータ配信を行う新しいアルゴリズムFLISを提案する。
CIFAR-100/10, SVHN, FMNISTデータセット上の最先端ベンチマークに対するFLISの利点を示す実験結果を示す。
論文 参考訳(メタデータ) (2022-08-20T22:10:48Z) - FRAug: Tackling Federated Learning with Non-IID Features via
Representation Augmentation [31.12851987342467]
Federated Learning(FL)は、複数のクライアントが協調してディープラーニングモデルをトレーニングする分散学習パラダイムである。
本稿では,FRAug(Federated Representation Augmentation)を提案する。
当社のアプローチでは,通常は小さなクライアントデータセットを増大させるために,埋め込み空間にクライアント固有の合成サンプルを生成する。
論文 参考訳(メタデータ) (2022-05-30T07:43:42Z) - Unifying Distillation with Personalization in Federated Learning [1.8262547855491458]
Federated Learning(FL)は、クライアントがデータを共有せずに中央アグリゲータを通じて共同作業モデルを学習する分散プライバシ保護学習技術である。
この設定では、すべてのクライアントが単一の共通予測器(FedAvg)を学習する。
本稿では,2段階のパーソナライズされた学習アルゴリズムPersFLを用いてこの問題に対処する。
第1段階では、PersFLはFLトレーニングフェーズにおいて各クライアントの最適な教師モデルを見つけ、第2段階では、PersFLは有用な知識を抽出する。
論文 参考訳(メタデータ) (2021-05-31T17:54:29Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。