論文の概要: Federated Self-Supervised Learning for Acoustic Event Classification
- arxiv url: http://arxiv.org/abs/2203.11997v1
- Date: Tue, 22 Mar 2022 18:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 04:57:30.749108
- Title: Federated Self-Supervised Learning for Acoustic Event Classification
- Title(参考訳): 音響イベント分類のためのフェデレーション自己監督学習
- Authors: Meng Feng, Chieh-Chi Kao, Qingming Tang, Ming Sun, Viktor Rozgic,
Spyros Matsoukas, Chao Wang
- Abstract要約: Federated Learning(FL)は、データの収集とモデルのトレーニングを分離して顧客のプライバシを高めるフレームワークである。
自己教師型学習をFLフレームワークに適応させることにより,表現のデバイス上での連続学習を実現する。
ベースラインw/o FLと比較して,提案手法はリコールを維持しながら,20.3%の精度向上を実現している。
- 参考スコア(独自算出の注目度): 23.27204234096171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard acoustic event classification (AEC) solutions require large-scale
collection of data from client devices for model optimization. Federated
learning (FL) is a compelling framework that decouples data collection and
model training to enhance customer privacy. In this work, we investigate the
feasibility of applying FL to improve AEC performance while no customer data
can be directly uploaded to the server. We assume no pseudo labels can be
inferred from on-device user inputs, aligning with the typical use cases of
AEC. We adapt self-supervised learning to the FL framework for on-device
continual learning of representations, and it results in improved performance
of the downstream AEC classifiers without labeled/pseudo-labeled data
available. Compared to the baseline w/o FL, the proposed method improves
precision up to 20.3\% relatively while maintaining the recall. Our work
differs from prior work in FL in that our approach does not require
user-generated learning targets, and the data we use is collected from our Beta
program and is de-identified, to maximally simulate the production settings.
- Abstract(参考訳): 標準音響イベント分類(AEC)ソリューションは、モデル最適化のためにクライアントデバイスからの大規模なデータの収集を必要とする。
フェデレートラーニング(FL)は、データの収集とモデルのトレーニングを分離して顧客のプライバシーを強化する魅力的なフレームワークである。
本研究では,顧客データをサーバに直接アップロードすることなく,FLを適用してAEC性能を向上させる可能性を検討する。
デバイス上のユーザ入力から擬似ラベルを推測できないと仮定し、AECの典型的なユースケースと整合する。
表示のオンデバイス連続学習のためのFLフレームワークに自己教師付き学習を適用し,ラベル付き/擬似ラベル付きデータを使用せずに,下流AEC分類器の性能を向上させる。
ベースラインw/o flと比較して,本手法はリコールを維持しつつ,精度を20.3\%まで向上させる。
我々の研究は、FLにおける以前の作業と異なり、我々のアプローチはユーザ生成の学習目標を必要とせず、使用したデータはベータプログラムから収集され、プロダクション設定を最大限にシミュレートするために特定される。
関連論文リスト
- Lightweight Industrial Cohorted Federated Learning for Heterogeneous Assets [0.0]
フェデレーテッド・ラーニング(FL)は、分散機械学習(ML)モデルをトレーニングするための最も広く採用されているコラボレーティブ・ラーニング・アプローチである。
しかし、すべてのFLタスクにおいて、大きなデータ類似性や均質性は認められているため、FLは産業環境では特に設計されていない。
本稿では,コホーティングにモデルパラメータを用いる軽量産業用コホーテッドFL (licFL) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:48:56Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - REPA: Client Clustering without Training and Data Labels for Improved
Federated Learning in Non-IID Settings [1.69188400758521]
トレーニングもラベル付きデータ収集も不要な,IID以外のFL設定におけるクライアントクラスタリングのアプローチであるREPAを提案する。
REPAは、新しい教師付きオートエンコーダベースのメソッドを使用して、クライアントの基盤となるデータ生成プロセスをサーバに公開せず、ローカルなトレーニングを必要とせずにプロファイリングを生成する。
論文 参考訳(メタデータ) (2023-09-25T12:30:43Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - ON-DEMAND-FL: A Dynamic and Efficient Multi-Criteria Federated Learning
Client Deployment Scheme [37.099990745974196]
フェデレート学習のためのクライアントデプロイメントアプローチであるOn-Demand-FLを導入する。
私たちはDockerのようなコンテナ技術を使って効率的な環境を構築しています。
遺伝的アルゴリズム(GA)は多目的最適化問題を解決するために用いられる。
論文 参考訳(メタデータ) (2022-11-05T13:41:19Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Labeling Chaos to Learning Harmony: Federated Learning with Noisy Labels [3.4620497416430456]
Federated Learning(FL)は分散機械学習のパラダイムで、分散化されたプライベートデータセットからモデルを学ぶことができる。
FL訓練段階間でラベルノイズに対処するフレームワークであるFedLNを提案する。
各種の視覚・音声データセットに対する評価は,従来のラベルノイズレベル60%の手法に比べて平均22%改善したことを示す。
論文 参考訳(メタデータ) (2022-08-19T14:47:40Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - FOCUS: Dealing with Label Quality Disparity in Federated Learning [25.650278226178298]
本稿では, ユビキタスシステムのためのフェデレート・オポチュニティ・コンピューティング(FOCUS)を提案する。
FOCUSは直接観察することなくクライアントローカルデータの信頼性を定量化する。
ノイズの多いラベルでクライアントを効果的に識別し、モデルパフォーマンスへの影響を低減します。
論文 参考訳(メタデータ) (2020-01-29T09:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。