論文の概要: Federated Learning with Noisy User Feedback
- arxiv url: http://arxiv.org/abs/2205.03092v1
- Date: Fri, 6 May 2022 09:14:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 18:15:15.640929
- Title: Federated Learning with Noisy User Feedback
- Title(参考訳): 騒がしいユーザフィードバックによる連合学習
- Authors: Rahul Sharma, Anil Ramakrishna, Ansel MacLaughlin, Anna Rumshisky,
Jimit Majmudar, Clement Chung, Salman Avestimehr, Rahul Gupta
- Abstract要約: フェデレートラーニング(FL)は、センシティブなユーザデータを使用してエッジデバイス上でMLモデルをトレーニングする方法として登場した。
本稿では,肯定的および否定的なユーザフィードバックを用いたFLモデルのトレーニング戦略を提案する。
本研究では,本手法が自己学習ベースラインよりも大幅に向上し,完全教師付きモデルに近い性能が得られることを示す。
- 参考スコア(独自算出の注目度): 26.798303045807508
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine Learning (ML) systems are getting increasingly popular, and drive
more and more applications and services in our daily life. This has led to
growing concerns over user privacy, since human interaction data typically
needs to be transmitted to the cloud in order to train and improve such
systems. Federated learning (FL) has recently emerged as a method for training
ML models on edge devices using sensitive user data and is seen as a way to
mitigate concerns over data privacy. However, since ML models are most commonly
trained with label supervision, we need a way to extract labels on edge to make
FL viable. In this work, we propose a strategy for training FL models using
positive and negative user feedback. We also design a novel framework to study
different noise patterns in user feedback, and explore how well standard
noise-robust objectives can help mitigate this noise when training models in a
federated setting. We evaluate our proposed training setup through detailed
experiments on two text classification datasets and analyze the effects of
varying levels of user reliability and feedback noise on model performance. We
show that our method improves substantially over a self-training baseline,
achieving performance closer to models trained with full supervision.
- Abstract(参考訳): 機械学習(ML)システムはますます人気を博し、日々の生活の中でますます多くのアプリケーションやサービスを動かしている。
このようなシステムのトレーニングと改善には、人間のインタラクションデータをクラウドに送信する必要があるため、ユーザのプライバシに対する懸念が高まっている。
フェデレートラーニング(FL)は、機密性の高いユーザデータを使用してエッジデバイス上でMLモデルをトレーニングする方法として最近登場し、データのプライバシに対する懸念を軽減する手段として見なされている。
しかし,MLモデルが最も一般的にラベル管理で訓練されているため,FLを有効にするためには,エッジ上のラベルを抽出する方法が必要である。
本研究では,肯定的および否定的なユーザフィードバックを用いたFLモデルのトレーニング戦略を提案する。
また,ユーザフィードバックの異なるノイズパターンを学習するための新しいフレームワークを設計し,標準ノイズロバスト目標が,フェデレーション環境でモデルのトレーニングを行う際のノイズ軽減にどのように役立つかを検討する。
提案手法を2つのテキスト分類データセットの詳細な実験により評価し,ユーザ信頼性およびフィードバックノイズがモデル性能に与える影響を解析した。
本手法は, 自己学習ベースラインよりも大幅に改善され, 完全に管理されたモデルに近い性能が得られることを示す。
関連論文リスト
- Federated Learning for Misbehaviour Detection with Variational Autoencoders and Gaussian Mixture Models [0.2999888908665658]
Federated Learning (FL)は、機械学習(ML)モデルを協調的にトレーニングするための魅力的なアプローチになっている。
本研究は、車載環境における潜在的な不適切な行動を特定するための、新しい教師なしFLアプローチを提案する。
当社は、モデルアグリゲーションの目的のために、パブリッククラウドサービスのコンピューティング能力を活用しています。
論文 参考訳(メタデータ) (2024-05-16T08:49:50Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Federated Unlearning for Human Activity Recognition [11.287645073129108]
本稿では,クライアントのトレーニングデータの一部を選択的に除去することで,FL HARモデルを洗練するための軽量マシンアンラーニング手法を提案する。
本手法は,テキストリトレーニング手法に匹敵する非学習精度を実現し,数十~数千の高速化を実現する。
論文 参考訳(メタデータ) (2024-01-17T15:51:36Z) - Window-based Model Averaging Improves Generalization in Heterogeneous
Federated Learning [29.140054600391917]
Federated Learning (FL)は、分散ユーザからグローバルモデルを学び、プライバシを保護することを目的としている。
ウィンドウベースアプローチを用いて,異なるラウンドからグローバルモデルを集約するWIMA(Window-based Model Averaging)を提案する。
本実験は,WIMAの分散シフトに対する堅牢性やクライアントサンプリングの悪さを実証し,よりスムーズで安定した学習傾向を示した。
論文 参考訳(メタデータ) (2023-10-02T17:30:14Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - UVeQFed: Universal Vector Quantization for Federated Learning [179.06583469293386]
フェデレートラーニング(FL)は、ユーザがプライベートラベル付きデータを共有することなく、そのような学習モデルをトレーニングする、新たなアプローチである。
FLでは、各ユーザが学習モデルのコピーをローカルにトレーニングする。その後、サーバは個々の更新を収集し、それらをグローバルモデルに集約する。
普遍ベクトル量子化法をFLと組み合わせることで、訓練されたモデルの圧縮が最小歪みのみを誘導する分散トレーニングシステムが得られることを示す。
論文 参考訳(メタデータ) (2020-06-05T07:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。