論文の概要: Suppressing Noise from Built Environment Datasets to Reduce
Communication Rounds for Convergence of Federated Learning
- arxiv url: http://arxiv.org/abs/2209.01417v1
- Date: Sat, 3 Sep 2022 13:36:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:31:27.398256
- Title: Suppressing Noise from Built Environment Datasets to Reduce
Communication Rounds for Convergence of Federated Learning
- Title(参考訳): フェデレーション学習におけるコミュニケーションラウンド削減のための構築環境データセットからの騒音抑制
- Authors: Rahul Mishra, Hari Prabhat Gupta, Tanima Dutta, and Sajal K. Das
- Abstract要約: フェデレーション学習は、複数の参加者間のプライバシー保護コラボレーションを提供する。
参加者のデータセットのノイズラベルが 性能を低下させた
本稿では,各参加者のデータセットにおける雑音ラベルの不等分布を抑制するためのフェデレート学習手法を提案する。
- 参考スコア(独自算出の注目度): 22.484542356562695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart sensing provides an easier and convenient data-driven mechanism for
monitoring and control in the built environment. Data generated in the built
environment are privacy sensitive and limited. Federated learning is an
emerging paradigm that provides privacy-preserving collaboration among multiple
participants for model training without sharing private and limited data. The
noisy labels in the datasets of the participants degrade the performance and
increase the number of communication rounds for convergence of federated
learning. Such large communication rounds require more time and energy to train
the model. In this paper, we propose a federated learning approach to suppress
the unequal distribution of the noisy labels in the dataset of each
participant. The approach first estimates the noise ratio of the dataset for
each participant and normalizes the noise ratio using the server dataset. The
proposed approach can handle bias in the server dataset and minimizes its
impact on the participants' dataset. Next, we calculate the optimal weighted
contributions of the participants using the normalized noise ratio and
influence of each participant. We further derive the expression to estimate the
number of communication rounds required for the convergence of the proposed
approach. Finally, experimental results demonstrate the effectiveness of the
proposed approach over existing techniques in terms of the communication rounds
and achieved performance in the built environment.
- Abstract(参考訳): スマートセンシングは、組み込み環境での監視と制御のための、簡単で便利なデータ駆動メカニズムを提供する。
組み込み環境で生成されるデータはプライバシーに敏感で制限がある。
フェデレートラーニング(Federated Learning)は、プライベートデータと限定データを共有することなく、複数の参加者間のプライバシ保護コラボレーションを提供する、新たなパラダイムである。
参加者のデータセットのノイズラベルは、性能を低下させ、連合学習の収束のためのコミュニケーションラウンドの数を増やす。
このような大きなコミュニケーションラウンドでは、モデルをトレーニングするのに時間とエネルギーが必要になります。
本稿では,各参加者のデータセットにおける雑音ラベルの不等分布を抑制するためのフェデレート学習手法を提案する。
提案手法はまず,各参加者に対するデータセットの雑音比を推定し,サーバデータセットを用いて雑音比を正規化する。
提案手法は,サーバデータセットのバイアスを処理し,参加者のデータセットへの影響を最小限に抑える。
次に、正規化雑音比と各参加者の影響を用いて、参加者の最適重み付け貢献度を算出する。
さらに,提案手法の収束に必要な通信ラウンド数を推定するための式を導出する。
最後に,提案手法が通信ラウンドの観点から既存手法よりも有効であること,構築環境における性能向上が実証された。
関連論文リスト
- Deep learning-based shot-domain seismic deblending [1.6411821807321063]
我々は,各帆行の最後に獲得した未完成のショットコレクションを利用する。
これらのデータを手動でブレンドすることで、地上の真実をうまく制御したトレーニングデータが得られる。
隣接するブレンドショット集合を含むマルチチャネル入力を用いてディープニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2024-09-13T07:32:31Z) - Faster Convergence on Heterogeneous Federated Edge Learning: An Adaptive Clustered Data Sharing Approach [27.86468387141422]
Federated Edge Learning (FEEL)は、6G Hyper-Connectivityのための分散機械学習パラダイムのパイオニアとして登場した。
現在のFEELアルゴリズムは、非独立かつ非独立に分散した(非IID)データと競合し、通信コストの上昇とモデルの精度が損なわれる。
我々はクラスタ化データ共有フレームワークを導入し、クラスタヘッドから信頼されたアソシエイトに部分的なデータを選択的に共有することで、データの均一性を緩和する。
実験により, このフレームワークは, 限られた通信環境において, 収束速度が速く, モデル精度が高い非IIDデータセット上で FEEL を促進することを示した。
論文 参考訳(メタデータ) (2024-06-14T07:22:39Z) - Lightweight Unsupervised Federated Learning with Pretrained Vision Language Model [32.094290282897894]
フェデレートラーニングは、物理的に孤立したクライアントから、ユーザのデータのプライバシを保護しながら、集合モデルをトレーニングすることを目的としている。
本稿では,各クライアントのラベルのないデータを活用して,軽量なモデルトレーニングとコミュニケーションを行う,軽量な非教師付きフェデレーション学習手法を提案する。
提案手法は,CLIPのゼロショット予測と比較してモデル性能を大幅に向上させるとともに,教師付きフェデレーション学習ベンチマーク手法よりも優れる。
論文 参考訳(メタデータ) (2024-04-17T03:42:48Z) - Group Distributionally Robust Dataset Distillation with Risk
Minimization [18.07189444450016]
本稿では,クラスタリングとリスク尺度の最小化を組み合わせ,DDを遂行する損失を最小化するアルゴリズムを提案する。
数値実験により,その有効一般化と部分群間のロバスト性を示す。
論文 参考訳(メタデータ) (2024-02-07T09:03:04Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Improving Multi-Turn Response Selection Models with Complementary
Last-Utterance Selection by Instance Weighting [84.9716460244444]
我々は、データリソース自体の根底にある相関を利用して、異なる種類の監視信号を導出することを検討する。
2つの公開データセットで広範な実験を行い、両方のデータセットで大幅に改善した。
論文 参考訳(メタデータ) (2020-02-18T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。