論文の概要: Hire When You Need to: Gradual Participant Recruitment for Auction-based
Federated Learning
- arxiv url: http://arxiv.org/abs/2310.02651v1
- Date: Wed, 4 Oct 2023 08:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 16:01:09.963593
- Title: Hire When You Need to: Gradual Participant Recruitment for Auction-based
Federated Learning
- Title(参考訳): 必要な時に採用する: オークションベースのフェデレーションラーニングのための個人参加型リクルート
- Authors: Xavier Tan and Han Yu
- Abstract要約: フェデレートラーニング(GPS-AFL)のための段階的参加者選択方式を提案する。
GPS-AFLは、反復的な相互作用によってより多くの情報が明らかになるにつれて、必要なDOを複数の訓練ラウンドで徐々に選択する。
評価に基づくFLにおける選択バイアスの欠点を軽減しつつ、コスト削減と性能向上のバランスをとるように設計されている。
- 参考スコア(独自算出の注目度): 16.83897148104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of federated Learning (FL) depends on the quantity and quality of
the data owners (DOs) as well as their motivation to join FL model training.
Reputation-based FL participant selection methods have been proposed. However,
they still face the challenges of the cold start problem and potential
selection bias towards highly reputable DOs. Such a bias can result in lower
reputation DOs being prematurely excluded from future FL training rounds,
thereby reducing the diversity of training data and the generalizability of the
resulting models. To address these challenges, we propose the Gradual
Participant Selection scheme for Auction-based Federated Learning (GPS-AFL).
Unlike existing AFL incentive mechanisms which generally assume that all DOs
required for an FL task must be selected in one go, GPS-AFL gradually selects
the required DOs over multiple rounds of training as more information is
revealed through repeated interactions. It is designed to strike a balance
between cost saving and performance enhancement, while mitigating the drawbacks
of selection bias in reputation-based FL. Extensive experiments based on
real-world datasets demonstrate the significant advantages of GPS-AFL, which
reduces costs by 33.65% and improved total utility by 2.91%, on average
compared to the best-performing state-of-the-art approach.
- Abstract(参考訳): FL(Federated Learning)の成功は、データ所有者(DO)の量と品質と、FLモデルトレーニングに参加する動機に依存する。
評価に基づくFL選択法が提案されている。
しかし、コールドスタート問題と高い信頼性を持つDOに対する潜在的な選択バイアスの課題に直面している。
このようなバイアスは、将来のflトレーニングラウンドから評価dosが早期に除外される結果となり、トレーニングデータの多様性と結果モデルの一般化性が低下する。
これらの課題に対処するために,オークションベース連合学習(gps-afl)のための段階的参加者選択方式を提案する。
FLタスクに必要な全てのDOを1回に選択する必要があると一般的に仮定する既存のAFLインセンティブメカニズムとは異なり、GPS-AFLは繰り返しの相互作用を通じてより多くの情報が明らかにされるため、複数の訓練ラウンドで必要なDOを徐々に選択する。
評価に基づくFLにおける選択バイアスの欠点を軽減しつつ、コスト削減と性能向上のバランスをとるように設計されている。
実世界のデータセットに基づく広範囲な実験により、gps-aflの重要な利点が示され、これはコストを33.65%削減し、平均で2.91%改善した。
関連論文リスト
- Agent-oriented Joint Decision Support for Data Owners in Auction-based Federated Learning [32.6997332038178]
オークションベースのフェデレートラーニング(Federated Learning, AFL)は、データ所有者(DO)が経済的手段でFLに参加することを動機付ける能力から、幅広い研究の関心を集めている。
AFL(PAS-AFL)におけるデータ所有者のための一級エージェント指向共同価格・受け入れ・サブデリゲーション決定支援手法を提案する。
各 DO が複数の FL タスクを同時に実行して DO の高収入化と AFL エコシステムにおける FL タスクのスループット向上を可能にするのは,これが初めてである。
論文 参考訳(メタデータ) (2024-05-09T02:35:46Z) - Ranking-based Client Selection with Imitation Learning for Efficient Federated Learning [20.412469498888292]
フェデレートラーニング(FL)は、複数のデバイスが共同で共有モデルをトレーニングすることを可能にする。
各トレーニングラウンドにおける参加デバイスの選択は、モデル性能とトレーニング効率の両方に重大な影響を及ぼす。
我々は、エンドツーエンドのランキングベースのアプローチであるFedRankという新しいデバイス選択ソリューションを導入する。
論文 参考訳(メタデータ) (2024-05-07T08:44:29Z) - Multi-Session Budget Optimization for Forward Auction-based Federated
Learning [17.546044136396468]
近年,オークションベースのフェデレートラーニング (Federated Learning, AFL) が重要な研究分野となっている。
我々は,事前オークションに基づくフェデレートラーニング(MultiBOS-AFL)のためのマルチセッション予算最適化戦略を提案する。
階層的強化学習に基づいて、MultiBOS-AFLは、AFL MUのセッション間予算ペーシングとセッション内入札を共同で最適化する。
論文 参考訳(メタデータ) (2023-11-21T11:57:41Z) - Stabilizing RLHF through Advantage Model and Selective Rehearsal [57.504894664689]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、これらのモデルを人間の価値観や好みに合わせることは依然として大きな課題である。
この課題は、報酬のハッキングや破滅的な忘れなど、さまざまな不安定さによって特徴づけられる。
1) 報酬ハッキング防止のために, スコアを直接モデル化し, タスク間のスコア分布を規制するアドバンテージモデル, 2) PPOトレーニングと知識リハーサルのためのデータを戦略的に選択することで, 悲惨な忘れを緩和する選択リハーサルを提案する。
論文 参考訳(メタデータ) (2023-09-18T23:06:32Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - A Survey on Participant Selection for Federated Learning in Mobile
Networks [47.88372677863646]
Federated Learning(FL)は、プライベートデータセットをプライバシ保護の方法で使用する、効率的な分散機械学習パラダイムである。
モバイルネットワークにおける通信帯域が限られており、不安定なデバイスが利用できるため、各ラウンドで選択できる端末はごくわずかである。
論文 参考訳(メタデータ) (2022-07-08T04:22:48Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Salvaging Federated Learning by Local Adaptation [26.915147034955925]
フェデレートラーニング(Federated Learning, FL)は、機密データに基づいてMLモデルをトレーニングする手法である。
個人がFLに参加する動機があるのか?」と問いかける。
次単語予測のような標準的なタスクでは、フェデレーションモデルがローカルでトレーニングできるモデルよりもデータ上で精度が低いため、多くの参加者がFLから恩恵を受けないことが示される。
我々は, ファインチューニング, マルチタスク学習, 知識蒸留という, フェデレーションモデルの局所的適応のための3つの手法を評価する。
論文 参考訳(メタデータ) (2020-02-12T01:56:16Z) - Prophet: Proactive Candidate-Selection for Federated Learning by
Predicting the Qualities of Training and Reporting Phases [66.01459702625064]
5Gネットワークでは、トレーニングレイテンシは依然としてフェデレートラーニング(FL)が広く採用されるのを防ぐ障害である。
大きなレイテンシをもたらす最も基本的な問題の1つは、FLの悪い候補選択である。
本稿では,FLの有効候補選択について検討する。
論文 参考訳(メタデータ) (2020-02-03T06:40:04Z) - TiFL: A Tier-based Federated Learning System [17.74678728280232]
フェデレートラーニング(FL)は、プライバシ要件に違反することなく、多くのクライアント間で共有モデルを学ぶことを可能にする。
従来のFLシステムのトレーニング時間とモデル精度に,資源とデータの不均一性が大きな影響を与えることを示すケーススタディを実施している。
我々は,TiFLを提案する。TiFLは,クライアントをトレーニングパフォーマンスに基づいて階層に分割し,トレーニングラウンド毎に同一階層から選択する,階層ベースのフェデレートラーニングシステムである。
論文 参考訳(メタデータ) (2020-01-25T01:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。