論文の概要: Welfare and Fairness Dynamics in Federated Learning: A Client Selection
Perspective
- arxiv url: http://arxiv.org/abs/2302.08976v1
- Date: Fri, 17 Feb 2023 16:31:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 14:07:48.517465
- Title: Welfare and Fairness Dynamics in Federated Learning: A Client Selection
Perspective
- Title(参考訳): フェデレーション学習における福祉とフェアネスダイナミクス--顧客選択の視点から
- Authors: Yash Travadi, Le Peng, Xuan Bi, Ju Sun, Mochen Yang
- Abstract要約: Federated Learning(FL)は、分散コンピューティングデバイスが共有学習モデルのトレーニングを可能にする、プライバシ保護学習技術である。
公正さやインセンティブといった顧客に対する経済的配慮は、まだ完全には検討されていない。
低品質なクライアントを除去するためのクライアント選択プロセスと、公正な報酬配分を保証するための送金プロセスを含む、新たなインセンティブ機構を提案する。
- 参考スコア(独自算出の注目度): 1.749935196721634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a privacy-preserving learning technique that
enables distributed computing devices to train shared learning models across
data silos collaboratively. Existing FL works mostly focus on designing
advanced FL algorithms to improve the model performance. However, the economic
considerations of the clients, such as fairness and incentive, are yet to be
fully explored. Without such considerations, self-motivated clients may lose
interest and leave the federation. To address this problem, we designed a novel
incentive mechanism that involves a client selection process to remove
low-quality clients and a money transfer process to ensure a fair reward
distribution. Our experimental results strongly demonstrate that the proposed
incentive mechanism can effectively improve the duration and fairness of the
federation.
- Abstract(参考訳): Federated Learning(FL)は、分散コンピューティングデバイスがデータサイロ間の共有学習モデルを協調的にトレーニングできるようにする、プライバシ保護学習技術である。
既存のFLは主にモデル性能を改善するための高度なFLアルゴリズムの設計に焦点を当てている。
しかし、フェアネスやインセンティブといったクライアントの経済的配慮は、まだ十分に検討されていない。
このような考慮がなければ、自己モチベーションのあるクライアントは関心を失い、フェデレーションを離れる可能性がある。
この問題に対処するため,我々は,低品質クライアントを除去するためのクライアント選択プロセスと,公平な報酬分配を確保するための送金プロセスを含む,新たなインセンティブ機構を設計した。
提案するインセンティブ機構は,フェデレーションの持続時間と公平性を効果的に改善できることを示す。
関連論文リスト
- Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - Client Selection in Federated Learning: Principles, Challenges, and
Opportunities [15.33636272844544]
Federated Learning(FL)は、機械学習(ML)モデルをトレーニングするためのプライバシー保護パラダイムである。
典型的なFLシナリオでは、クライアントはデータ分散とハードウェア構成の点で大きな異質性を示す。
様々なクライアント選択アルゴリズムが開発され、性能改善が期待できる。
論文 参考訳(メタデータ) (2022-11-03T01:51:14Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - FedToken: Tokenized Incentives for Data Contribution in Federated
Learning [33.93936816356012]
ブロックチェーン技術を基盤として,コントリビューションベースのトークン化インセンティブスキームである textttFedToken を提案する。
まず、モデル集約中の局所モデルの寄与を近似し、次に、クライアントが収束のために通信ラウンドを下げる戦略的スケジュールを立てる。
論文 参考訳(メタデータ) (2022-09-20T14:58:08Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Prior-Free Auctions for the Demand Side of Federated Learning [0.76146285961466]
連合学習は、分散クライアントがセンシティブなトレーニングデータを共有することなく、共有機械学習モデルを学ぶことを可能にする。
自己関心のある顧客から金銭的貢献を集めるためのメカニズムfipfaを提案する。
MNISTデータセット上で実験を行い、FIPFAおよびFIPFAのインセンティブ特性に基づいて顧客のモデル品質をテストします。
論文 参考訳(メタデータ) (2021-03-26T10:22:18Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。