論文の概要: Incentivizing Federated Learning
- arxiv url: http://arxiv.org/abs/2205.10951v1
- Date: Sun, 22 May 2022 23:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 15:10:42.022060
- Title: Incentivizing Federated Learning
- Title(参考訳): フェデレーション学習のインセンティブ
- Authors: Shuyu Kong, You Li and Hai Zhou
- Abstract要約: 本稿では,顧客に対して可能な限り多くのデータ提供を促すインセンティブメカニズムを提案する。
従来のインセンティブメカニズムとは異なり、私たちのアプローチはデータを収益化しません。
理論的には、ある条件下では、クライアントがフェデレーション学習に参加できる限り多くのデータを使用することを証明します。
- 参考スコア(独自算出の注目度): 2.420324724613074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning is an emerging distributed collaborative learning paradigm
used by many of applications nowadays. The effectiveness of federated learning
relies on clients' collective efforts and their willingness to contribute local
data. However, due to privacy concerns and the costs of data collection and
model training, clients may not always contribute all the data they possess,
which would negatively affect the performance of the global model. This paper
presents an incentive mechanism that encourages clients to contribute as much
data as they can obtain. Unlike previous incentive mechanisms, our approach
does not monetize data. Instead, we implicitly use model performance as a
reward, i.e., significant contributors are paid off with better models. We
theoretically prove that clients will use as much data as they can possibly
possess to participate in federated learning under certain conditions with our
incentive mechanism
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、近年多くのアプリケーションで使われている分散コラボレーティブラーニングパラダイムである。
連合学習の有効性は、クライアントの集団的努力と地域データへの貢献意欲に依存している。
しかしながら、プライバシの懸念とデータ収集とモデルトレーニングのコストのために、クライアントは常に所有するすべてのデータに貢献するとは限らないため、グローバルモデルのパフォーマンスに悪影響を及ぼす可能性がある。
本稿では,顧客に対して可能な限り多くのデータ提供を促すインセンティブメカニズムを提案する。
従来のインセンティブメカニズムとは異なり、私たちのアプローチはデータを収益化しません。
代わりに、モデルパフォーマンスを報酬として暗黙的に使用します。
我々は,クライアントが一定の条件下でのフェデレーション学習に参加できる限り多くのデータを使用することを理論的に証明する。
関連論文リスト
- ConDa: Fast Federated Unlearning with Contribution Dampening [46.074452659791575]
ConDaは、各クライアントのグローバルモデルに影響を与えるパラメータを追跡することによって、効率的なアンラーニングを実行するフレームワークである。
複数のデータセットで実験を行い、ConDaがクライアントのデータを忘れるのが効果的であることを実証する。
論文 参考訳(メタデータ) (2024-10-05T12:45:35Z) - Efficient Core-selecting Incentive Mechanism for Data Sharing in
Federated Learning [0.12289361708127873]
フェデレーテッド・ラーニング(Federated Learning)は、参加者のデータを使って改善されたグローバルモデルをトレーニングする分散機械学習システムである。
データを真に入力し、安定した協力を促進するインセンティブメカニズムの確立は、検討すべき重要な問題となっている。
本稿では,サンプリング近似に基づく効率的なコア選択機構を提案する。
論文 参考訳(メタデータ) (2023-09-21T01:47:39Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - FedToken: Tokenized Incentives for Data Contribution in Federated
Learning [33.93936816356012]
ブロックチェーン技術を基盤として,コントリビューションベースのトークン化インセンティブスキームである textttFedToken を提案する。
まず、モデル集約中の局所モデルの寄与を近似し、次に、クライアントが収束のために通信ラウンドを下げる戦略的スケジュールを立てる。
論文 参考訳(メタデータ) (2022-09-20T14:58:08Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Trading Data For Learning: Incentive Mechanism For On-Device Federated
Learning [25.368195601622688]
フェデレートラーニング(Federated Learning)とは、さまざまなデバイスに分散したグローバルモデルのトレーニングの概念である。
この設定では、ユーザのデバイスが自身のデータ上で計算を行い、その結果をクラウドサーバと共有し、グローバルモデルを更新します。
ユーザは、フェデレートされたモデルトレーニングプロセス中に、ローカルデータのプライバシリークに悩まされる。
本稿では、信頼性の高いデータを提供する可能性の高いユーザを選択し、プライバシリークのコストを補償する効果的なインセンティブメカニズムを提案する。
論文 参考訳(メタデータ) (2020-09-11T18:37:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。