論文の概要: Mechanisms that Incentivize Data Sharing in Federated Learning
- arxiv url: http://arxiv.org/abs/2207.04557v1
- Date: Sun, 10 Jul 2022 22:36:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 03:59:16.727106
- Title: Mechanisms that Incentivize Data Sharing in Federated Learning
- Title(参考訳): フェデレーション学習におけるデータ共有を促すメカニズム
- Authors: Sai Praneeth Karimireddy, Wenshuo Guo, Michael I. Jordan
- Abstract要約: 我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
- 参考スコア(独自算出の注目度): 90.74337749137432
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated learning is typically considered a beneficial technology which
allows multiple agents to collaborate with each other, improve the accuracy of
their models, and solve problems which are otherwise too data-intensive /
expensive to be solved individually. However, under the expectation that other
agents will share their data, rational agents may be tempted to engage in
detrimental behavior such as free-riding where they contribute no data but
still enjoy an improved model. In this work, we propose a framework to analyze
the behavior of such rational data generators. We first show how a naive scheme
leads to catastrophic levels of free-riding where the benefits of data sharing
are completely eroded. Then, using ideas from contract theory, we introduce
accuracy shaping based mechanisms to maximize the amount of data generated by
each agent. These provably prevent free-riding without needing any payment
mechanism.
- Abstract(参考訳): フェデレートラーニングは一般的に、複数のエージェントが互いに協力し合い、モデルの精度を改善し、それ以外はデータ集約的でコストがかかる問題を個別に解決する、有益な技術であると考えられている。
しかし、他のエージェントがデータを共有するという期待のもと、合理的なエージェントは、データを提供しないが改善されたモデルを楽しむフリーライディングのような有害な行動に関与する誘惑を受けるかもしれない。
本研究では,このような有理データ生成装置の挙動を解析するためのフレームワークを提案する。
まず,ナイーブなスキームが,データ共有のメリットが完全に損なわれるような,破滅的なフリーライダーのレベルにどのようにつながるかを示す。
そして,契約理論のアイデアを用いて,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
これらは、支払いメカニズムを必要とせずに、確実にフリーライディングを防止します。
関連論文リスト
- Efficient Core-selecting Incentive Mechanism for Data Sharing in
Federated Learning [0.12289361708127873]
フェデレーテッド・ラーニング(Federated Learning)は、参加者のデータを使って改善されたグローバルモデルをトレーニングする分散機械学習システムである。
データを真に入力し、安定した協力を促進するインセンティブメカニズムの確立は、検討すべき重要な問題となっている。
本稿では,サンプリング近似に基づく効率的なコア選択機構を提案する。
論文 参考訳(メタデータ) (2023-09-21T01:47:39Z) - No Bidding, No Regret: Pairwise-Feedback Mechanisms for Digital Goods
and Data Auctions [14.87136964827431]
本研究は, 一般的な繰り返しオークション設定に対処する新しいメカニズムを提案する。
メカニズムの新規性は、入札者から情報を引き出すためにペアワイズ比較を使用することにある。
ヒューマンファクターに焦点が当てられていることは、よりヒューマン・アウェアで効率的なメカニズム設計の発展に寄与する。
論文 参考訳(メタデータ) (2023-06-02T18:29:07Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - Data Sharing Markets [95.13209326119153]
我々は、各エージェントがデータの買い手および売り手の両方になり得る設定について検討する。
両データ交換(データ付きトレーディングデータ)と一方データ交換(お金付きトレーディングデータ)の2つの事例を考察する。
論文 参考訳(メタデータ) (2021-07-19T06:00:34Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - ASCII: ASsisted Classification with Ignorance Interchange [17.413989127493622]
エージェントが他のエージェントの助けを借りてその分類性能を向上させるためのASCIIという手法を提案する。
主なアイデアは、エージェント間の衝突サンプルごとに0と1の間の無知値を反復的に交換することである。
この方法は自然にプライバシーを意識し、伝達経済と分散学習のシナリオに適している。
論文 参考訳(メタデータ) (2020-10-21T03:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。