論文の概要: Mechanisms that Incentivize Data Sharing in Federated Learning
- arxiv url: http://arxiv.org/abs/2207.04557v1
- Date: Sun, 10 Jul 2022 22:36:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 03:59:16.727106
- Title: Mechanisms that Incentivize Data Sharing in Federated Learning
- Title(参考訳): フェデレーション学習におけるデータ共有を促すメカニズム
- Authors: Sai Praneeth Karimireddy, Wenshuo Guo, Michael I. Jordan
- Abstract要約: 我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
- 参考スコア(独自算出の注目度): 90.74337749137432
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated learning is typically considered a beneficial technology which
allows multiple agents to collaborate with each other, improve the accuracy of
their models, and solve problems which are otherwise too data-intensive /
expensive to be solved individually. However, under the expectation that other
agents will share their data, rational agents may be tempted to engage in
detrimental behavior such as free-riding where they contribute no data but
still enjoy an improved model. In this work, we propose a framework to analyze
the behavior of such rational data generators. We first show how a naive scheme
leads to catastrophic levels of free-riding where the benefits of data sharing
are completely eroded. Then, using ideas from contract theory, we introduce
accuracy shaping based mechanisms to maximize the amount of data generated by
each agent. These provably prevent free-riding without needing any payment
mechanism.
- Abstract(参考訳): フェデレートラーニングは一般的に、複数のエージェントが互いに協力し合い、モデルの精度を改善し、それ以外はデータ集約的でコストがかかる問題を個別に解決する、有益な技術であると考えられている。
しかし、他のエージェントがデータを共有するという期待のもと、合理的なエージェントは、データを提供しないが改善されたモデルを楽しむフリーライディングのような有害な行動に関与する誘惑を受けるかもしれない。
本研究では,このような有理データ生成装置の挙動を解析するためのフレームワークを提案する。
まず,ナイーブなスキームが,データ共有のメリットが完全に損なわれるような,破滅的なフリーライダーのレベルにどのようにつながるかを示す。
そして,契約理論のアイデアを用いて,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
これらは、支払いメカニズムを必要とせずに、確実にフリーライディングを防止します。
関連論文リスト
- Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Incentivizing Collaboration in Machine Learning via Synthetic Data
Rewards [26.850070556844628]
本稿では、データ提供に利害関係者間の協調を動機付ける新しい協調生成モデリング(CGM)フレームワークを提案する。
合成データを報酬として分配することは、下流の学習タスクにタスクとモデルに依存しない利点を提供する。
論文 参考訳(メタデータ) (2021-12-17T05:15:30Z) - Data Sharing Markets [95.13209326119153]
我々は、各エージェントがデータの買い手および売り手の両方になり得る設定について検討する。
両データ交換(データ付きトレーディングデータ)と一方データ交換(お金付きトレーディングデータ)の2つの事例を考察する。
論文 参考訳(メタデータ) (2021-07-19T06:00:34Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - ASCII: ASsisted Classification with Ignorance Interchange [17.413989127493622]
エージェントが他のエージェントの助けを借りてその分類性能を向上させるためのASCIIという手法を提案する。
主なアイデアは、エージェント間の衝突サンプルごとに0と1の間の無知値を反復的に交換することである。
この方法は自然にプライバシーを意識し、伝達経済と分散学習のシナリオに適している。
論文 参考訳(メタデータ) (2020-10-21T03:57:36Z) - Trading Data For Learning: Incentive Mechanism For On-Device Federated
Learning [25.368195601622688]
フェデレートラーニング(Federated Learning)とは、さまざまなデバイスに分散したグローバルモデルのトレーニングの概念である。
この設定では、ユーザのデバイスが自身のデータ上で計算を行い、その結果をクラウドサーバと共有し、グローバルモデルを更新します。
ユーザは、フェデレートされたモデルトレーニングプロセス中に、ローカルデータのプライバシリークに悩まされる。
本稿では、信頼性の高いデータを提供する可能性の高いユーザを選択し、プライバシリークのコストを補償する効果的なインセンティブメカニズムを提案する。
論文 参考訳(メタデータ) (2020-09-11T18:37:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。