論文の概要: Incentives for Federated Learning: a Hypothesis Elicitation Approach
- arxiv url: http://arxiv.org/abs/2007.10596v1
- Date: Tue, 21 Jul 2020 04:55:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:30:38.548008
- Title: Incentives for Federated Learning: a Hypothesis Elicitation Approach
- Title(参考訳): フェデレーション学習のためのインセンティブ:仮説解法アプローチ
- Authors: Yang Liu and Jiaheng Wei
- Abstract要約: フェデレーション学習は、分散データソースから機械学習モデルを集めるための有望なパラダイムを提供する。
信頼性のあるフェデレート学習システムの成功は、分散された自己関心のあるユーザーが積極的に参加するという前提に基づいている。
本稿では,ローカルなユーザ側機械学習モデルの真理レポートをインセンティブ化する手法を提案する。
- 参考スコア(独自算出の注目度): 10.452709936265274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning provides a promising paradigm for collecting machine
learning models from distributed data sources without compromising users' data
privacy. The success of a credible federated learning system builds on the
assumption that the decentralized and self-interested users will be willing to
participate to contribute their local models in a trustworthy way. However,
without proper incentives, users might simply opt out the contribution cycle,
or will be mis-incentivized to contribute spam/false information. This paper
introduces solutions to incentivize truthful reporting of a local, user-side
machine learning model for federated learning. Our results build on the
literature of information elicitation, but focus on the questions of eliciting
hypothesis (rather than eliciting human predictions). We provide a scoring rule
based framework that incentivizes truthful reporting of local hypotheses at a
Bayesian Nash Equilibrium. We study the market implementation, accuracy as well
as robustness properties of our proposed solution too. We verify the
effectiveness of our methods using MNIST and CIFAR-10 datasets. Particularly we
show that by reporting low-quality hypotheses, users will receive decreasing
scores (rewards, or payments).
- Abstract(参考訳): フェデレーション学習は、ユーザのデータプライバシを損なうことなく、分散データソースから機械学習モデルを集めるための有望なパラダイムを提供する。
信頼できる連合学習システムの成功は、分散的で利己的なユーザたちが、信頼に値する方法でローカルモデルに貢献できるという仮定に基づいている。
しかし、適切なインセンティブがなければ、ユーザーは単にコントリビューションサイクルをオプトアウトするか、スパム/偽情報を投稿するインセンティブを誤る可能性がある。
本稿では,フェデレーション学習のためのローカルなユーザ側機械学習モデルの真偽レポートをインセンティブ化する手法を提案する。
この結果は,情報引用の文献に基づいているが,仮説の提示(人間による予測ではなく)に焦点が当てられている。
ベイズナッシュ平衡における局所仮説の真理的な報告を動機づけるスコアリングルールに基づくフレームワークを提供する。
また,提案手法の市場実装,精度,ロバスト性についても検討した。
MNISTとCIFAR-10データセットを用いて本手法の有効性を検証する。
特に、低品質の仮説を報告することで、ユーザーはスコア(報酬または支払い)が減少することを示す。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Incentivizing Federated Learning [2.420324724613074]
本稿では,顧客に対して可能な限り多くのデータ提供を促すインセンティブメカニズムを提案する。
従来のインセンティブメカニズムとは異なり、私たちのアプローチはデータを収益化しません。
理論的には、ある条件下では、クライアントがフェデレーション学習に参加できる限り多くのデータを使用することを証明します。
論文 参考訳(メタデータ) (2022-05-22T23:02:43Z) - Blockchain-based Trustworthy Federated Learning Architecture [16.062545221270337]
ブロックチェーンベースの信頼できるフェデレーション学習アーキテクチャを提案する。
まず、説明責任を実現するために、スマートコントラクトベースのデータモデル証明レジストリを設計する。
また、トレーニングデータの公平性を高めるために、重み付き公正データサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T06:13:58Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Learning Models for Actionable Recourse [31.30850378503406]
本研究では, リスクの高い個人に対して, 精度を犠牲にすることなく, 理論的に言論を保証するアルゴリズムを提案する。
実データに対する広範な実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-11-12T01:15:18Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - Trading Data For Learning: Incentive Mechanism For On-Device Federated
Learning [25.368195601622688]
フェデレートラーニング(Federated Learning)とは、さまざまなデバイスに分散したグローバルモデルのトレーニングの概念である。
この設定では、ユーザのデバイスが自身のデータ上で計算を行い、その結果をクラウドサーバと共有し、グローバルモデルを更新します。
ユーザは、フェデレートされたモデルトレーニングプロセス中に、ローカルデータのプライバシリークに悩まされる。
本稿では、信頼性の高いデータを提供する可能性の高いユーザを選択し、プライバシリークのコストを補償する効果的なインセンティブメカニズムを提案する。
論文 参考訳(メタデータ) (2020-09-11T18:37:58Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。