論文の概要: Incentive Mechanism for Privacy-Preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2106.04384v1
- Date: Tue, 8 Jun 2021 14:14:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 15:38:15.535101
- Title: Incentive Mechanism for Privacy-Preserving Federated Learning
- Title(参考訳): プライバシー保護フェデレーション学習のインセンティブメカニズム
- Authors: Shuyuan Zheng, Yang Cao, and Masatoshi Yoshikawa
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、機械学習の新たなパラダイムである。
FLにおける2つの基本的な研究課題は、インセンティブメカニズムとプライバシ保護である。
我々は、適切な支払いとプライバシー保護を提供することで、データ所有者の参加を促すFL-Marketを提案する。
- 参考スコア(独自算出の注目度): 12.798585065350494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging paradigm for machine learning, in
which data owners can collaboratively train a model by sharing gradients
instead of their raw data. Two fundamental research problems in FL are
incentive mechanism and privacy protection. The former focuses on how to
incentivize data owners to participate in FL. The latter studies how to protect
data owners' privacy while maintaining high utility of trained models. However,
incentive mechanism and privacy protection in FL have been studied separately
and no work solves both problems at the same time. In this work, we address the
two problems simultaneously by an FL-Market that incentivizes data owners'
participation by providing appropriate payments and privacy protection.
FL-Market enables data owners to obtain compensation according to their privacy
loss quantified by local differential privacy (LDP). Our insight is that, by
meeting data owners' personalized privacy preferences and providing appropriate
payments, we can (1) incentivize privacy risk-tolerant data owners to set
larger privacy parameters (i.e., gradients with less noise) and (2) provide
preferred privacy protection for privacy risk-averse data owners. To achieve
this, we design a personalized LDP-based FL framework with a deep
learning-empowered auction mechanism for incentivizing trading gradients with
less noise and optimal aggregation mechanisms for model updates. Our
experiments verify the effectiveness of the proposed framework and mechanisms.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は機械学習の新たなパラダイムであり、データ所有者は生データの代わりに勾配を共有することでモデルを協調的に訓練することができる。
flにおける2つの基本的な研究課題は、インセンティブ機構とプライバシー保護である。
前者はデータ所有者にflに参加するインセンティブを与える方法に焦点を当てている。
後者は、訓練されたモデルの高ユーティリティを維持しながら、データ所有者のプライバシを保護する方法を研究する。
しかし、FLにおけるインセンティブ機構とプライバシ保護は別々に研究されており、同時に両方の問題を解決する作業は行われていない。
本研究では,データ所有者の参加を促すFL-Marketによって,適切な支払いとプライバシ保護を提供することにより,この2つの課題を同時に解決する。
FL-Marketは、データ所有者がローカルディファレンシャルプライバシ(LDP)によって定量化されたプライバシ損失に応じて補償を得ることを可能にする。
我々の洞察は、データ所有者のパーソナライズされたプライバシの嗜好に応え、適切な支払いを提供することで、(1)プライバシーに耐性のあるデータ所有者により大きなプライバシパラメータ(すなわち、ノイズの少ない勾配)を設定するインセンティブを与えることができ、(2)プライバシの逆データ所有者に対するプライバシー保護を提供する。
そこで我々は,より少ないノイズでトレーディング勾配をインセンティブ化するための深層学習を利用したオークション機構とモデル更新のための最適アグリゲーション機構を備えたパーソナライズLDPベースのFLフレームワークを設計した。
提案手法の有効性を検証する実験を行った。
関連論文リスト
- FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - An Auction-based Marketplace for Model Trading in Federated Learning [54.79736037670377]
フェデレートラーニング(FL)は、局所的な分散データを用いたトレーニングモデルにおいて、その効果がますます認識されている。
FLはモデルのマーケットプレースであり、顧客は買い手と売り手の両方として振る舞う。
本稿では,性能向上に基づく適切な価格設定を実現するため,オークションベースのソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-02T07:25:53Z) - Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics [2.7456900944642686]
フェデレートアンラーニング(FU)アルゴリズムは、完全なモデルの再トレーニングなしに、クライアントのコントリビューションを効率的に除去する。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-10T13:26:19Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Balancing Privacy Protection and Interpretability in Federated Learning [8.759803233734624]
フェデレートラーニング(FL)は、ローカルクライアントから中央サーバにモデルパラメータを共有することで、グローバルモデルを分散的にトレーニングすることを目的としている。
近年の研究では、FLは情報漏洩に悩まされており、敵はローカルクライアントから共有パラメータを解析してトレーニングデータを回復しようとする。
本稿では,FLにおけるクライアントモデルの勾配に雑音を選択的に追加する,単純かつ効果的な適応型微分プライバシー(ADP)機構を提案する。
論文 参考訳(メタデータ) (2023-02-16T02:58:22Z) - Feature Correlation-guided Knowledge Transfer for Federated
Self-supervised Learning [19.505644178449046]
特徴相関に基づくアグリゲーション(FedFoA)を用いたフェデレーション型自己教師型学習法を提案する。
私たちの洞察は、機能相関を利用して、特徴マッピングを整列し、ローカルトレーニングプロセス中にクライアント間でローカルモデルの更新を校正することにあります。
我々はFedFoAがモデルに依存しないトレーニングフレームワークであることを証明する。
論文 参考訳(メタデータ) (2022-11-14T13:59:50Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - A Marketplace for Trading AI Models based on Blockchain and Incentives
for IoT Data [24.847898465750667]
機械学習(ML)の新たなパラダイムは、学習モデルを異種エージェントのグループに部分的に配信するフェデレートされたアプローチであり、エージェントは自身のデータでモデルをローカルにトレーニングすることができる。
モデルの評価の問題や、協調トレーニングやデータ/モデルの取引に対するインセンティブの問題は、文献において限られた扱いを受けてきた。
本稿では、信頼されたMLベースのネットワーク上でのMLモデルトレーディングの新しいエコシステムを提案する。買い手はML市場から関心のモデルを取得することができ、興味のある売り手はそのモデルの品質を高めるためにローカルな計算に費やす。
論文 参考訳(メタデータ) (2021-12-06T08:52:42Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。