論文の概要: FL-Market: Trading Private Models in Federated Learning
- arxiv url: http://arxiv.org/abs/2106.04384v4
- Date: Mon, 3 Apr 2023 11:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 02:00:40.498270
- Title: FL-Market: Trading Private Models in Federated Learning
- Title(参考訳): fl-market: 連合学習におけるプライベートモデル取引
- Authors: Shuyuan Zheng, Yang Cao, Masatoshi Yoshikawa, Huizhong Li, Qiang Yan
- Abstract要約: 既存のモデルマーケットプレースでは、ブローカーがデータ所有者のプライベートトレーニングデータにアクセスできると仮定している。
FL-Marketは,モデル購入者だけでなく,信頼できないブローカーに対してプライバシを保護する,ローカルプライベートモデルマーケットプレースである。
- 参考スコア(独自算出の注目度): 19.11812014629085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The difficulty in acquiring a sufficient amount of training data is a major
bottleneck for machine learning (ML) based data analytics. Recently,
commoditizing ML models has been proposed as an economical and moderate
solution to ML-oriented data acquisition. However, existing model marketplaces
assume that the broker can access data owners' private training data, which may
not be realistic in practice. In this paper, to promote trustworthy data
acquisition for ML tasks, we propose FL-Market, a locally private model
marketplace that protects privacy not only against model buyers but also
against the untrusted broker. FL-Market decouples ML from the need to centrally
gather training data on the broker's side using federated learning, an emerging
privacy-preserving ML paradigm in which data owners collaboratively train an ML
model by uploading local gradients (to be aggregated into a global gradient for
model updating). Then, FL-Market enables data owners to locally perturb their
gradients by local differential privacy and thus further prevents privacy
risks. To drive FL-Market, we propose a deep learning-empowered auction
mechanism for intelligently deciding the local gradients' perturbation levels
and an optimal aggregation mechanism for aggregating the perturbed gradients.
Our auction and aggregation mechanisms can jointly maximize the global
gradient's accuracy, which optimizes model buyers' utility. Our experiments
verify the effectiveness of the proposed mechanisms.
- Abstract(参考訳): 十分な量のトレーニングデータを取得することの難しさは、機械学習(ML)ベースのデータ分析の大きなボトルネックである。
近年、ML指向データ取得の経済的かつ適度なソリューションとして、MLモデルのコモディティ化が提案されている。
しかし、既存のモデルマーケットプレイスでは、ブローカーがデータ所有者のプライベートトレーニングデータにアクセスできると仮定している。
本稿では,MLタスクに対する信頼性の高いデータ取得を促進するために,モデル購入者だけでなく,信頼できないブローカーに対してプライバシを保護するローカルプライベートモデルマーケットプレースであるFL-Marketを提案する。
fl-marketは、データオーナがローカル勾配をアップロードしてmlモデルを協調的にトレーニングする、新たなプライバシ保存型mlパラダイムであるfederated learningを使用して、ブローカ側でトレーニングデータを集中的に収集する必要性からmlを分離する(モデル更新のためにグローバル勾配に集約される)。
そして、fl-marketは、データ所有者がローカルなディファレンシャルプライバシによって勾配を局所的に摂動させることを可能にし、プライバシーリスクをさらに防ぐ。
FL-Marketを駆動するために,局所勾配の摂動レベルをインテリジェントに決定する深層学習型オークション機構と,摂動勾配を集約する最適集約機構を提案する。
当社のオークションとアグリゲーション機構は,モデル購入者の実用性を最適化するグローバルグラデーションの精度を共同で最大化することができる。
提案手法の有効性を検証する実験を行った。
関連論文リスト
- FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - An Auction-based Marketplace for Model Trading in Federated Learning [54.79736037670377]
フェデレートラーニング(FL)は、局所的な分散データを用いたトレーニングモデルにおいて、その効果がますます認識されている。
FLはモデルのマーケットプレースであり、顧客は買い手と売り手の両方として振る舞う。
本稿では,性能向上に基づく適切な価格設定を実現するため,オークションベースのソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-02T07:25:53Z) - Federated Unlearning: A Survey on Methods, Design Guidelines, and Evaluation Metrics [2.7456900944642686]
フェデレートアンラーニング(FU)アルゴリズムは、完全なモデルの再トレーニングなしに、クライアントのコントリビューションを効率的に除去する。
本稿では、背景概念、実証的証拠、効率的なFUスキームの設計・実装に関する実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-10T13:26:19Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Balancing Privacy Protection and Interpretability in Federated Learning [8.759803233734624]
フェデレートラーニング(FL)は、ローカルクライアントから中央サーバにモデルパラメータを共有することで、グローバルモデルを分散的にトレーニングすることを目的としている。
近年の研究では、FLは情報漏洩に悩まされており、敵はローカルクライアントから共有パラメータを解析してトレーニングデータを回復しようとする。
本稿では,FLにおけるクライアントモデルの勾配に雑音を選択的に追加する,単純かつ効果的な適応型微分プライバシー(ADP)機構を提案する。
論文 参考訳(メタデータ) (2023-02-16T02:58:22Z) - Feature Correlation-guided Knowledge Transfer for Federated
Self-supervised Learning [19.505644178449046]
特徴相関に基づくアグリゲーション(FedFoA)を用いたフェデレーション型自己教師型学習法を提案する。
私たちの洞察は、機能相関を利用して、特徴マッピングを整列し、ローカルトレーニングプロセス中にクライアント間でローカルモデルの更新を校正することにあります。
我々はFedFoAがモデルに依存しないトレーニングフレームワークであることを証明する。
論文 参考訳(メタデータ) (2022-11-14T13:59:50Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - A Marketplace for Trading AI Models based on Blockchain and Incentives
for IoT Data [24.847898465750667]
機械学習(ML)の新たなパラダイムは、学習モデルを異種エージェントのグループに部分的に配信するフェデレートされたアプローチであり、エージェントは自身のデータでモデルをローカルにトレーニングすることができる。
モデルの評価の問題や、協調トレーニングやデータ/モデルの取引に対するインセンティブの問題は、文献において限られた扱いを受けてきた。
本稿では、信頼されたMLベースのネットワーク上でのMLモデルトレーディングの新しいエコシステムを提案する。買い手はML市場から関心のモデルを取得することができ、興味のある売り手はそのモデルの品質を高めるためにローカルな計算に費やす。
論文 参考訳(メタデータ) (2021-12-06T08:52:42Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。