論文の概要: FLMarket: Enabling Privacy-preserved Pre-training Data Pricing for Federated Learning
- arxiv url: http://arxiv.org/abs/2411.11713v1
- Date: Mon, 18 Nov 2024 16:37:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:32:24.564362
- Title: FLMarket: Enabling Privacy-preserved Pre-training Data Pricing for Federated Learning
- Title(参考訳): FLMarket: フェデレーションラーニングのためのプライバシ保護事前トレーニングデータ価格の実現
- Authors: Zhenyu Wen, Wanglei Feng, Di Wu, Haozhen Hu, Chang Xu, Bin Qian, Zhen Hong, Cong Wang, Shouling Ji,
- Abstract要約: 本稿では,2段階のオークションベースの価格設定機構をセキュリティプロトコルに統合し,ユーティリティとプライバシの対立に対処するFLMarketを提案する。
FLMarketによるクライアント選択は、最新手法と比較して、その後のFLトレーニングにおいて10%以上の精度を達成可能であることを示す。
- 参考スコア(独自算出の注目度): 42.819639215494014
- License:
- Abstract: Federated Learning (FL), as a mainstream privacy-preserving machine learning paradigm, offers promising solutions for privacy-critical domains such as healthcare and finance. Although extensive efforts have been dedicated from both academia and industry to improve the vanilla FL, little work focuses on the data pricing mechanism. In contrast to the straightforward in/post-training pricing techniques, we study a more difficult problem of pre-training pricing without direct information from the learning process. We propose FLMarket that integrates a two-stage, auction-based pricing mechanism with a security protocol to address the utility-privacy conflict. Through comprehensive experiments, we show that the client selection according to FLMarket can achieve more than 10% higher accuracy in subsequent FL training compared to state-of-the-art methods. In addition, it outperforms the in-training baseline with more than 2% accuracy increase and 3x run-time speedup.
- Abstract(参考訳): 主流のプライバシ保護機械学習パラダイムであるフェデレートラーニング(FL)は、ヘルスケアやファイナンスといったプライバシクリティカルなドメインに対して、有望なソリューションを提供する。
バニラFLを改善するために学術と産業の両方から多大な努力がなされているが、データ価格の仕組みにはほとんど注力していない。
簡単なイン/ポストトレーニングの価格設定手法とは対照的に,学習プロセスから直接の情報を得ることなく,事前トレーニングの価格設定に関するより難しい問題について検討する。
本稿では,2段階のオークションベースの価格設定機構とセキュリティプロトコルを統合し,ユーティリティとプライバシの対立に対処するFLMarketを提案する。
総合的な実験により,FLMarketによるクライアント選択は,最先端の手法と比較して,その後のFLトレーニングにおいて10%以上の精度を達成可能であることを示す。
さらに、トレーニング中のベースラインの精度が2%以上向上し、実行時のスピードアップが3倍に向上する。
関連論文リスト
- Privacy-Preserving Federated Learning via Dataset Distillation [9.60829979241686]
フェデレートラーニング(FL)では、生のデータの代わりに知識を共有することで、モデルのトレーニングを高精度に行うことができる。
トレーニング中、ユーザーは共有されている知識をコントロールできなくなり、データプライバシの深刻な問題を引き起こす。
FLトレーニングに最小特権(PoLP)の原則を導入することを目的としたFLiPを提案する。
論文 参考訳(メタデータ) (2024-10-25T13:20:40Z) - PUFFLE: Balancing Privacy, Utility, and Fairness in Federated Learning [2.8304839563562436]
公平さとプライバシの原則を同時に遵守するマシンラーニングモデルのトレーニングとデプロイは、大きな課題となる。
本稿では,FLシナリオにおける実用性,プライバシ,公正性のバランスを探究する上で有効な,高レベルのパラメータ化アプローチであるPUFFLEを紹介する。
PUFFLEは多様なデータセット,モデル,データ分布に対して有効であり,モデルの不公平性を75%まで低減し,最悪のシナリオでは有効性を最大17%削減できることを示す。
論文 参考訳(メタデータ) (2024-07-21T17:22:18Z) - Ranking-based Client Selection with Imitation Learning for Efficient Federated Learning [20.412469498888292]
フェデレートラーニング(FL)は、複数のデバイスが共同で共有モデルをトレーニングすることを可能にする。
各トレーニングラウンドにおける参加デバイスの選択は、モデル性能とトレーニング効率の両方に重大な影響を及ぼす。
我々は、エンドツーエンドのランキングベースのアプローチであるFedRankという新しいデバイス選択ソリューションを導入する。
論文 参考訳(メタデータ) (2024-05-07T08:44:29Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - DPBalance: Efficient and Fair Privacy Budget Scheduling for Federated
Learning as a Service [15.94482624965024]
フェデレーテッド・ラーニング(FL)は、一般的な分散機械学習スキームとして登場した。
DPBalanceは,効率性と公平性を両立させる新しいプライバシ予算スケジューリング機構である。
DPBalanceは平均効率改善が1.44倍のsim 3.49倍、平均フェアネス改善が1.37倍のsim 24.32倍であることを示す。
論文 参考訳(メタデータ) (2024-02-15T05:19:53Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - VFed-SSD: Towards Practical Vertical Federated Advertising [53.08038962443853]
本稿では,2つの制限を緩和する半教師付き分割蒸留フレームワーク VFed-SSD を提案する。
具体的には,垂直分割された未ラベルデータを利用する自己教師型タスクMatchedPair Detection (MPD) を開発する。
当社のフレームワークは,デプロイコストの最小化と大幅なパフォーマンス向上を図った,リアルタイム表示広告のための効率的なフェデレーション強化ソリューションを提供する。
論文 参考訳(メタデータ) (2022-05-31T17:45:30Z) - Sample Selection with Deadline Control for Efficient Federated Learning
on Heterogeneous Clients [8.350621280672891]
Federated Learning (FL)は、個々のデータを公開せずに、分散クライアント上で機械学習モデルをトレーニングする。
クライアントのトレーニングサンプルを積極的に選択する体系的なFLフレームワークであるFedBalancerを提案する。
モデル精度を1.03.3%向上させながら,FedBalancerは1.224.62倍の精度向上を実現した。
論文 参考訳(メタデータ) (2022-01-05T13:35:35Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。