論文の概要: Data Valuation for Vertical Federated Learning: An Information-Theoretic
Approach
- arxiv url: http://arxiv.org/abs/2112.08364v1
- Date: Wed, 15 Dec 2021 02:42:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 14:22:27.783077
- Title: Data Valuation for Vertical Federated Learning: An Information-Theoretic
Approach
- Title(参考訳): 垂直的フェデレーション学習のためのデータ評価:情報理論的アプローチ
- Authors: Xiao Han and Leye Wang and Junjie Wu
- Abstract要約: フェデレートラーニング(FL)は、現実のAIアプリケーションに対して、プライバシ保護と法規制の方法で、サードパーティ間のデータコラボレーションを可能にする。
FedValueは、垂直FLタスクのための最初のプライバシ保存、タスク固有の、しかしモデルフリーなデータ評価手法である。
FedValueは、ゲーム理論の観点から複数のパーティのデータ値を評価するために、Shapley-CMIと呼ばれる新しい情報理論メトリックを組み込んでいる。
- 参考スコア(独自算出の注目度): 13.90382132685835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a promising machine learning paradigm that enables
cross-party data collaboration for real-world AI applications in a
privacy-preserving and law-regulated way. How to valuate parties' data is a
critical but challenging FL issue. In the literature, data valuation either
relies on running specific models for a given task or is just task irrelevant;
however, it is often requisite for party selection given a specific task when
FL models have not been determined yet. This work thus fills the gap and
proposes \emph{FedValue}, to our best knowledge, the first privacy-preserving,
task-specific but model-free data valuation method for vertical FL tasks.
Specifically, FedValue incorporates a novel information-theoretic metric termed
Shapley-CMI to assess data values of multiple parties from a game-theoretic
perspective. Moreover, a novel server-aided federated computation mechanism is
designed to compute Shapley-CMI and meanwhile protects each party from data
leakage. We also propose several techniques to accelerate Shapley-CMI
computation in practice. Extensive experiments on six open datasets validate
the effectiveness and efficiency of FedValue for data valuation of vertical FL
tasks. In particular, Shapley-CMI as a model-free metric performs comparably
with the measures that depend on running an ensemble of well-performing models.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、現実のAIアプリケーションに対して、プライバシー保護と法規制の方法でサードパーティのデータコラボレーションを可能にする、有望な機械学習パラダイムである。
当事者のデータを評価する方法は重要な問題ですが、FLの問題です。
文献では、データのバリュエーションは与えられたタスクに対して特定のモデルを実行することに依存するか、あるいは単にタスクとは無関係である。
この作業はギャップを埋め、垂直FLタスクのための最初のプライバシ保存、タスク固有だがモデルフリーなデータ評価手法である‘emph{FedValue}’を提案する。
特に、FedValueは、ゲーム理論の観点から複数のパーティのデータ値を評価するために、Shapley-CMIと呼ばれる新しい情報理論メトリックを組み込んでいる。
さらに、サーバ支援型フェデレーション計算機構は、Shapley-CMIを計算し、一方、各パーティがデータ漏洩から保護されるように設計されている。
また,実際にShapley-CMI計算を高速化する手法を提案する。
6つのオープンデータセットに関する広範な実験は、垂直flタスクのデータバリュエーションに対するfeedvalueの有効性と効率を検証する。
特に、モデルフリー計量としてのShapley-CMIは、良好な性能を持つモデルのアンサンブルの実行に依存する測度と互換性がある。
関連論文リスト
- A Survey on Contribution Evaluation in Vertical Federated Learning [26.32678862011122]
Vertical Federated Learning (VFL)は、プライバシの問題に対処する機械学習において、重要なアプローチとして登場した。
本稿では,VFLにおけるコントリビューション評価について概説する。
コントリビューション評価を含むVFLにおける様々なタスクについて検討し、必要な評価特性を解析する。
論文 参考訳(メタデータ) (2024-05-03T06:32:07Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - Data Valuation and Detections in Federated Learning [4.899818550820576]
フェデレートラーニング(FL)は、生データのプライバシーを維持しながら協調的なモデルトレーニングを可能にする。
このフレームワークの課題は、データの公平かつ効率的な評価であり、FLタスクで高品質なデータを提供するためにクライアントにインセンティブを与えるのに不可欠である。
本稿では,FLタスクにおける事前学習アルゴリズムを使わずに,クライアントのコントリビューションを評価し,関連するデータセットを選択するための新たなプライバシ保護手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T12:01:32Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FederatedTrust: A Solution for Trustworthy Federated Learning [3.202927443898192]
IoT(Internet of Things)の急速な拡張により、中央集権型機械学習(ML/DL)メソッドの課題が提示された。
データプライバシに関する懸念に対処するため、フェデレートラーニング(FL)のような、協調的でプライバシ保護のML/DL技術が登場した。
論文 参考訳(メタデータ) (2023-02-20T09:02:24Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Fair and efficient contribution valuation for vertical federated
learning [49.50442779626123]
フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
論文 参考訳(メタデータ) (2022-01-07T19:57:15Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。