論文の概要: Fair and efficient contribution valuation for vertical federated learning
- arxiv url: http://arxiv.org/abs/2201.02658v2
- Date: Thu, 21 Aug 2025 21:42:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:35.970759
- Title: Fair and efficient contribution valuation for vertical federated learning
- Title(参考訳): 垂直的フェデレーション学習のための公正かつ効率的な貢献評価
- Authors: Zhenan Fan, Huang Fang, Xinglu Wang, Zirui Zhou, Jian Pei, Michael P. Friedlander, Yong Zhang,
- Abstract要約: フェデレートラーニング(Federated Learning)は、データを共有することなく、分散化されたデータソース間で機械学習モデルをトレーニングするための新興技術である。
本稿では,従来のシェープ値に基づいて,垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
We show that VerFedSV satisfed property of fairness but also effective to compute。
- 参考スコア(独自算出の注目度): 19.536358114259887
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning is an emerging technology for training machine learning models across decentralized data sources without sharing data. Vertical federated learning, also known as feature-based federated learning, applies to scenarios where data sources have the same sample IDs but different feature sets. To ensure fairness among data owners, it is critical to objectively assess the contributions from different data sources and compensate the corresponding data owners accordingly. The Shapley value is a provably fair contribution valuation metric originating from cooperative game theory. However, its straight-forward computation requires extensively retraining a model on each potential combination of data sources, leading to prohibitively high communication and computation overheads due to multiple rounds of federated learning. To tackle this challenge, we propose a contribution valuation metric called vertical federated Shapley value (VerFedSV) based on the classic Shapley value. We show that VerFedSV not only satisfies many desirable properties of fairness but is also efficient to compute. Moreover, VerFedSV can be adapted to both synchronous and asynchronous vertical federated learning algorithms. Both theoretical analysis and extensive experimental results demonstrate the fairness, efficiency, adaptability, and effectiveness of VerFedSV.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、データを共有することなく、分散化されたデータソース間で機械学習モデルをトレーニングするための新興技術である。
機能ベースのフェデレーション学習としても知られる垂直的フェデレーション学習は、データソースが同じサンプルIDを持つが、異なる機能セットを持つシナリオに適用される。
データオーナ間の公平性を確保するためには、異なるデータソースからのコントリビューションを客観的に評価し、それに応じて対応するデータオーナを補償することが重要である。
シェープリー値(Shapley value)は、協調ゲーム理論から派生した、証明可能な公正な貢献評価指標である。
しかし、その直線フォワード計算では、データソースの潜在的な組み合わせごとにモデルを広範囲に再訓練する必要があるため、複数のフェデレート学習による通信や計算のオーバーヘッドが禁じられている。
この課題に対処するため,従来のシェープ値に基づいて,垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
VerFedSVは、フェアネスの多くの望ましい性質を満たすだけでなく、計算も効率的であることを示す。
さらに、VerFedSVは同期および非同期の垂直連合学習アルゴリズムに適応することができる。
理論的解析と広範な実験結果は、VerFedSVの公平性、効率性、適応性、有効性を示している。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Accelerating Fair Federated Learning: Adaptive Federated Adam [0.0]
データセットが独立で同一に分散されていない場合(非IID)、単純なフェデレーションアルゴリズムによってトレーニングされたモデルは、特定の参加者に偏りが生じる可能性がある。
これは連合学習における公平性問題として知られている。
本稿では,適応的フェデレーション・アダム(AdaFedAdam)を提案し,偏見を緩和して公正なフェデレーション・ラーニングを加速させる。
論文 参考訳(メタデータ) (2023-01-23T10:56:12Z) - FEDIC: Federated Learning on Non-IID and Long-Tailed Data via Calibrated
Distillation [54.2658887073461]
非IIDデータの処理は、フェデレーション学習における最も難しい問題の1つである。
本稿では, フェデレート学習における非IIDデータとロングテールデータの結合問題について検討し, フェデレート・アンサンブル蒸留と不均衡(FEDIC)という対応ソリューションを提案する。
FEDICはモデルアンサンブルを使用して、非IIDデータでトレーニングされたモデルの多様性を活用する。
論文 参考訳(メタデータ) (2022-04-30T06:17:36Z) - Improving Fairness for Data Valuation in Federated Learning [39.61504568047234]
本稿では,フェデレートされたシャプリー値の公平性を改善するために,フェデレーションされたシャプリー値と呼ばれる新しい尺度を提案する。
この行列は、最適化から概念やツールを活用することにより、ほぼ低ランクであることが穏やかな条件下で示される。
論文 参考訳(メタデータ) (2021-09-19T02:39:59Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Privacy-Preserving Asynchronous Federated Learning Algorithms for
Multi-Party Vertically Collaborative Learning [151.47900584193025]
本稿では,非同期フェデレーションSGD(AFSGD-VP)アルゴリズムとその垂直分割データ上でのSVRGおよびSAGA変種を提案する。
我々の知る限り、AFSGD-VPとそのSVRGおよびSAGAの変種は、垂直に分割されたデータのための最初の非同期フェデレーション学習アルゴリズムである。
論文 参考訳(メタデータ) (2020-08-14T08:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。