論文の概要: Fair and efficient contribution valuation for vertical federated
learning
- arxiv url: http://arxiv.org/abs/2201.02658v1
- Date: Fri, 7 Jan 2022 19:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 11:01:08.266544
- Title: Fair and efficient contribution valuation for vertical federated
learning
- Title(参考訳): 垂直連合学習における公平かつ効率的な貢献評価
- Authors: Zhenan Fan, Huang Fang, Zirui Zhou, Jian Pei, Michael P. Friedlander,
Yong Zhang
- Abstract要約: フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
- 参考スコア(独自算出の注目度): 49.50442779626123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a popular technology for training machine learning
models on distributed data sources without sharing data. Vertical federated
learning or feature-based federated learning applies to the cases that
different data sources share the same sample ID space but differ in feature
space. To ensure the data owners' long-term engagement, it is critical to
objectively assess the contribution from each data source and recompense them
accordingly. The Shapley value (SV) is a provably fair contribution valuation
metric originated from cooperative game theory. However, computing the SV
requires extensively retraining the model on each subset of data sources, which
causes prohibitively high communication costs in federated learning. We propose
a contribution valuation metric called vertical federated Shapley value
(VerFedSV) based on SV. We show that VerFedSV not only satisfies many desirable
properties for fairness but is also efficient to compute, and can be adapted to
both synchronous and asynchronous vertical federated learning algorithms. Both
theoretical analysis and extensive experimental results verify the fairness,
efficiency, and adaptability of VerFedSV.
- Abstract(参考訳): フェデレーション学習は、データを共有せずに分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
垂直的フェデレーション学習または特徴に基づくフェデレーション学習は、異なるデータソースが同じサンプルID空間を共有するが、特徴空間が異なる場合に適用される。
データ所有者の長期的な関与を確保するためには、各データソースからの貢献を客観的に評価し、それに応じて補償することが不可欠である。
シャプリー値 (shapley value, sv) は、協調ゲーム理論に由来する正当な寄与評価指標である。
しかし、SVの計算には、データソースの各サブセットでモデルを広範囲に再トレーニングする必要があるため、連合学習における通信コストは極めて高い。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
その結果,verfedsvはフェアネスの望ましい性質の多くを満たすだけでなく,計算効率も高く,同期型および非同期型の垂直フェデレーション学習アルゴリズムにも適用できることがわかった。
理論解析と広範な実験結果の両方がverfedsvの公正性、効率性、適応性を検証する。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Accelerating Fair Federated Learning: Adaptive Federated Adam [0.0]
データセットが独立で同一に分散されていない場合(非IID)、単純なフェデレーションアルゴリズムによってトレーニングされたモデルは、特定の参加者に偏りが生じる可能性がある。
これは連合学習における公平性問題として知られている。
本稿では,適応的フェデレーション・アダム(AdaFedAdam)を提案し,偏見を緩和して公正なフェデレーション・ラーニングを加速させる。
論文 参考訳(メタデータ) (2023-01-23T10:56:12Z) - FEDIC: Federated Learning on Non-IID and Long-Tailed Data via Calibrated
Distillation [54.2658887073461]
非IIDデータの処理は、フェデレーション学習における最も難しい問題の1つである。
本稿では, フェデレート学習における非IIDデータとロングテールデータの結合問題について検討し, フェデレート・アンサンブル蒸留と不均衡(FEDIC)という対応ソリューションを提案する。
FEDICはモデルアンサンブルを使用して、非IIDデータでトレーニングされたモデルの多様性を活用する。
論文 参考訳(メタデータ) (2022-04-30T06:17:36Z) - Improving Fairness for Data Valuation in Federated Learning [39.61504568047234]
本稿では,フェデレートされたシャプリー値の公平性を改善するために,フェデレーションされたシャプリー値と呼ばれる新しい尺度を提案する。
この行列は、最適化から概念やツールを活用することにより、ほぼ低ランクであることが穏やかな条件下で示される。
論文 参考訳(メタデータ) (2021-09-19T02:39:59Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Privacy-Preserving Asynchronous Federated Learning Algorithms for
Multi-Party Vertically Collaborative Learning [151.47900584193025]
本稿では,非同期フェデレーションSGD(AFSGD-VP)アルゴリズムとその垂直分割データ上でのSVRGおよびSAGA変種を提案する。
我々の知る限り、AFSGD-VPとそのSVRGおよびSAGAの変種は、垂直に分割されたデータのための最初の非同期フェデレーション学習アルゴリズムである。
論文 参考訳(メタデータ) (2020-08-14T08:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。