論文の概要: A Principled Approach to Data Valuation for Federated Learning
- arxiv url: http://arxiv.org/abs/2009.06192v1
- Date: Mon, 14 Sep 2020 04:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:58:09.498731
- Title: A Principled Approach to Data Valuation for Federated Learning
- Title(参考訳): フェデレーション学習のためのデータ評価の原則的アプローチ
- Authors: Tianhao Wang, Johannes Rausch, Ce Zhang, Ruoxi Jia, Dawn Song
- Abstract要約: フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
- 参考スコア(独自算出の注目度): 73.19984041333599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a popular technique to train machine learning (ML)
models on decentralized data sources. In order to sustain long-term
participation of data owners, it is important to fairly appraise each data
source and compensate data owners for their contribution to the training
process. The Shapley value (SV) defines a unique payoff scheme that satisfies
many desiderata for a data value notion. It has been increasingly used for
valuing training data in centralized learning. However, computing the SV
requires exhaustively evaluating the model performance on every subset of data
sources, which incurs prohibitive communication cost in the federated setting.
Besides, the canonical SV ignores the order of data sources during training,
which conflicts with the sequential nature of FL. This paper proposes a variant
of the SV amenable to FL, which we call the federated Shapley value. The
federated SV preserves the desirable properties of the canonical SV while it
can be calculated without incurring extra communication cost and is also able
to capture the effect of participation order on data value. We conduct a
thorough empirical study of the federated SV on a range of tasks, including
noisy label detection, adversarial participant detection, and data
summarization on different benchmark datasets, and demonstrate that it can
reflect the real utility of data sources for FL and has the potential to
enhance system robustness, security, and efficiency. We also report and analyze
"failure cases" and hope to stimulate future research.
- Abstract(参考訳): Federated Learning(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
データ所有者の長期参加を維持するためには、各データソースを適切に評価し、トレーニングプロセスへの貢献に対してデータ所有者を補償することが重要である。
shapley value (sv) はデータ値の概念に対する多くのデシデラタを満たす一意なペイオフスキームを定義する。
集中型学習におけるトレーニングデータの評価にますます使われてきた。
しかし、svの計算には、データソースのすべてのサブセットにおけるモデル性能を徹底的に評価する必要がある。
さらに、標準SVは、FLのシーケンシャルな性質と矛盾する訓練中のデータソースの順序を無視している。
本稿では,sv amenable から fl への変種を提案し,これをfederated shapley value と呼ぶ。
連合SVは、余分な通信コストを伴わずに計算可能でありながら、標準SVの望ましい特性を保持し、データ値に対する参加順序の影響を捉えることができる。
我々は,様々なベンチマークデータセット上でのノイズラベル検出,敵対的受像者検出,データ要約など,様々なタスクにおけるフェデレーションSVの徹底的な実証研究を行い,FLのデータソースの実効性を反映し,システムの堅牢性,セキュリティ,効率性を向上する可能性を実証した。
また,「障害事例」を報告・分析し,今後の研究の促進を期待する。
関連論文リスト
- StatAvg: Mitigating Data Heterogeneity in Federated Learning for Intrusion Detection Systems [22.259297167311964]
フェデレートラーニング(FL)は、デバイスが生データを第三者に公開することなく、共同で機械学習(ML)またはディープラーニング(DL)モデルを構築することができる分散学習技術である。
プライバシー保護の性質から、FLはサイバーセキュリティの領域内で侵入検知システム(IDS)を構築するために広く注目を集めている。
FLにおけるローカルクライアントのデータ間で,非独立かつ同一の(非ID)分散機能を緩和する,統計的平均化(StatAvg)と呼ばれる有効な手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T14:41:59Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - Data Valuation and Detections in Federated Learning [4.899818550820576]
フェデレートラーニング(FL)は、生データのプライバシーを維持しながら協調的なモデルトレーニングを可能にする。
このフレームワークの課題は、データの公平かつ効率的な評価であり、FLタスクで高品質なデータを提供するためにクライアントにインセンティブを与えるのに不可欠である。
本稿では,FLタスクにおける事前学習アルゴリズムを使わずに,クライアントのコントリビューションを評価し,関連するデータセットを選択するための新たなプライバシ保護手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T12:01:32Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Federated Learning for Predictive Maintenance and Quality Inspection in
Industrial Applications [0.36855408155998204]
フェデレーション・ラーニング(FL)は、複数の参加者がデータのプライバシと機密性を損なうことなく、機械学習モデルを開発することを可能にする。
FLアグリゲーション法の性能評価を行い,それらを中央および局所的な訓練手法と比較した。
実世界の品質検査環境から新しいフェデレーション学習データセットを導入する。
論文 参考訳(メタデータ) (2023-04-21T16:11:09Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Fair and efficient contribution valuation for vertical federated
learning [49.50442779626123]
フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
論文 参考訳(メタデータ) (2022-01-07T19:57:15Z) - Improving Fairness for Data Valuation in Federated Learning [39.61504568047234]
本稿では,フェデレートされたシャプリー値の公平性を改善するために,フェデレーションされたシャプリー値と呼ばれる新しい尺度を提案する。
この行列は、最適化から概念やツールを活用することにより、ほぼ低ランクであることが穏やかな条件下で示される。
論文 参考訳(メタデータ) (2021-09-19T02:39:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。