論文の概要: Data Valuation and Detections in Federated Learning
- arxiv url: http://arxiv.org/abs/2311.05304v1
- Date: Thu, 9 Nov 2023 12:01:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 15:29:40.942265
- Title: Data Valuation and Detections in Federated Learning
- Title(参考訳): フェデレーション学習におけるデータ評価と検出
- Authors: Wenqian Li, Shuran Fu, Fengrui Zhang, Yan Pang
- Abstract要約: Federated Learning (FL)は、生データを共有せずに協調的なモデルトレーニングを可能にする。
公正で効率的なデータ評価は、より高品質なデータを提供するクライアントにインセンティブを与えるための根本的な問題である。
本稿では,クライアントのコントリビューションを評価し,関連するデータサンプルを選択するための新しいプライバシ保護手法を提案する。
- 参考スコア(独自算出の注目度): 5.3526997662068085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training without sharing
raw data, demanding abundant, high-quality data for optimal model performance.
Fair and efficient data evaluation is a fundamental issue for incentivizing
clients to provide more high-quality data. Meanwhile, it is likely that only a
subset of clients and datasets are relevant for a learning task while the rest
of them may have a negative impact on the model training. This paper introduces
a novel privacy-preserving method for evaluating client contributions and
selecting relevant data samples without a pre-specified training algorithm. Our
proposed approach, FedBary, utilizes Wasserstein distance within the federated
context, offering a new pioneering solution for data valuation, which provides
transparent data evaluation and efficient computation of Wasserstein barycenter
to mitigate reliance on validation data. We conduct extensive empirical
experiments and theoretical analysis, showing the promising research of this
valuation metric.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にし、最適なモデルパフォーマンスのために豊富な高品質なデータを要求する。
公正で効率的なデータ評価は、より高品質なデータを提供するクライアントにインセンティブを与えるための根本的な問題である。
一方、学習タスクには、クライアントとデータセットのサブセットのみが関係している可能性が高いが、残りの部分は、モデルのトレーニングに悪影響を及ぼす可能性がある。
本稿では,事前のトレーニングアルゴリズムを使わずに,クライアントの貢献度を評価し,関連するデータサンプルを選択するプライバシ保存手法を提案する。
提案手法であるFedBaryは,データ評価のための新たな先駆的ソリューションを提供し,検証データへの依存を軽減するために,Wasserstein Barycenterの透過的なデータ評価と効率的な計算を提供する。
我々は、この評価基準の有望な研究を示す広範な実証実験と理論的分析を行う。
関連論文リスト
- FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - StatAvg: Mitigating Data Heterogeneity in Federated Learning for Intrusion Detection Systems [22.259297167311964]
フェデレートラーニング(FL)は、デバイスが生データを第三者に公開することなく、共同で機械学習(ML)またはディープラーニング(DL)モデルを構築することができる分散学習技術である。
プライバシー保護の性質から、FLはサイバーセキュリティの領域内で侵入検知システム(IDS)を構築するために広く注目を集めている。
FLにおけるローカルクライアントのデータ間で,非独立かつ同一の(非ID)分散機能を緩和する,統計的平均化(StatAvg)と呼ばれる有効な手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T14:41:59Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Data Valuation for Vertical Federated Learning: A Model-free and
Privacy-preserving Method [14.451118953357605]
FedValueは、VFL(Vertical Federated Learning)のためのプライバシ保護、タスク固有、モデルフリーなデータ評価手法である。
まず,機械学習モデルを実行する必要なく,予測分析タスクへのデータパーティの貢献を評価する。
次に、プライバシ保存方式で各データパーティのMShapley-CMI値を算出する革新的なフェデレーション手法を開発する。
論文 参考訳(メタデータ) (2021-12-15T02:42:28Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Semi-Supervised Federated Learning with non-IID Data: Algorithm and
System Design [42.63120623012093]
フェデレートラーニング(FL)は、エッジデバイス(またはクライアント)がデータをローカルに保持し、同時に共有グローバルモデルをトレーニングすることを可能にする。
クライアントのローカルトレーニングデータの分布は、非独立に均等に分散されている(非IID)
本稿では、FLにおけるデータ可用性と非IIDの問題を解決することを目的とした、堅牢な半教師付きFLシステム設計を提案する。
論文 参考訳(メタデータ) (2021-10-26T03:41:48Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。