論文の概要: DPVS-Shapley:Faster and Universal Contribution Evaluation Component in Federated Learning
- arxiv url: http://arxiv.org/abs/2410.15093v1
- Date: Sat, 19 Oct 2024 13:01:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:21:37.283093
- Title: DPVS-Shapley:Faster and Universal Contribution Evaluation Component in Federated Learning
- Title(参考訳): DPVS-Shapley:フェデレートラーニングにおける役割とユニバーサルコントリビューション評価要素
- Authors: Ketin Yin, Zonghao Guo, ZhengHan Qin,
- Abstract要約: 動的Pruning Validation Set Shapley (DPVS-Shapley) というコンポーネントを導入する。
本手法は, 評価精度を損なうことなく, 元のデータセットを動的に刈り取ることにより, コントリビューション評価プロセスの高速化を図る。
- 参考スコア(独自算出の注目度): 1.740992908651449
- License:
- Abstract: In the current era of artificial intelligence, federated learning has emerged as a novel approach to addressing data privacy concerns inherent in centralized learning paradigms. This decentralized learning model not only mitigates the risk of data breaches but also enhances the system's scalability and robustness. However, this approach introduces a new challenge: how to fairly and accurately assess the contribution of each participant. Developing an effective contribution evaluation mechanism is crucial for federated learning. Such a mechanism incentivizes participants to actively contribute their data and computational resources, thereby improving the overall performance of the federated learning system. By allocating resources and rewards based on the size of the contributions, it ensures that each participant receives fair treatment, fostering sustained engagement.Currently, Shapley value-based methods are widely used to evaluate participants' contributions, with many researchers proposing modifications to adapt these methods to real-world scenarios. In this paper, we introduce a component called Dynamic Pruning Validation Set Shapley (DPVS-Shapley). This method accelerates the contribution assessment process by dynamically pruning the original dataset without compromising the evaluation's accuracy. Furthermore, this component can assign different weights to various samples, thereby allowing clients capable of distinguishing difficult examples to receive higher contribution scores.
- Abstract(参考訳): 人工知能の時代、中央集権的な学習パラダイムに固有のデータプライバシー問題に対処するための新しいアプローチとして、フェデレーション付き学習が登場した。
この分散学習モデルは、データ漏洩のリスクを軽減するだけでなく、システムのスケーラビリティと堅牢性を高める。
しかし、このアプローチでは、各参加者の貢献を正確に正確に評価する方法という、新しい課題がもたらされる。
効果的な貢献評価メカニズムの開発は、連合学習に不可欠である。
このようなメカニズムにより参加者はデータや計算資源を積極的に貢献し、連合学習システム全体の性能を向上させることができる。
コントリビューションの規模に応じて資源や報酬を割り当てることで、各参加者が公平な治療を受け、持続的なエンゲージメントを促進することを保証する。
本稿では,動的Pruning Validation Set Shapley (DPVS-Shapley) というコンポーネントを紹介する。
本手法は, 評価精度を損なうことなく, 元のデータセットを動的に刈り取ることにより, コントリビューション評価プロセスの高速化を図る。
さらに、このコンポーネントは様々なサンプルに異なる重みを割り当てることができるため、難しいサンプルを識別できるクライアントがより高いコントリビューションスコアを受け取ることができる。
関連論文リスト
- Contribution Evaluation of Heterogeneous Participants in Federated Learning via Prototypical Representations [18.73128175231337]
フェデレートラーニング(FL)における貢献評価は,様々な領域にまたがる適用性から重要な研究領域となっている。
既存のコントリビューション評価手法は、主にデータボリューム、モデル類似性、補助的なテストデータセットに依存しており、様々なシナリオで成功している。
本稿では、FLにおけるコントリビューション評価を、全く新しい表現の観点から検討する。
論文 参考訳(メタデータ) (2024-07-02T09:05:43Z) - Redefining Contributions: Shapley-Driven Federated Learning [3.9539878659683363]
フェデレーテッド・ラーニング(FL)は、機械学習において重要なアプローチとして登場した。
参加者が平等に、あるいは正直に貢献しない場合、グローバルなモデル収束を保証することは困難です。
本稿では,FLにおけるコントリビューションの詳細な評価のために,ShapFedと呼ばれる新しいコントリビューションアセスメントアセスメント手法を提案する。
論文 参考訳(メタデータ) (2024-06-01T22:40:31Z) - Mitigating federated learning contribution allocation instability through randomized aggregation [1.827018440608344]
Federated Learning(FL)は、堅牢なモデルの作成を可能にしながら、プライバシを保護するように設計された、新しいコラボレーティブ機械学習フレームワークである。
本稿では, 参加型グローバルモデルの作成に対する, 様々な参加者からの貢献の公正かつ正確な貢献について検討する。
我々は、より公平で分散した方法でコントリビューションをサンプリングするために設計されたFedRandomを紹介します。
論文 参考訳(メタデータ) (2024-05-13T13:55:34Z) - Evaluating and Incentivizing Diverse Data Contributions in Collaborative
Learning [89.21177894013225]
フェデレートされた学習モデルがうまく機能するためには、多様で代表的なデータセットを持つことが不可欠である。
データの多様性を定量化するために用いられる統計的基準と、使用するフェデレート学習アルゴリズムの選択が、結果の平衡に有意な影響を及ぼすことを示す。
我々はこれを活用して、データ収集者がグローバルな人口を代表するデータに貢献することを奨励する、シンプルな最適なフェデレーション学習機構を設計する。
論文 参考訳(メタデータ) (2023-06-08T23:38:25Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Deep Unfolding-based Weighted Averaging for Federated Learning in
Heterogeneous Environments [11.023081396326507]
フェデレートラーニング(Federated Learning)は、複数のクライアントによるモデル更新と、中央サーバによるアップデートの集約を反復する、協調的なモデルトレーニング手法である。
そこで本研究では, パラメータ調整法として, 深部展開法(deep unfolding)を用いる。
提案手法は,実世界の現実的なタスクを遂行できるような事前学習モデルを用いて,大規模学習モデルを扱うことができる。
論文 参考訳(メタデータ) (2022-12-23T08:20:37Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Transparent Contribution Evaluation for Secure Federated Learning on
Blockchain [10.920274650337559]
ブロックチェーンベースのフェデレーション学習フレームワークと、各参加者のコントリビューションを透過的に評価するプロトコルを提案します。
本フレームワークは,モデル構築フレーズにおけるすべての当事者のプライバシを保護し,モデル更新に基づくコントリビューションを透過的に評価する。
論文 参考訳(メタデータ) (2021-01-26T05:49:59Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。