論文の概要: Incentivize Contribution and Learn Parameters Too: Federated Learning with Strategic Data Owners
- arxiv url: http://arxiv.org/abs/2505.12010v2
- Date: Thu, 19 Jun 2025 14:06:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 14:57:51.890023
- Title: Incentivize Contribution and Learn Parameters Too: Federated Learning with Strategic Data Owners
- Title(参考訳): コントリビューションと学習パラメータのインセンティブ化:戦略的データ所有者によるフェデレーション学習
- Authors: Drashthi Doshi, Aditya Vema Reddy Kesari, Swaprava Nath, Avishek Ghosh, Suhas S Kowshik,
- Abstract要約: 本稿は、貢献の合理性の問題に対処し、現存する文献と区別する。
本稿では、予算バランスが取れ、最適なパラメータ学習とともに完全なデータ貢献を可能にする第2のメカニズムを提案する。
実(フェデレートされた)データセット(CIFAR-10、FeMNIST、Twitter)による大規模な実験は、これらのアルゴリズムが実際に非常に高速に収束し、良好な福祉保証が得られ、すべてのエージェントのモデルパフォーマンスが向上していることを示している。
- 参考スコア(独自算出の注目度): 9.233276342400485
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Classical federated learning (FL) assumes that the clients have a limited amount of noisy data with which they voluntarily participate and contribute towards learning a global, more accurate model in a principled manner. The learning happens in a distributed fashion without sharing the data with the center. However, these methods do not consider the incentive of an agent for participating and contributing to the process, given that data collection and running a distributed algorithm is costly for the clients. The question of rationality of contribution has been asked recently in the literature and some results exist that consider this problem. This paper addresses the question of simultaneous parameter learning and incentivizing contribution, which distinguishes it from the extant literature. Our first mechanism incentivizes each client to contribute to the FL process at a Nash equilibrium and simultaneously learn the model parameters. However, this equilibrium outcome can be away from the optimal, where clients contribute with their full data and the algorithm learns the optimal parameters. We propose a second mechanism with monetary transfers that is budget balanced and enables the full data contribution along with optimal parameter learning. Large scale experiments with real (federated) datasets (CIFAR-10, FeMNIST, and Twitter) show that these algorithms converge quite fast in practice, yield good welfare guarantees, and better model performance for all agents.
- Abstract(参考訳): 古典的連合学習(FL)は、クライアントが自発的に参加し、原則化された方法でグローバルでより正確なモデルを学ぶために貢献する、限られた量のノイズのあるデータを持っていると仮定する。
学習は、データをセンターと共有することなく、分散形式で行われる。
しかし、これらの手法は、分散アルゴリズムの収集と実行がクライアントにとってコストがかかることを考慮すれば、プロセスに参加し、貢献するためのエージェントのインセンティブを考慮しない。
近年, コントリビューションの合理性に関する疑問が文献で提起され, この問題を考察する結果がいくつか存在する。
本稿では,既存の文献と区別する,同時パラメータ学習とインセンティブ付与の課題に対処する。
最初のメカニズムは、各クライアントがNash平衡でFLプロセスに貢献し、同時にモデルパラメータを学習するためのインセンティブを与えます。
しかし、この平衡結果は、クライアントが全データに貢献し、アルゴリズムが最適なパラメータを学習する最適な結果から遠ざかることができる。
本稿では、予算バランスが取れ、最適なパラメータ学習とともに完全なデータ貢献を可能にする第2のメカニズムを提案する。
実(フェデレートされた)データセット(CIFAR-10、FeMNIST、Twitter)による大規模な実験は、これらのアルゴリズムが実際に非常に高速に収束し、良好な福祉保証が得られ、すべてのエージェントのモデルパフォーマンスが向上していることを示している。
関連論文リスト
- FedReMa: Improving Personalized Federated Learning via Leveraging the Most Relevant Clients [13.98392319567057]
Federated Learning (FL) は分散機械学習のパラダイムであり、分散計算と周期モデル合成によってグローバルに堅牢なモデルを実現する。
広く採用されているにもかかわらず、既存のFLとPFLの作業は、クラス不均衡の問題に包括的に対処していない。
本稿では,適応型クライアント間コラーニング手法を用いて,クラス不均衡に対処できる効率的なPFLアルゴリズムであるFedReMaを提案する。
論文 参考訳(メタデータ) (2024-11-04T05:44:28Z) - ConDa: Fast Federated Unlearning with Contribution Dampening [46.074452659791575]
ConDaは、各クライアントのグローバルモデルに影響を与えるパラメータを追跡することによって、効率的なアンラーニングを実行するフレームワークである。
複数のデータセットで実験を行い、ConDaがクライアントのデータを忘れるのが効果的であることを実証する。
論文 参考訳(メタデータ) (2024-10-05T12:45:35Z) - A Resource-Adaptive Approach for Federated Learning under Resource-Constrained Environments [22.038826059430242]
本稿では,不均一な制約リソースを持つ複数のクライアントを対象とする,基礎的連合学習(FL)問題について検討する。
資源適応型非同期フェデレーション学習アルゴリズムであるFed-RAAを提案する。
論文 参考訳(メタデータ) (2024-06-19T08:55:40Z) - IMFL-AIGC: Incentive Mechanism Design for Federated Learning Empowered by Artificial Intelligence Generated Content [15.620004060097155]
フェデレートラーニング(FL)は、クライアントがローカルデータをアップロードすることなく、共有グローバルモデルを協調的にトレーニングできる、有望なパラダイムとして登場した。
顧客参加を促すため,データ品質を考慮したインセンティブ機構を提案する。
提案したメカニズムは,トレーニングの精度が高く,実世界のデータセットによるサーバコストの最大53.34%を削減できる。
論文 参考訳(メタデータ) (2024-06-12T07:47:22Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。