論文の概要: Incentivizing High-quality Participation From Federated Learning Agents
- arxiv url: http://arxiv.org/abs/2506.16731v1
- Date: Fri, 20 Jun 2025 03:58:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.330085
- Title: Incentivizing High-quality Participation From Federated Learning Agents
- Title(参考訳): フェデレーション学習エージェントによる高品質参加のインセンティブ
- Authors: Jinlong Pang, Jiaheng Wei, Yifan Hua, Chen Qian, Yang Liu,
- Abstract要約: 本稿では,不均一なデータを考慮したエージェント参加のためのインセンティブ対応フレームワークを提案する。
ピア予測機構を利用して2つのエージェントの一般化誤差を解析・測定し,スコア関数を開発する。
- 参考スコア(独自算出の注目度): 18.5788233321464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) provides a promising paradigm for facilitating collaboration between multiple clients that jointly learn a global model without directly sharing their local data. However, existing research suffers from two caveats: 1) From the perspective of agents, voluntary and unselfish participation is often assumed. But self-interested agents may opt out of the system or provide low-quality contributions without proper incentives; 2) From the mechanism designer's perspective, the aggregated models can be unsatisfactory as the existing game-theoretical federated learning approach for data collection ignores the potential heterogeneous effort caused by contributed data. To alleviate above challenges, we propose an incentive-aware framework for agent participation that considers data heterogeneity to accelerate the convergence process. Specifically, we first introduce the notion of Wasserstein distance to explicitly illustrate the heterogeneous effort and reformulate the existing upper bound of convergence. To induce truthful reporting from agents, we analyze and measure the generalization error gap of any two agents by leveraging the peer prediction mechanism to develop score functions. We further present a two-stage Stackelberg game model that formalizes the process and examines the existence of equilibrium. Extensive experiments on real-world datasets demonstrate the effectiveness of our proposed mechanism.
- Abstract(参考訳): フェデレートラーニング(FL)は、ローカルデータを直接共有することなく、グローバルモデルを共同で学習する複数のクライアント間のコラボレーションを促進する、有望なパラダイムを提供する。
しかし、既存の研究は2つの欠点に悩まされている。
1)エージェントの観点からは、自発的かつ非私的参加がしばしば想定される。
しかし、自己関心のエージェントは、システムからオプトアウトしたり、適切なインセンティブなしで品質の低いコントリビューションを提供することができる。
2) 機構設計者の視点からは,データ収集のための既存のゲーム理論的フェデレーション学習アプローチは,貢献データによる潜在的不均一な取り組みを無視しているため,集約モデルは満足できない。
以上の課題を解決するため,データの不均一性を考慮し,収束プロセスの高速化を図るエージェント参加のためのインセンティブ対応フレームワークを提案する。
具体的には、まずワッサーシュタイン距離の概念を導入し、不均一な取り組みを明確に説明し、既存の収束の上限を再構成する。
エージェントからの真偽の報告を誘導するために,ピア予測機構を利用して2つのエージェントの一般化誤差を解析・測定し,スコア関数を開発する。
さらに、プロセスを形式化し、平衡の存在を検証する2段階のスタックルバーグゲームモデルを提案する。
実世界のデータセットに対する大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- Representation Retrieval Learning for Heterogeneous Data Integration [6.332807035771891]
Representation Retrieval(R2$)フレームワークを提案する。このフレームワークは表現学習モジュール(表現器)と疎性誘導機械学習モデル(学習器)を統合している。
我々は,マルチタスク学習における従来の完全共有仮定を緩和し,部分的共有構造を実現し,SIPが過剰リスク境界の収束率を向上させることを示す。
論文 参考訳(メタデータ) (2025-03-12T15:54:37Z) - Robust Training of Federated Models with Extremely Label Deficiency [84.00832527512148]
フェデレーション半教師付き学習(FSSL)は、ラベル不足を伴う分散データを用いて機械学習モデルを協調訓練するための強力なパラダイムとして登場した。
我々は,ラベル付きおよびラベルなしデータの異なる視点から洞察を提供することにより相互指導を強化するために,ツインサイトと呼ばれる新しいツインモデルパラダイムを提案する。
4つのベンチマークデータセットに関する包括的な実験は、Twin-sightが様々な実験環境において最先端の手法を著しく上回っていることを示す重要な証拠となる。
論文 参考訳(メタデータ) (2024-02-22T10:19:34Z) - Towards Fair Graph Federated Learning via Incentive Mechanisms [26.011162263655745]
グラフフェデレーション学習(FL)は、複数のエージェントがローカルデータのプライバシを保持しながら、グラフモデルを協調的にトレーニングできる重要なパラダイムとして登場した。
本論文は,グラフフェデレーション学習のインセンティブメカニズムを研究することで,この問題に対処する最初の試みである。
我々は,グラフフェデレーション学習において,フェデレーションに潜在的な害を及ぼすエージェントの存在と,遅延に寄与するエージェントの存在というユニークな現象を同定する。
これは以前のFLインセンティブ機構とは対照的であり、全てのエージェントが正に、タイムリーに寄与すると考えられている。
論文 参考訳(メタデータ) (2023-12-20T03:27:55Z) - Every Parameter Matters: Ensuring the Convergence of Federated Learning
with Dynamic Heterogeneous Models Reduction [22.567754688492414]
クロスデバイス・フェデレーション・ラーニング(FL)は、ユニークなコントリビューションを行う可能性のあるローエンドのクライアントが、リソースのボトルネックのため、大規模なモデルのトレーニングから除外されるという、大きな課題に直面します。
近年,グローバルモデルから縮小サイズのモデルを抽出し,それに応じてローカルクライアントに適用することによって,モデル不均一FLに焦点を当てている。
本稿では,オンラインモデル抽出を用いた不均一FLアルゴリズムの一元化フレームワークを提案し,一般収束解析を初めて提供する。
論文 参考訳(メタデータ) (2023-10-12T19:07:58Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。