論文の概要: Towards Fair Graph Federated Learning via Incentive Mechanisms
- arxiv url: http://arxiv.org/abs/2312.13306v1
- Date: Wed, 20 Dec 2023 03:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 17:12:24.862303
- Title: Towards Fair Graph Federated Learning via Incentive Mechanisms
- Title(参考訳): インセンティブメカニズムによる公平グラフフェデレーション学習に向けて
- Authors: Chenglu Pan, Jiarong Xu, Yue Yu, Ziqi Yang, Qingbiao Wu, Chunping
Wang, Lei Chen, Yang Yang
- Abstract要約: グラフフェデレーション学習(FL)は、複数のエージェントがローカルデータのプライバシを保持しながら、グラフモデルを協調的にトレーニングできる重要なパラダイムとして登場した。
本論文は,グラフフェデレーション学習のインセンティブメカニズムを研究することで,この問題に対処する最初の試みである。
我々は,グラフフェデレーション学習において,フェデレーションに潜在的な害を及ぼすエージェントの存在と,遅延に寄与するエージェントの存在というユニークな現象を同定する。
これは以前のFLインセンティブ機構とは対照的であり、全てのエージェントが正に、タイムリーに寄与すると考えられている。
- 参考スコア(独自算出の注目度): 26.011162263655745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph federated learning (FL) has emerged as a pivotal paradigm enabling
multiple agents to collaboratively train a graph model while preserving local
data privacy. Yet, current efforts overlook a key issue: agents are
self-interested and would hesitant to share data without fair and satisfactory
incentives. This paper is the first endeavor to address this issue by studying
the incentive mechanism for graph federated learning. We identify a unique
phenomenon in graph federated learning: the presence of agents posing potential
harm to the federation and agents contributing with delays. This stands in
contrast to previous FL incentive mechanisms that assume all agents contribute
positively and in a timely manner. In view of this, this paper presents a novel
incentive mechanism tailored for fair graph federated learning, integrating
incentives derived from both model gradient and payoff. To achieve this, we
first introduce an agent valuation function aimed at quantifying agent
contributions through the introduction of two criteria: gradient alignment and
graph diversity. Moreover, due to the high heterogeneity in graph federated
learning, striking a balance between accuracy and fairness becomes particularly
crucial. We introduce motif prototypes to enhance accuracy, communicated
between the server and agents, enhancing global model aggregation and aiding
agents in local model optimization. Extensive experiments show that our model
achieves the best trade-off between accuracy and the fairness of model
gradient, as well as superior payoff fairness.
- Abstract(参考訳): graph federated learning(fl)は、複数のエージェントがローカルデータのプライバシを維持しながら、グラフモデルを協調的にトレーニングできる重要なパラダイムとして登場した。
エージェントは自己関心があり、公正で満足のいくインセンティブなしでデータを共有することをためらう。
本稿では,グラフフェデレーション学習のインセンティブ機構を研究することで,この問題に取り組む最初の試みである。
グラフフェデレーション学習において,フェデレーションに潜在的害をもたらすエージェントの存在と,遅延に寄与するエージェントの存在という特異な現象を同定する。
これは従来のflインセンティブ機構とは対照的で、すべてのエージェントがポジティブに、タイムリーに貢献していると仮定する。
本稿では,モデル勾配とペイオフの両方から得られるインセンティブを統合することにより,公平なグラフフェデレーション学習に適した新しいインセンティブ機構を提案する。
これを実現するために,まず,勾配アライメントとグラフの多様性という2つの基準を導入することにより,エージェント貢献の定量化を目的としたエージェント評価関数を導入する。
さらに,グラフフェデレーション学習における不均一性が高いことから,精度と公平性のバランスを崩すことが特に重要である。
精度の向上,サーバとエージェント間の通信,グローバルモデルアグリゲーションの強化,ローカルモデル最適化におけるエージェント支援などを目的としたモチーフプロトタイプを提案する。
実験により, 精度とモデル勾配の公平性との最良のトレードオフが達成され, 対価の公平性も向上した。
関連論文リスト
- Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine
Learning in Healthcare [6.608905791768002]
フェアネス・アウェア・インタプリタブル・モデリング(FAIM)を提案し,性能を損なうことなくモデルフェアネスを改善する。
FAIMは、ハイパフォーマンスモデルのセットから"フェアラー"モデルを識別するためのインタラクティブインターフェースを備えている。
FAIMモデルは, 良好な識別性能を示すだけでなく, 確立された公正度測定値によって測定されたバイアスを著しく軽減することを示した。
論文 参考訳(メタデータ) (2024-03-08T11:51:00Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - CAFIN: Centrality Aware Fairness inducing IN-processing for Unsupervised Representation Learning on Graphs [10.042608422528392]
CAFIN(Centrality-aware Fairness-inducing framework)は、既存のフレームワークが生成した表現を調整するためのフレームワークである。
GraphSAGEにデプロイし、ノード分類とリンク予測という2つの下流タスクで有効性を示します。
論文 参考訳(メタデータ) (2023-04-10T05:40:09Z) - FairGen: Towards Fair Graph Generation [76.34239875010381]
フェアネスを考慮したグラフ生成モデルFairGenを提案する。
我々のモデルはラベルインフォームドグラフ生成モジュールと公正表現学習モジュールを共同で訓練する。
Webベースのグラフを含む7つの実世界のデータセットの実験結果は、FairGenが最先端のグラフ生成モデルと同等のパフォーマンスを得ることを示した。
論文 参考訳(メタデータ) (2023-03-30T23:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Fairness-Aware Node Representation Learning [9.850791193881651]
本研究は,グラフ強化設計によるグラフ対照的学習における公平性問題に対処する。
グラフ上の異なる公平性の概念を導入し、提案されたグラフ拡張のガイドラインとして機能する。
実ソーシャルネットワークにおける実験結果から,提案した拡張により,統計的平等と平等な機会の両面において公平性が向上することを示した。
論文 参考訳(メタデータ) (2021-06-09T21:12:14Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - The KL-Divergence between a Graph Model and its Fair I-Projection as a
Fairness Regularizer [17.660861923996016]
本稿では,ほとんどの確率グラフモデリング手法に適用可能な汎用的なアプローチを提案する。
具体的には、選択された公正度基準に対応するフェアグラフモデルのクラスを最初に定義する。
このフェアネス正規化器を既存のグラフモデリング手法と組み合わせることで、効率よくフェアネスと精度を交換できることを実証する。
論文 参考訳(メタデータ) (2021-03-02T16:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。