論文の概要: Towards Fair Graph Federated Learning via Incentive Mechanisms
- arxiv url: http://arxiv.org/abs/2312.13306v1
- Date: Wed, 20 Dec 2023 03:27:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-12-22 17:12:24.862303
- Title: Towards Fair Graph Federated Learning via Incentive Mechanisms
- Title(参考訳): インセンティブメカニズムによる公平グラフフェデレーション学習に向けて
- Authors: Chenglu Pan, Jiarong Xu, Yue Yu, Ziqi Yang, Qingbiao Wu, Chunping
Wang, Lei Chen, Yang Yang
- Abstract要約: グラフフェデレーション学習(FL)は、複数のエージェントがローカルデータのプライバシを保持しながら、グラフモデルを協調的にトレーニングできる重要なパラダイムとして登場した。
本論文は,グラフフェデレーション学習のインセンティブメカニズムを研究することで,この問題に対処する最初の試みである。
我々は,グラフフェデレーション学習において,フェデレーションに潜在的な害を及ぼすエージェントの存在と,遅延に寄与するエージェントの存在というユニークな現象を同定する。
これは以前のFLインセンティブ機構とは対照的であり、全てのエージェントが正に、タイムリーに寄与すると考えられている。
- 参考スコア(独自算出の注目度): 26.011162263655745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph federated learning (FL) has emerged as a pivotal paradigm enabling
multiple agents to collaboratively train a graph model while preserving local
data privacy. Yet, current efforts overlook a key issue: agents are
self-interested and would hesitant to share data without fair and satisfactory
incentives. This paper is the first endeavor to address this issue by studying
the incentive mechanism for graph federated learning. We identify a unique
phenomenon in graph federated learning: the presence of agents posing potential
harm to the federation and agents contributing with delays. This stands in
contrast to previous FL incentive mechanisms that assume all agents contribute
positively and in a timely manner. In view of this, this paper presents a novel
incentive mechanism tailored for fair graph federated learning, integrating
incentives derived from both model gradient and payoff. To achieve this, we
first introduce an agent valuation function aimed at quantifying agent
contributions through the introduction of two criteria: gradient alignment and
graph diversity. Moreover, due to the high heterogeneity in graph federated
learning, striking a balance between accuracy and fairness becomes particularly
crucial. We introduce motif prototypes to enhance accuracy, communicated
between the server and agents, enhancing global model aggregation and aiding
agents in local model optimization. Extensive experiments show that our model
achieves the best trade-off between accuracy and the fairness of model
gradient, as well as superior payoff fairness.
- Abstract(参考訳): graph federated learning(fl)は、複数のエージェントがローカルデータのプライバシを維持しながら、グラフモデルを協調的にトレーニングできる重要なパラダイムとして登場した。
エージェントは自己関心があり、公正で満足のいくインセンティブなしでデータを共有することをためらう。
本稿では,グラフフェデレーション学習のインセンティブ機構を研究することで,この問題に取り組む最初の試みである。
グラフフェデレーション学習において,フェデレーションに潜在的害をもたらすエージェントの存在と,遅延に寄与するエージェントの存在という特異な現象を同定する。
これは従来のflインセンティブ機構とは対照的で、すべてのエージェントがポジティブに、タイムリーに貢献していると仮定する。
本稿では,モデル勾配とペイオフの両方から得られるインセンティブを統合することにより,公平なグラフフェデレーション学習に適した新しいインセンティブ機構を提案する。
これを実現するために,まず,勾配アライメントとグラフの多様性という2つの基準を導入することにより,エージェント貢献の定量化を目的としたエージェント評価関数を導入する。
さらに,グラフフェデレーション学習における不均一性が高いことから,精度と公平性のバランスを崩すことが特に重要である。
精度の向上,サーバとエージェント間の通信,グローバルモデルアグリゲーションの強化,ローカルモデル最適化におけるエージェント支援などを目的としたモチーフプロトタイプを提案する。
実験により, 精度とモデル勾配の公平性との最良のトレードオフが達成され, 対価の公平性も向上した。
関連論文リスト
- Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Incentivizing High-quality Participation From Federated Learning Agents [18.5788233321464]
本稿では,不均一なデータを考慮したエージェント参加のためのインセンティブ対応フレームワークを提案する。
ピア予測機構を利用して2つのエージェントの一般化誤差を解析・測定し,スコア関数を開発する。
論文 参考訳(メタデータ) (2025-06-20T03:58:39Z) - DDAE++: Enhancing Diffusion Models Towards Unified Generative and Discriminative Learning [53.27049077100897]
生成前訓練は差別的な表現をもたらし、統一された視覚生成と理解への道を開くことが示されている。
この研究は自己条件付けを導入し、ネットワークに固有のリッチなセマンティクスを内部的に活用し、独自のデコード層をガイドする。
提案手法は、FIDの生成と認識の精度を1%の計算オーバーヘッドで向上させ、多様な拡散アーキテクチャで一般化する。
論文 参考訳(メタデータ) (2025-05-16T08:47:16Z) - Enabling Group Fairness in Graph Unlearning via Bi-level Debiasing [11.879507789144062]
グラフアンラーニングは、トレーニングされたグラフモデルに対するユーザデータの影響を消去することで、ユーザのプライバシを保護するための重要なアプローチである。
グラフアンラーニング手法の最近の進歩は,ユーザ情報を取り除きながら,モデル予測性能の維持に重点を置いている。
プライバシと精度を維持しつつ公正性を確保するために,フェアグラフアンラーニング手法FGUを提案する。
論文 参考訳(メタデータ) (2025-05-14T18:04:02Z) - Toward Fair Graph Neural Networks Via Dual-Teacher Knowledge Distillation [10.253384447622992]
このFairDTDはDual-Teacher Distillation上に構築された新しいFair表現学習フレームワークである。
また,FairDTDは高モデルユーティリティを保ちながら最適な公正性を実現し,その有効性をGNNの公正表現学習で示している。
論文 参考訳(メタデータ) (2024-11-30T07:19:34Z) - Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine
Learning in Healthcare [6.608905791768002]
フェアネス・アウェア・インタプリタブル・モデリング(FAIM)を提案し,性能を損なうことなくモデルフェアネスを改善する。
FAIMは、ハイパフォーマンスモデルのセットから"フェアラー"モデルを識別するためのインタラクティブインターフェースを備えている。
FAIMモデルは, 良好な識別性能を示すだけでなく, 確立された公正度測定値によって測定されたバイアスを著しく軽減することを示した。
論文 参考訳(メタデータ) (2024-03-08T11:51:00Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - CAFIN: Centrality Aware Fairness inducing IN-processing for Unsupervised Representation Learning on Graphs [10.042608422528392]
CAFIN(Centrality-aware Fairness-inducing framework)は、既存のフレームワークが生成した表現を調整するためのフレームワークである。
GraphSAGEにデプロイし、ノード分類とリンク予測という2つの下流タスクで有効性を示します。
論文 参考訳(メタデータ) (2023-04-10T05:40:09Z) - FairGen: Towards Fair Graph Generation [76.34239875010381]
フェアネスを考慮したグラフ生成モデルFairGenを提案する。
我々のモデルはラベルインフォームドグラフ生成モジュールと公正表現学習モジュールを共同で訓練する。
Webベースのグラフを含む7つの実世界のデータセットの実験結果は、FairGenが最先端のグラフ生成モデルと同等のパフォーマンスを得ることを示した。
論文 参考訳(メタデータ) (2023-03-30T23:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Fairness-Aware Node Representation Learning [9.850791193881651]
本研究は,グラフ強化設計によるグラフ対照的学習における公平性問題に対処する。
グラフ上の異なる公平性の概念を導入し、提案されたグラフ拡張のガイドラインとして機能する。
実ソーシャルネットワークにおける実験結果から,提案した拡張により,統計的平等と平等な機会の両面において公平性が向上することを示した。
論文 参考訳(メタデータ) (2021-06-09T21:12:14Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - The KL-Divergence between a Graph Model and its Fair I-Projection as a
Fairness Regularizer [17.660861923996016]
本稿では,ほとんどの確率グラフモデリング手法に適用可能な汎用的なアプローチを提案する。
具体的には、選択された公正度基準に対応するフェアグラフモデルのクラスを最初に定義する。
このフェアネス正規化器を既存のグラフモデリング手法と組み合わせることで、効率よくフェアネスと精度を交換できることを実証する。
論文 参考訳(メタデータ) (2021-03-02T16:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。