論文の概要: FairGP: A Scalable and Fair Graph Transformer Using Graph Partitioning
- arxiv url: http://arxiv.org/abs/2412.10669v1
- Date: Sat, 14 Dec 2024 04:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:01:26.267469
- Title: FairGP: A Scalable and Fair Graph Transformer Using Graph Partitioning
- Title(参考訳): FairGP: グラフ分割を用いたスケーラブルで公正なグラフ変換器
- Authors: Renqiang Luo, Huafei Huang, Ivan Lee, Chengpei Xu, Jianzhong Qi, Feng Xia,
- Abstract要約: 近年の研究では、グラフトランスフォーマー(GT)モデルにおいて、重要な公平性の問題が浮き彫りになっている。
GTは計算集約的でメモリオンデマンドであり、大規模グラフに制限される。
本稿では,高次ノードの負の影響を最小限に抑えるためにグラフを分割するグラフ分割(FairGP)を提案する。
- 参考スコア(独自算出の注目度): 15.383535436798065
- License:
- Abstract: Recent studies have highlighted significant fairness issues in Graph Transformer (GT) models, particularly against subgroups defined by sensitive features. Additionally, GTs are computationally intensive and memory-demanding, limiting their application to large-scale graphs. Our experiments demonstrate that graph partitioning can enhance the fairness of GT models while reducing computational complexity. To understand this improvement, we conducted a theoretical investigation into the root causes of fairness issues in GT models. We found that the sensitive features of higher-order nodes disproportionately influence lower-order nodes, resulting in sensitive feature bias. We propose Fairness-aware scalable GT based on Graph Partitioning (FairGP), which partitions the graph to minimize the negative impact of higher-order nodes. By optimizing attention mechanisms, FairGP mitigates the bias introduced by global attention, thereby enhancing fairness. Extensive empirical evaluations on six real-world datasets validate the superior performance of FairGP in achieving fairness compared to state-of-the-art methods. The codes are available at https://github.com/LuoRenqiang/FairGP.
- Abstract(参考訳): 近年の研究では、グラフトランスフォーマー(GT)モデルにおける重要な公平性の問題、特に機密性のある特徴によって定義されたサブグループに焦点が当てられている。
さらに、GTは計算集約的でメモリオンデマンドであり、そのアプリケーションを大規模グラフに制限する。
実験により,グラフ分割は計算複雑性を低減しつつ,GTモデルの公平性を向上することを示した。
この改善を理解するため、GTモデルにおける公平性問題の根本原因に関する理論的研究を行った。
その結果,高次ノードの感度特性が低次ノードに不均等に影響を与え,感度特性バイアスが生じることがわかった。
グラフ分割(FairGP)に基づいて,高次ノードの負の影響を最小限に抑えるため,グラフを分割するフェアネス対応スケーラブルGTを提案する。
注意機構を最適化することにより、FairGPは世界的注目によってもたらされるバイアスを緩和し、公正性を高める。
実世界の6つのデータセットに対する大規模な実験的評価は、最先端の手法と比較して、フェアネスを達成する上でのFairGPの優れた性能を評価する。
コードはhttps://github.com/LuoRenqiang/FairGPで公開されている。
関連論文リスト
- FairGT: A Fairness-aware Graph Transformer [10.338939339111912]
フェアネスを意識したグラフ変換器であるFairGTを提案する。
FairGTには、細かな構造的特徴選択戦略とマルチホップノード特徴統合手法が組み込まれている。
5つの実世界のデータセットで実施された実証的な評価は、既存のグラフトランスフォーマーやグラフニューラルネットワーク、最先端の公正を意識したグラフ学習アプローチよりも、FairGTの公正度指標の優位性を示している。
論文 参考訳(メタデータ) (2024-04-26T05:48:59Z) - Gradformer: Graph Transformer with Exponential Decay [69.50738015412189]
グラフ変換器(GT)の自己保持機構は、グラフの帰納バイアス、特に構造に関するバイアスを見落としている。
本稿では,GTと本質的帰納バイアスを革新的に統合するGradformerを提案する。
GradformerはグラフニューラルネットワークやGTベースラインモデルよりも、さまざまなグラフ分類や回帰タスクにおいて一貫して優れています。
論文 参考訳(メタデータ) (2024-04-24T08:37:13Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Exploring Sparsity in Graph Transformers [67.48149404841925]
グラフ変換器(GT)は、様々なグラフ関連タスクにおいて印象的な結果を得た。
しかし、GTsの膨大な計算コストは、特に資源制約のある環境でのデプロイメントと応用を妨げる。
我々は、GTの計算複雑性を低減するのに役立つ、包括的な textbfGraph textbfTransformer textbfSParsification (GTSP) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-09T06:21:44Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。