論文の概要: FairGT: A Fairness-aware Graph Transformer
- arxiv url: http://arxiv.org/abs/2404.17169v1
- Date: Fri, 26 Apr 2024 05:48:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:04:24.264171
- Title: FairGT: A Fairness-aware Graph Transformer
- Title(参考訳): FairGT: 公正を意識したグラフ変換器
- Authors: Renqiang Luo, Huafei Huang, Shuo Yu, Xiuzhen Zhang, Feng Xia,
- Abstract要約: フェアネスを意識したグラフ変換器であるFairGTを提案する。
FairGTには、細かな構造的特徴選択戦略とマルチホップノード特徴統合手法が組み込まれている。
5つの実世界のデータセットで実施された実証的な評価は、既存のグラフトランスフォーマーやグラフニューラルネットワーク、最先端の公正を意識したグラフ学習アプローチよりも、FairGTの公正度指標の優位性を示している。
- 参考スコア(独自算出の注目度): 10.338939339111912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The design of Graph Transformers (GTs) generally neglects considerations for fairness, resulting in biased outcomes against certain sensitive subgroups. Since GTs encode graph information without relying on message-passing mechanisms, conventional fairness-aware graph learning methods cannot be directly applicable to address these issues. To tackle this challenge, we propose FairGT, a Fairness-aware Graph Transformer explicitly crafted to mitigate fairness concerns inherent in GTs. FairGT incorporates a meticulous structural feature selection strategy and a multi-hop node feature integration method, ensuring independence of sensitive features and bolstering fairness considerations. These fairness-aware graph information encodings seamlessly integrate into the Transformer framework for downstream tasks. We also prove that the proposed fair structural topology encoding with adjacency matrix eigenvector selection and multi-hop integration are theoretically effective. Empirical evaluations conducted across five real-world datasets demonstrate FairGT's superiority in fairness metrics over existing graph transformers, graph neural networks, and state-of-the-art fairness-aware graph learning approaches.
- Abstract(参考訳): グラフ変換器(GT)の設計は、一般に公正性に対する考慮を無視し、特定の敏感な部分群に対してバイアスのある結果をもたらす。
GTはメッセージパッシング機構を頼らずにグラフ情報を符号化するため、従来のフェアネス対応グラフ学習法はこれらの問題に対処するには直接適用できない。
この課題に対処するために、我々は、GTに固有の公正性に関する懸念を軽減するために、明示的に構築されたフェアネス対応グラフ変換器であるFairGTを提案する。
FairGTには、繊細な構造的特徴選択戦略とマルチホップノード機能統合手法が組み込まれており、センシティブな特徴の独立性を確保し、公平性を重視している。
これらのフェアネスを意識したグラフ情報エンコーディングは、下流タスクのためのTransformerフレームワークにシームレスに統合される。
また,隣接行列固有ベクトル選択とマルチホップ積分を用いた公正な構造トポロジ符号化が理論的に有効であることを示す。
5つの実世界のデータセットで実施された実証的な評価は、既存のグラフトランスフォーマーやグラフニューラルネットワーク、最先端の公正を意識したグラフ学習アプローチよりも、FairGTの公正度指標の優位性を示している。
関連論文リスト
- SGFormer: Single-Layer Graph Transformers with Approximation-Free Linear Complexity [74.51827323742506]
グラフ上でのトランスフォーマーにおける多層アテンションの導入の必要性を評価する。
本研究では,一層伝播を一層伝播に還元できることを示す。
これは、グラフ上で強力で効率的なトランスフォーマーを構築するための新しい技術パスを示唆している。
論文 参考訳(メタデータ) (2024-09-13T17:37:34Z) - Reproducibility Study Of Learning Fair Graph Representations Via Automated Data Augmentations [0.0]
リンク予測タスクにおけるGraphairフレームワークの性能について検討する。
我々の発見はグラフベースの学習において、Graphairが広く採用される可能性を示している。
論文 参考訳(メタデータ) (2024-08-31T11:28:22Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Fairness-aware Optimal Graph Filter Design [25.145533328758614]
グラフは、複雑な現実世界の相互接続システムを表現するために使用できる数学的ツールである。
グラフ上の機械学習(ML)は、最近大きな注目を集めている。
グラフ信号処理からの洞察を借りて,グラフ学習におけるバイアス緩和の問題を新たに検討する。
論文 参考訳(メタデータ) (2023-10-22T22:40:40Z) - Fairness-aware Message Passing for Graph Neural Networks [35.36630284275523]
本稿では,新しいフェアネス対応メッセージパッシングフレームワークGMMDを提案する。
GMMDは直感的には、異なるセンシティブなグループから他のノードの表現を集約するようノードに促すことと解釈できる。
提案するフレームワークは,高い精度を維持しつつ,様々なバックボーンGNNモデルの公平性を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-19T19:31:35Z) - FairGen: Towards Fair Graph Generation [76.34239875010381]
フェアネスを考慮したグラフ生成モデルFairGenを提案する。
我々のモデルはラベルインフォームドグラフ生成モジュールと公正表現学習モジュールを共同で訓練する。
Webベースのグラフを含む7つの実世界のデータセットの実験結果は、FairGenが最先端のグラフ生成モデルと同等のパフォーマンスを得ることを示した。
論文 参考訳(メタデータ) (2023-03-30T23:30:42Z) - Fairness-Aware Graph Filter Design [19.886840347109285]
グラフは、複雑な現実世界のシステムを表現するために使用できる数学的ツールである。
グラフ上の機械学習(ML)は、すでに存在するグループに対する偏見を増幅する。
本稿では,グラフに基づく学習タスクに多用できる公正なグラフフィルタを提案する。
論文 参考訳(メタデータ) (2023-03-20T21:31:51Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。