論文の概要: Learning Fair Graph Representations with Multi-view Information Bottleneck
- arxiv url: http://arxiv.org/abs/2510.25096v1
- Date: Wed, 29 Oct 2025 02:02:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.980115
- Title: Learning Fair Graph Representations with Multi-view Information Bottleneck
- Title(参考訳): 多視点情報ボトルネックを用いた公正グラフ表現の学習
- Authors: Chuxun Liu, Debo Cheng, Qingfeng Chen, Jiangzhang Gan, Jiuyong Li, Lin Liu,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ノードの特徴と構造にメッセージを渡すことで、リレーショナルデータを排他的に処理する。
多くの公正な方法はバイアスを単一の情報源として扱い、異なる属性や構造効果を無視している。
グラフを特徴、構造、拡散ビューに分解する多視点情報ボトルネックフレームワークであるFairMIBを提案する。
- 参考スコア(独自算出の注目度): 21.193224439158094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) excel on relational data by passing messages over node features and structure, but they can amplify training data biases, propagating discriminatory attributes and structural imbalances into unfair outcomes. Many fairness methods treat bias as a single source, ignoring distinct attribute and structure effects and leading to suboptimal fairness and utility trade-offs. To overcome this challenge, we propose FairMIB, a multi-view information bottleneck framework designed to decompose graphs into feature, structural, and diffusion views for mitigating complexity biases in GNNs. Especially, the proposed FairMIB employs contrastive learning to maximize cross-view mutual information for bias-free representation learning. It further integrates multi-perspective conditional information bottleneck objectives to balance task utility and fairness by minimizing mutual information with sensitive attributes. Additionally, FairMIB introduces an inverse probability-weighted (IPW) adjacency correction in the diffusion view, which reduces the spread of bias propagation during message passing. Experiments on five real-world benchmark datasets demonstrate that FairMIB achieves state-of-the-art performance across both utility and fairness metrics.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノードの特徴と構造にメッセージを渡すことでリレーショナルデータに排他的だが、トレーニングデータのバイアスを増幅し、識別特性を伝播し、構造的不均衡を不当な結果に導くことができる。
多くのフェアネス法はバイアスを単一のソースとして扱い、異なる属性と構造効果を無視し、最適以下のフェアネスと実用上のトレードオフをもたらす。
この課題を解決するために、GNNにおける複雑性バイアスを軽減するために、グラフを特徴、構造、拡散ビューに分解する多視点情報ボトルネックフレームワークであるFairMIBを提案する。
特に,提案するFairMIBでは,バイアスのない表現学習のための相互情報の相互視を最大化するために,コントラスト学習を採用している。
さらに、相互情報と機密属性を最小化することにより、多視点の条件情報ボトルネック目標を統合し、タスクユーティリティと公平性のバランスをとる。
さらに、FairMIBは拡散ビューに逆確率重み付き(IPW)隣接補正を導入し、メッセージパッシング時のバイアス伝搬の拡散を低減する。
5つの実世界のベンチマークデータセットの実験は、FairMIBが実用性と公正性の両方のメトリクスで最先端のパフォーマンスを達成することを示した。
関連論文リスト
- GraphFedMIG: Tackling Class Imbalance in Federated Graph Learning via Mutual Information-Guided Generation [19.1700923188257]
フェデレーショングラフ学習(FGL)は、複数のクライアントがプライベートな分散グラフデータを共有することなく、強力なグラフニューラルネットワークを協調的にトレーニングすることを可能にする。
本稿では,新たなFGLフレームワークであるGraphFedMIGを提案する。
実世界の4つのデータセットについて広範な実験を行い、提案したGraphFedMIGが他のベースラインと比較して優れていることを示す。
論文 参考訳(メタデータ) (2025-08-14T09:16:56Z) - Deep Fair Learning: A Unified Framework for Fine-tuning Representations with Sufficient Networks [8.616743904155419]
本研究では,十分な次元削減と深層学習を統合し,公正かつ情報的表現を構築するフレームワークを提案する。
微調整中に新たなペナルティ項を導入することにより、センシティブな属性と学習された表現との間の条件付き独立性を強制する。
提案手法は, 公平性と実用性とのバランスが良好であり, 最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-04-08T22:24:22Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - FairMILE: Towards an Efficient Framework for Fair Graph Representation
Learning [4.75624470851544]
本稿では,効率的な公正グラフ表現学習の課題について検討し,新しいフレームワークであるFairMILEを提案する。
FairMILEはグラフ表現を効率よく学習できるマルチレベルパラダイムであり、公正さと有効性を保っている。
論文 参考訳(メタデータ) (2022-11-17T22:52:10Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Fair Node Representation Learning via Adaptive Data Augmentation [9.492903649862761]
この研究は、グラフニューラルネットワーク(GNN)を用いて得られるノード表現のバイアス源を理論的に説明する。
この分析に基づいて、本質的なバイアスを低減するために、公正に意識したデータ拡張フレームワークを開発した。
分析と提案手法は,様々なGNN学習機構の公平性を高めるために容易に利用できる。
論文 参考訳(メタデータ) (2022-01-21T05:49:15Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。