論文の概要: FairExpand: Individual Fairness on Graphs with Partial Similarity Information
- arxiv url: http://arxiv.org/abs/2512.18180v1
- Date: Sat, 20 Dec 2025 02:33:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.218
- Title: FairExpand: Individual Fairness on Graphs with Partial Similarity Information
- Title(参考訳): FairExpand: 部分類似情報付きグラフ上の個々の公正性
- Authors: Rebecca Salganik, Yibin Wang, Guillaume Salha-Galvan, Jian Kang,
- Abstract要約: 個人の公正さは、ユーザモデリング、レコメンダシステム、検索などの高度なWeb領域において、実際に重要であるため、グラフ表現学習の牽引役となっている。
より現実的な部分的な情報シナリオにおいて、個人の公正性を促進するフレキシブルなフレームワークであるFairExpandを紹介します。
大規模な実験により、FairExpandはパフォーマンスを維持しながら、個人の公正性を継続的に強化している。
- 参考スコア(独自算出の注目度): 5.592017886897037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Individual fairness, which requires that similar individuals should be treated similarly by algorithmic systems, has become a central principle in fair machine learning. Individual fairness has garnered traction in graph representation learning due to its practical importance in high-stakes Web areas such as user modeling, recommender systems, and search. However, existing methods assume the existence of predefined similarity information over all node pairs, an often unrealistic requirement that prevents their operationalization in practice. In this paper, we assume the similarity information is only available for a limited subset of node pairs and introduce FairExpand, a flexible framework that promotes individual fairness in this more realistic partial information scenario. FairExpand follows a two-step pipeline that alternates between refining node representations using a backbone model (e.g., a graph neural network) and gradually propagating similarity information, which allows fairness enforcement to effectively expand to the entire graph. Extensive experiments show that FairExpand consistently enhances individual fairness while preserving performance, making it a practical solution for enabling graph-based individual fairness in real-world applications with partial similarity information.
- Abstract(参考訳): 個人の公正さは、類似した個人がアルゴリズムシステムによって同様に扱われることを要求するものであり、公正な機械学習において中心的な原則となっている。
個人の公正さは、ユーザモデリング、レコメンダシステム、検索などの高度なWeb領域において、実際に重要であるため、グラフ表現学習の牽引役となっている。
しかし、既存の手法では、すべてのノード対に事前定義された類似性情報が存在すると仮定している。
本稿では,ノードペアの限られたサブセットに対してのみ類似情報が利用できると仮定し,より現実的な部分情報シナリオにおいて,個々の公正性を促進するフレキシブルなフレームワークであるFairExpandを紹介する。
FairExpandは、バックボーンモデル(例えばグラフニューラルネットワーク)を使用してノード表現の精細化と、徐々に類似性情報を伝播する2ステップのパイプラインに従っている。
大規模な実験により、FairExpandはパフォーマンスを保ちながら個体の公正性を一貫して向上し、部分的な類似性情報を持つ実世界のアプリケーションでグラフベースの個体の公正性を実現するための実用的なソリューションであることが示された。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Graph Learning with Localized Neighborhood Fairness [32.301270877134]
近所のフェアネスの概念を導入し、そのような局所的なフェア埋め込みを学習するための計算フレームワークを開発する。
本稿では,フェアリンク予測,リンク分類,学習フェアグラフ埋め込みなど,さまざまなグラフ機械学習タスクに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-12-22T21:20:43Z) - FairMILE: Towards an Efficient Framework for Fair Graph Representation
Learning [4.75624470851544]
本稿では,効率的な公正グラフ表現学習の課題について検討し,新しいフレームワークであるFairMILEを提案する。
FairMILEはグラフ表現を効率よく学習できるマルチレベルパラダイムであり、公正さと有効性を保っている。
論文 参考訳(メタデータ) (2022-11-17T22:52:10Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - SoFaiR: Single Shot Fair Representation Learning [24.305894478899948]
SoFaiRは、フェアネス情報平面上の多くの点を訓練した1つのモデルで生成する単発フェア表現学習法である。
私たちは、SoFaiRがマルチショットと同じような公正な情報交換を達成している3つのデータセットを見つけました。
論文 参考訳(メタデータ) (2022-04-26T19:31:30Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Latent Space Smoothing for Individually Fair Representations [12.739528232133495]
本稿では,高次元データの個々人の公正性を証明するための最初の表現学習手法LASSIを紹介する。
我々の重要な洞察は、生成的モデリングの最近の進歩を活用して、生成的潜在空間における類似した個人の集合を捉えることである。
ランダムな平滑化を用いて、類似した個人を密にマッピングし、ダウンストリームアプリケーションの局所ロバスト性検証がエンドツーエンドの公正性認証をもたらすことを保証します。
論文 参考訳(メタデータ) (2021-11-26T18:22:42Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。