論文の概要: The KL-Divergence between a Graph Model and its Fair I-Projection as a
Fairness Regularizer
- arxiv url: http://arxiv.org/abs/2103.01846v1
- Date: Tue, 2 Mar 2021 16:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:13:37.797132
- Title: The KL-Divergence between a Graph Model and its Fair I-Projection as a
Fairness Regularizer
- Title(参考訳): グラフモデルと公平性正規化としてのフェアI-プロジェクションのKL分散
- Authors: Maarten Buyl, Tijl De Bie
- Abstract要約: 本稿では,ほとんどの確率グラフモデリング手法に適用可能な汎用的なアプローチを提案する。
具体的には、選択された公正度基準に対応するフェアグラフモデルのクラスを最初に定義する。
このフェアネス正規化器を既存のグラフモデリング手法と組み合わせることで、効率よくフェアネスと精度を交換できることを実証する。
- 参考スコア(独自算出の注目度): 17.660861923996016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning and reasoning over graphs is increasingly done by means of
probabilistic models, e.g. exponential random graph models, graph embedding
models, and graph neural networks. When graphs are modeling relations between
people, however, they will inevitably reflect biases, prejudices, and other
forms of inequity and inequality. An important challenge is thus to design
accurate graph modeling approaches while guaranteeing fairness according to the
specific notion of fairness that the problem requires. Yet, past work on the
topic remains scarce, is limited to debiasing specific graph modeling methods,
and often aims to ensure fairness in an indirect manner.
We propose a generic approach applicable to most probabilistic graph modeling
approaches. Specifically, we first define the class of fair graph models
corresponding to a chosen set of fairness criteria. Given this, we propose a
fairness regularizer defined as the KL-divergence between the graph model and
its I-projection onto the set of fair models. We demonstrate that using this
fairness regularizer in combination with existing graph modeling approaches
efficiently trades-off fairness with accuracy, whereas the state-of-the-art
models can only make this trade-off for the fairness criterion that they were
specifically designed for.
- Abstract(参考訳): グラフ上の学習と推論は確率モデル(例えば、確率モデル)によってますます行われる。
指数的ランダムグラフモデル、グラフ埋め込みモデル、グラフニューラルネットワーク。
しかし、グラフが人間の関係をモデル化する場合、それらは必然的にバイアスや偏見、その他の不等式や不等式を反映する。
したがって、重要な課題は、正確なグラフモデリングアプローチを設計し、問題に必要な公正性の概念に従って公正性を保証することである。
しかし、このトピックに関する過去の研究は乏しく、特定のグラフモデリング手法の偏りに限られており、しばしば間接的に公正性を確保することを目的としている。
本稿では,ほとんどの確率グラフモデリング手法に適用可能な汎用的なアプローチを提案する。
具体的には、選択された公正度基準に対応するフェアグラフモデルのクラスを最初に定義する。
そこで本稿では,グラフモデルとI-射影とのKL分割として定義される公正正則化器をフェアモデルの集合上に提案する。
既存のグラフモデリング手法と組み合わせてこのフェアネス正規化器を効率よくフェアネスと精度を交換できることを実証する一方、最先端のモデルは、彼らが特別に設計したフェアネス基準に対してのみ、このトレードオフを行うことができる。
関連論文リスト
- From Graph Diffusion to Graph Classification [21.2763549550792]
グラフ拡散モデルをグラフ分類に適用する方法を示す。
サンプリングベース推論手法を用いた実験では,識別訓練により最先端のグラフ分類精度が達成される。
論文 参考訳(メタデータ) (2024-11-26T08:57:41Z) - Fair GLASSO: Estimating Fair Graphical Models with Unbiased Statistical Behavior [31.92791228859847]
多くの現実世界のモデルは、データのバイアスによって不公平な差別行動を示す。
統計的類似性のバランスを促進するために,2つのバイアス指標の形でグラフィカルモデルの公平性を導入する。
スパースガウス精度行列を得るための正規化グラフィカルラッソであるFair GLASSOを提案する。
論文 参考訳(メタデータ) (2024-06-13T18:07:04Z) - A Causal Disentangled Multi-Granularity Graph Classification Method [18.15154299104419]
いくつかのグラフ分類法は、グラフデータの多重粒度特性を結合しない。
本稿では,この課題を解決するために,因果不整合多粒性グラフ表現学習法(CDM-GNN)を提案する。
このモデルは強力な分類性能を示し、人間の認知パターンに沿った説明結果を生成する。
論文 参考訳(メタデータ) (2023-10-25T00:20:50Z) - FairGen: Towards Fair Graph Generation [76.34239875010381]
フェアネスを考慮したグラフ生成モデルFairGenを提案する。
我々のモデルはラベルインフォームドグラフ生成モジュールと公正表現学習モジュールを共同で訓練する。
Webベースのグラフを含む7つの実世界のデータセットの実験結果は、FairGenが最先端のグラフ生成モデルと同等のパフォーマンスを得ることを示した。
論文 参考訳(メタデータ) (2023-03-30T23:30:42Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Fair Community Detection and Structure Learning in Heterogeneous
Graphical Models [8.643517734716607]
確率的グラフィカルモデルにおけるコミュニティ構造の推定は、ノードが人口統計特性を持つ場合の公平性制約とは一致しないかもしれない。
本稿では、公平なグラフィカルモデル選択のための新しい$ell_$-regularized pseudo-likelihoodアプローチを定義する。
論文 参考訳(メタデータ) (2021-12-09T18:58:36Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。