論文の概要: EqGNN: Equalized Node Opportunity in Graphs
- arxiv url: http://arxiv.org/abs/2108.08800v1
- Date: Thu, 19 Aug 2021 17:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:42:56.181393
- Title: EqGNN: Equalized Node Opportunity in Graphs
- Title(参考訳): EqGNN: グラフにおけるノードオポチュニティの平等化
- Authors: Uriel Singer and Kira Radinsky
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ内の教師あり学習タスクに広く利用されている。
微妙な属性を無視したり、公正性の統計パリティの基準を最適化する人もいる。
等化オッズフェアネス基準の概念に対して,表現の最適化を可能にするGNNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.64827998759028
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph neural networks (GNNs), has been widely used for supervised learning
tasks in graphs reaching state-of-the-art results. However, little work was
dedicated to creating unbiased GNNs, i.e., where the classification is
uncorrelated with sensitive attributes, such as race or gender. Some ignore the
sensitive attributes or optimize for the criteria of statistical parity for
fairness. However, it has been shown that neither approaches ensure fairness,
but rather cripple the utility of the prediction task. In this work, we present
a GNN framework that allows optimizing representations for the notion of
Equalized Odds fairness criteria. The architecture is composed of three
components: (1) a GNN classifier predicting the utility class, (2) a sampler
learning the distribution of the sensitive attributes of the nodes given their
labels. It generates samples fed into a (3) discriminator that discriminates
between true and sampled sensitive attributes using a novel "permutation loss"
function. Using these components, we train a model to neglect information
regarding the sensitive attribute only with respect to its label. To the best
of our knowledge, we are the first to optimize GNNs for the equalized odds
criteria. We evaluate our classifier over several graph datasets and sensitive
attributes and show our algorithm reaches state-of-the-art results.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、最先端の結果に達するグラフの教師付き学習タスクに広く使われている。
しかし、その分類が人種や性別のようなセンシティブな属性と無関係であるような、偏見のないGNNを作成するための研究はほとんどなかった。
繊細な属性を無視したり、公平性に対する統計的パリティの基準を最適化する者もいる。
しかし、どちらの手法も公平性を保証せず、予測タスクの有用性を損なうことが示されている。
そこで本研究では,等化オッドの公平度基準に対する表現を最適化するGNNフレームワークを提案する。
アーキテクチャは,(1)ユーティリティクラスを予測するGNN分類器,(2)ラベルを付与したノードの機密属性の分布を学習するサンプリング器の3つのコンポーネントから構成される。
(3)識別器に供給されたサンプルを生成し、新しい「置換損失」関数を用いて真と正の敏感な属性を識別する。
これらのコンポーネントを使用して、ラベルのみに関する機密属性に関する情報を無視するようにモデルを訓練する。
我々の知識を最大限に活用するために、我々はまず、均等化されたオッズ基準のためにGNNを最適化する。
我々は,複数のグラフデータセットと繊細な属性について分類器を評価し,そのアルゴリズムが最先端の結果に達することを示す。
関連論文リスト
- Graph Classification with GNNs: Optimisation, Representation and Inductive Bias [0.6445605125467572]
このような等価性は、付随する最適化問題を無視するものであり、GNN学習プロセスの全体像を提供するものではない、と我々は主張する。
理論的には、グラフ内のメッセージパッシング層は、識別サブグラフか、あるいはグラフ全体に分散した識別ノードの集合を探索する傾向にあることを証明している。
論文 参考訳(メタデータ) (2024-08-17T18:15:44Z) - Classifying Nodes in Graphs without GNNs [50.311528896010785]
本稿では,完全GNNフリーなノード分類手法を提案する。
本手法は, 滑らかさ制約, 擬似ラベル反復, 近傍ラベルヒストグラムの3つの主要成分からなる。
論文 参考訳(メタデータ) (2024-02-08T18:59:30Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage [35.810534649478576]
グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
GNNは、トレーニングデータから歴史的偏見を継承し、予測における差別的偏見をもたらす可能性がある。
本研究ではFairVGNN(Fair View Graph Neural Network)を提案する。
論文 参考訳(メタデータ) (2022-06-07T16:25:20Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z) - GraphSMOTE: Imbalanced Node Classification on Graphs with Graph Neural
Networks [28.92347073786722]
グラフニューラルネットワーク(GNN)はノード分類の最先端性能を達成した。
本稿では,ノード間の類似性をエンコードするために埋め込み空間を構築する新しいフレームワークであるgraphsmoteを提案する。
この空間で新しいサンプルが合成され、真正性が保証される。
論文 参考訳(メタデータ) (2021-03-16T03:23:55Z) - Revisiting graph neural networks and distance encoding from a practical
view [10.193375978547019]
グラフニューラルネットワーク(GNN)は、ノード分類やリンク予測といったグラフ構造化データに基づくアプリケーションで広く利用されている。
最近提案された技術距離符号化(DE)により、GNNはノード分類やリンク予測など多くのアプリケーションでうまく機能する。
論文 参考訳(メタデータ) (2020-11-22T22:04:37Z) - Say No to the Discrimination: Learning Fair Graph Neural Networks with
Limited Sensitive Attribute Information [37.90997236795843]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて大きな力を示している。
GNNは、皮膚の色や性別など、保護された機密属性に偏った予測を行う。
高いノード分類精度を維持しつつ,GNNのバイアスを取り除くためにFairGNNを提案する。
論文 参考訳(メタデータ) (2020-09-03T05:17:30Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。