論文の概要: Disparity, Inequality, and Accuracy Tradeoffs in Graph Neural Networks
for Node Classification
- arxiv url: http://arxiv.org/abs/2308.09596v1
- Date: Fri, 18 Aug 2023 14:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 12:48:23.906578
- Title: Disparity, Inequality, and Accuracy Tradeoffs in Graph Neural Networks
for Node Classification
- Title(参考訳): ノード分類のためのグラフニューラルネットワークの相違, 不等式, 精度トレードオフ
- Authors: Arpit Merchant, Carlos Castillo
- Abstract要約: グラフニューラルネットワーク(GNN)は、属性付きグラフのノードラベルを予測するための重要な人間のアプリケーションで、ますます使われている。
保護されたグループと保護されていないグループのノード間の分離性を減少させるPFR-AXと、ブラックボックスポリシーに基づいたモデル予測を更新するPostProcessという2つの新しいGNN非依存的介入を提案する。
PFR-AXとPostProcessは,保護群におけるノードの正の結果を正確に予測した場合に,粒度制御とモデル信頼度の向上を図っている。
- 参考スコア(独自算出の注目度): 2.8282906214258796
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph neural networks (GNNs) are increasingly used in critical human
applications for predicting node labels in attributed graphs. Their ability to
aggregate features from nodes' neighbors for accurate classification also has
the capacity to exacerbate existing biases in data or to introduce new ones
towards members from protected demographic groups. Thus, it is imperative to
quantify how GNNs may be biased and to what extent their harmful effects may be
mitigated. To this end, we propose two new GNN-agnostic interventions namely,
(i) PFR-AX which decreases the separability between nodes in protected and
non-protected groups, and (ii) PostProcess which updates model predictions
based on a blackbox policy to minimize differences between error rates across
demographic groups. Through a large set of experiments on four datasets, we
frame the efficacies of our approaches (and three variants) in terms of their
algorithmic fairness-accuracy tradeoff and benchmark our results against three
strong baseline interventions on three state-of-the-art GNN models. Our results
show that no single intervention offers a universally optimal tradeoff, but
PFR-AX and PostProcess provide granular control and improve model confidence
when correctly predicting positive outcomes for nodes in protected groups.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、属性付きグラフのノードラベルを予測するための重要な人間のアプリケーションで、ますます使われている。
正確な分類のためにノードの隣人から特徴を集約する能力は、データの既存のバイアスを悪化させるか、保護層グループのメンバーに新しい特徴を導入する能力を持つ。
したがって、GNNの偏りや有害な影響の程度を定量化することが不可欠である。
この目的のために、我々は2つの新しいGNN非依存的介入を提案する。
(i)保護群及び非保護群におけるノード間の分離性を低下させるpfr-ax
(II)人口集団間のエラー率の差を最小限に抑えるため、ブラックボックスポリシーに基づくモデル予測を更新するPostProcess。
4つのデータセットに対する大規模な実験を通じて、アルゴリズム的公正性-正確性トレードオフの観点から、我々のアプローチ(および3つの変種)の有効性を定式化し、3つの最先端GNNモデルに対する強力なベースライン介入と比較した。
PFR-AXとPostProcessは,保護群におけるノードの正の結果を正確に予測した場合に,粒度の制御とモデル信頼性の向上を実現している。
関連論文リスト
- Conditional Shift-Robust Conformal Prediction for Graph Neural Network [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの結果を予測する強力なツールとして登場した。
有効性にもかかわらず、GNNは堅牢な不確実性推定を提供する能力に制限がある。
本稿では,GNNに対する条件シフトロバスト(CondSR)の共形予測を提案する。
論文 参考訳(メタデータ) (2024-05-20T11:47:31Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage [1.8238848494579714]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Uncertainty Quantification over Graph with Conformalized Graph Neural
Networks [52.20904874696597]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに基づく強力な機械学習予測モデルである。
GNNには厳密な不確実性見積が欠如しており、エラーのコストが重要な設定での信頼性の高いデプロイメントが制限されている。
本稿では,共形予測(CP)をグラフベースモデルに拡張した共形GNN(CF-GNN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T21:38:23Z) - Pushing the Accuracy-Group Robustness Frontier with Introspective
Self-play [16.262574174989698]
Introspective Self-play (ISP)は、データセットバイアス下でのディープニューラルネットワークの不確実性推定を改善するための単純なアプローチである。
ISPはモデル表現のバイアス認識と結果の不確実性評価を確実に改善することを示す。
論文 参考訳(メタデータ) (2023-02-11T22:59:08Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Label-Only Membership Inference Attack against Node-Level Graph Neural
Networks [30.137860266059004]
グラフニューラルネットワーク(GNN)は、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,GNNのフレキシブル予測機構を利用して,ノード分類のためのラベルのみのMIAを提案する。
攻撃手法は,ほとんどのデータセットやGNNモデルに対して,AUC(Area Under the Curve)の精度,精度,面積の約60%を達成している。
論文 参考訳(メタデータ) (2022-07-27T19:46:26Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。