論文の概要: MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage
- arxiv url: http://arxiv.org/abs/2401.12824v1
- Date: Tue, 23 Jan 2024 14:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 15:20:03.176993
- Title: MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage
- Title(参考訳): MAPPING: 機密情報漏洩を限定した公正ノード分類のためのグラフニューラルネットワークの偏り
- Authors: Ying Song and Balaji Palanisamy
- Abstract要約: 公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
- 参考スコア(独自算出の注目度): 1.8238848494579714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite remarkable success in diverse web-based applications, Graph Neural
Networks(GNNs) inherit and further exacerbate historical discrimination and
social stereotypes, which critically hinder their deployments in high-stake
domains such as online clinical diagnosis, financial crediting, etc. However,
current fairness research that primarily craft on i.i.d data, cannot be
trivially replicated to non-i.i.d. graph structures with topological dependence
among samples. Existing fair graph learning typically favors pairwise
constraints to achieve fairness but fails to cast off dimensional limitations
and generalize them into multiple sensitive attributes; besides, most studies
focus on in-processing techniques to enforce and calibrate fairness,
constructing a model-agnostic debiasing GNN framework at the pre-processing
stage to prevent downstream misuses and improve training reliability is still
largely under-explored. Furthermore, previous work on GNNs tend to enhance
either fairness or privacy individually but few probe into their interplays. In
this paper, we propose a novel model-agnostic debiasing framework named MAPPING
(\underline{M}asking \underline{A}nd \underline{P}runing and
Message-\underline{P}assing train\underline{ING}) for fair node classification,
in which we adopt the distance covariance($dCov$)-based fairness constraints to
simultaneously reduce feature and topology biases in arbitrary dimensions, and
combine them with adversarial debiasing to confine the risks of attribute
inference attacks. Experiments on real-world datasets with different GNN
variants demonstrate the effectiveness and flexibility of MAPPING. Our results
show that MAPPING can achieve better trade-offs between utility and fairness,
and mitigate privacy risks of sensitive information leakage.
- Abstract(参考訳): 多様なWebベースアプリケーションで顕著な成功を収めたにもかかわらず、グラフニューラルネットワーク(GNN)は、歴史的差別や社会的ステレオタイプを継承し、さらに悪化させ、オンライン臨床診断や金融クレジットなどの高い領域への展開を著しく妨げている。
しかし、主にi.i.dデータに基づく現在の公正性の研究は、サンプル間の位相依存を持つ非i.d.グラフ構造に自明に複製することはできない。
既存の公正グラフ学習は、ペアワイズ制約を好んでフェアネスを達成するが、次元的制約をオフにして複数の機密属性に一般化することができない。また、ほとんどの研究は、フェアネスを強制し、校正するための内部処理技術に焦点を当て、下流の誤用を防止し、トレーニングの信頼性を向上させるために、前処理段階でモデルに依存しないGNNフレームワークを構築している。
さらに、GNNに関する以前の研究は、公平さとプライバシを個別に強化する傾向にあるが、それらの相互作用を調査する機会はほとんどない。
本稿では,距離共分散($dcov$)に基づくフェアネス制約を適用し,任意の次元における特徴とトポロジのバイアスを同時に低減し,属性推論攻撃のリスクを限定する,新たなモデル非依存デバイアスフレームワークである mapping (\underline{m}asking \underline{a}nd \underline{p}runing and message-\underline{p}assing train\underline{ing})を提案する。
GNNのバリエーションが異なる実世界のデータセットの実験は、MAPPingの有効性と柔軟性を示している。
以上の結果から,MAPPingは実用性と公正性のトレードオフを向上し,機密情報漏洩のプライバシーリスクを軽減できることが示唆された。
関連論文リスト
- Disentangling, Amplifying, and Debiasing: Learning Disentangled Representations for Fair Graph Neural Networks [22.5976413484192]
本稿では,新しいGNNフレームワークであるDAB-GNNを提案する。
Dab-GNNは、正確性と公正性の最適バランスを達成するという点で、最先端の10のライバルを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-23T07:14:56Z) - xAI-Drop: Don't Use What You Cannot Explain [23.33477769275026]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための主要なパラダイムとして登場した。
GNNは、一般化の欠如や解釈可能性の低下といった課題に直面している。
トポロジカルレベル降下正則化器であるxAI-Dropを導入する。
論文 参考訳(メタデータ) (2024-07-29T14:53:45Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Enhancing Fairness in Unsupervised Graph Anomaly Detection through Disentanglement [33.565252991113766]
グラフ異常検出(GAD)は、金融詐欺検出から偽ニュース検出まで、さまざまなアプリケーションにおいてますます重要になっている。
現在のGAD法は主に公平性の問題を見落としており、特定の人口集団に対して差別的な決定が下される可能性がある。
DeFENDという属性グラフ上に,DisEntangle-based FairnEss-aware aNomaly Detectionフレームワークを考案した。
実世界のデータセットに対する実証的な評価から、DEFENDはGADにおいて効果的に機能し、最先端のベースラインと比較して公正性を著しく向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-06-03T04:48:45Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Disparity, Inequality, and Accuracy Tradeoffs in Graph Neural Networks
for Node Classification [2.8282906214258796]
グラフニューラルネットワーク(GNN)は、属性付きグラフのノードラベルを予測するための重要な人間のアプリケーションで、ますます使われている。
保護されたグループと保護されていないグループのノード間の分離性を減少させるPFR-AXと、ブラックボックスポリシーに基づいたモデル予測を更新するPostProcessという2つの新しいGNN非依存的介入を提案する。
PFR-AXとPostProcessは,保護群におけるノードの正の結果を正確に予測した場合に,粒度制御とモデル信頼度の向上を図っている。
論文 参考訳(メタデータ) (2023-08-18T14:45:28Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。