論文の概要: EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2108.05233v1
- Date: Wed, 11 Aug 2021 14:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:23:14.297474
- Title: EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks
- Title(参考訳): edits: グラフニューラルネットワークのためのデータバイアスのモデリングと緩和
- Authors: Yushun Dong, Ninghao Liu, Brian Jalaian, Jundong Li
- Abstract要約: 本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
- 参考スコア(独自算出の注目度): 29.974829042502375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have recently demonstrated superior capability
of tackling graph analytical problems in various applications. Nevertheless,
with the wide-spreading practice of GNNs in high-stake decision-making
processes, there is an increasing societal concern that GNNs could make
discriminatory decisions that may be illegal towards certain demographic
groups. Although some explorations have been made towards developing fair GNNs,
existing approaches are tailored for a specific GNN model. However, in
practical scenarios, myriads of GNN variants have been proposed for different
tasks, and it is costly to train and fine-tune existing debiasing models for
different GNNs. Also, bias in a trained model could originate from training
data, while how to mitigate bias in the graph data is usually overlooked. In
this work, different from existing work, we first propose novel definitions and
metrics to measure the bias in an attributed network, which leads to the
optimization objective to mitigate bias. Based on the optimization objective,
we develop a framework named EDITS to mitigate the bias in attributed networks
while preserving useful information. EDITS works in a model-agnostic manner,
which means that it is independent of the specific GNNs applied for downstream
tasks. Extensive experiments on both synthetic and real-world datasets
demonstrate the validity of the proposed bias metrics and the superiority of
EDITS on both bias mitigation and utility maintenance. Open-source
implementation: https://github.com/yushundong/EDITS.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、最近様々なアプリケーションでグラフ分析問題に取り組む優れた能力を示している。
しかし、高い意思決定プロセスにおけるGNNの広範な普及により、GNNが特定の人口集団に対して違法な差別的決定を下す可能性があるという社会的懸念が高まっている。
公正なGNNの開発に向けていくつかの調査が行われてきたが、既存のアプローチは特定のGNNモデルに適合している。
しかし、現実的なシナリオでは、GNNの変種が様々なタスクに対して提案されており、異なるGNNに対して既存のデバイアスモデルを訓練し、微調整することはコストがかかる。
また、トレーニングされたモデルのバイアスはトレーニングデータから発生し、グラフデータのバイアスを緩和する方法は通常見過ごされる。
本研究は, 既存の作業と異なり, まず, 推定されたネットワーク内のバイアスを測定するための新しい定義と指標を提案し, バイアスを緩和するための最適化目標を導出する。
最適化の目的に基づき,属性付きネットワークのバイアスを軽減し,有用な情報を保存するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
合成と実世界の両方のデータセットに対する大規模な実験は、提案したバイアス指標の有効性と、バイアス緩和とユーティリティメンテナンスの両方に対するEDITSの優位性を示している。
オープンソース実装:https://github.com/yushundong/EDITS。
関連論文リスト
- ComFairGNN: Community Fair Graph Neural Network [6.946292440025013]
グラフニューラルネットワーク(GNN)におけるコミュニティレベルのバイアスを軽減するための新しいフレームワークを提案する。
提案手法では,GNNにおける局所分布の多様さから生じるバイアスに対処する,学習可能なコアセットに基づくデバイアス機能を用いる。
論文 参考訳(メタデータ) (2024-11-07T02:04:34Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - On Structural Explanation of Bias in Graph Neural Networks [40.323880315453906]
グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
論文 参考訳(メタデータ) (2022-06-24T06:49:21Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。