論文の概要: BeMap: Balanced Message Passing for Fair Graph Neural Network
- arxiv url: http://arxiv.org/abs/2306.04107v1
- Date: Wed, 7 Jun 2023 02:16:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 16:27:01.171954
- Title: BeMap: Balanced Message Passing for Fair Graph Neural Network
- Title(参考訳): bemap:フェアグラフニューラルネットワークのためのバランスのとれたメッセージパッシング
- Authors: Xiao Lin, Jian Kang, Weilin Cong, Hanghang Tong
- Abstract要約: グラフニューラルネットワーク(GNN)は多くの下流タスクにおいて強い経験的性能を示している。
異なる人口集団の1ホップ隣人がバランスが取れていない場合、メッセージのやりとりはバイアスを増幅する可能性がある。
本稿では,バランスを意識したサンプリング戦略を活用する,公平なメッセージパッシング手法であるBeMapを提案する。
- 参考スコア(独自算出の注目度): 39.064285093935034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network (GNN) has shown strong empirical performance in many
downstream tasks by iteratively aggregating information from the local
neighborhood of each node, i.e., message passing. However, concrete evidence
has revealed that a graph neural network could be biased against certain
demographic groups, which calls for the consideration of algorithmic fairness.
Despite the increasing efforts in ensuring algorithmic fairness on graph neural
networks, they often do not explicitly consider the induced bias caused by
message passing in GNN during training. In this paper, we first investigate the
problem of bias amplification in message passing. We empirically and
theoretically demonstrate that message passing could amplify the bias when the
1-hop neighbors from different demographic groups are unbalanced. Guided by
such analyses, we propose BeMap, a fair message passing method, that leverages
a balance-aware sampling strategy to balance the number of the 1-hop neighbors
of each node among different demographic groups. Extensive experiments on node
classification demonstrate the efficacy of our proposed BeMap method in
mitigating bias while maintaining classification accuracy.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、各ノードの局所的近傍(すなわちメッセージパッシング)からの情報を反復的に集約することで、多くの下流タスクにおいて強力な経験的性能を示している。
しかし、具体的な証拠は、グラフニューラルネットワークが特定の人口集団に偏りがあることを明らかにしており、アルゴリズムの公正性を考慮している。
グラフニューラルネットワークにおけるアルゴリズムの公正性を保証する努力が増えているにもかかわらず、トレーニング中にGNNでメッセージパッシングによって引き起こされるバイアスを明示的に考慮しないことが多い。
本稿では,まず,メッセージパッシングにおけるバイアス増幅の問題について検討する。
我々は、異なる人口集団の1ホップ隣人がバランスが取れていない場合、メッセージパッシングがバイアスを増幅することを示した。
このような分析で導かれたBeMapは,各ノードの1ホップ隣人の数を異なるグループ間でバランスをとるために,バランスを考慮したサンプリング戦略を活用するフェアメッセージパッシング手法である。
ノード分類に関する大規模な実験は,分類精度を維持しつつバイアス軽減のためのBeMap法の有効性を示した。
関連論文リスト
- Rethinking Fair Graph Neural Networks from Re-balancing [26.70771023446706]
単純な再分散手法は、既存の公正なGNN手法と容易に一致するか、追い越すことができる。
本稿では,グループバランスによるGNNの不公平さを軽減するために,再バランシングによるFairGB,Fair Graph Neural Networkを提案する。
論文 参考訳(メタデータ) (2024-07-16T11:39:27Z) - FairSample: Training Fair and Accurate Graph Convolutional Neural
Networks Efficiently [29.457338893912656]
センシティブなグループに対する社会的バイアスは多くの実世界のグラフに存在するかもしれない。
本稿では,グラフ構造バイアス,ノード属性バイアス,モデルパラメータがGCNの人口動態にどのように影響するかを詳細に分析する。
私たちの洞察は、3種類のバイアスを緩和するフレームワークであるFairSampleにつながります。
論文 参考訳(メタデータ) (2024-01-26T08:17:12Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - Deconfounded Training for Graph Neural Networks [98.06386851685645]
本稿では, コンバウンディング効果を緩和し, 臨界情報に対するラッチを緩和する新しいDecon Training(DTP)のパラダイムを提案する。
具体的には、注意モジュールを用いて臨界部分グラフと自明部分グラフをアンタングル化する。
これにより、GNNは、ラベルとの関係が複数のディストリビューションで堅牢である、より信頼性の高いサブグラフをキャプチャできる。
論文 参考訳(メタデータ) (2021-12-30T15:22:35Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。