論文の概要: NeuBM: Mitigating Model Bias in Graph Neural Networks through Neutral Input Calibration
- arxiv url: http://arxiv.org/abs/2505.15180v1
- Date: Wed, 21 May 2025 06:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.028961
- Title: NeuBM: Mitigating Model Bias in Graph Neural Networks through Neutral Input Calibration
- Title(参考訳): NeuBM:ニュートラル入力校正によるグラフニューラルネットワークにおけるモデルバイアスの緩和
- Authors: Jiawei Gu, Ziyue Qiao, Xiao Luo,
- Abstract要約: グラフニューラルネットワーク(GNN)におけるモデルバイアスを緩和する新しいアプローチであるNeuBMを導入する。
NeuBMは動的に更新された中立グラフを利用して、モデル固有のバイアスを推定し、修正する。
本手法は既存のGNNアーキテクチャとトレーニング手順をシームレスに統合し,計算オーバーヘッドを最小限に抑える。
- 参考スコア(独自算出の注目度): 5.108777066348911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have shown remarkable performance across various domains, yet they often struggle with model bias, particularly in the presence of class imbalance. This bias can lead to suboptimal performance and unfair predictions, especially for underrepresented classes. We introduce NeuBM (Neutral Bias Mitigation), a novel approach to mitigate model bias in GNNs through neutral input calibration. NeuBM leverages a dynamically updated neutral graph to estimate and correct the inherent biases of the model. By subtracting the logits obtained from the neutral graph from those of the input graph, NeuBM effectively recalibrates the model's predictions, reducing bias across different classes. Our method integrates seamlessly into existing GNN architectures and training procedures, requiring minimal computational overhead. Extensive experiments on multiple benchmark datasets demonstrate that NeuBM significantly improves the balanced accuracy and recall of minority classes, while maintaining strong overall performance. The effectiveness of NeuBM is particularly pronounced in scenarios with severe class imbalance and limited labeled data, where traditional methods often struggle. We provide theoretical insights into how NeuBM achieves bias mitigation, relating it to the concept of representation balancing. Our analysis reveals that NeuBM not only adjusts the final predictions but also influences the learning of balanced feature representations throughout the network.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々な領域で顕著なパフォーマンスを示しているが、モデルバイアス、特にクラス不均衡の存在に悩まされることが多い。
このバイアスは、特に表現不足のクラスにおいて、最適以下のパフォーマンスと不公平な予測をもたらす可能性がある。
ニュートラルバイアス緩和(Neutral Bias Mitigation)は,ニュートラル入力キャリブレーションによってGNNのモデルバイアスを軽減する新しい手法である。
NeuBMは動的に更新された中立グラフを利用して、モデル固有のバイアスを推定し、修正する。
入力グラフのグラフから得られるロジットを減じることで、NeuBMはモデルの予測を効果的に再検討し、異なるクラス間のバイアスを低減する。
本手法は既存のGNNアーキテクチャとトレーニング手順をシームレスに統合し,計算オーバーヘッドを最小限に抑える。
複数のベンチマークデータセットに対する大規模な実験により、NeuBMは高い全体的な性能を維持しながら、少数クラスのバランスの取れた精度とリコールを大幅に改善することが示された。
NeuBMの有効性は特に、クラス不均衡とラベル付きデータに制限のあるシナリオで顕著である。
我々は、NeuBMがどのようにバイアス緩和を達成するかについての理論的な洞察を与え、それを表現バランスの概念と関連づける。
解析の結果、NeuBMは最終的な予測を調整するだけでなく、ネットワーク全体のバランスのとれた特徴表現の学習にも影響を及ぼすことがわかった。
関連論文リスト
- Unbiased GNN Learning via Fairness-Aware Subgraph Diffusion [23.615250207134004]
本稿では,非バイアスGNN学習のための新しい生成型ニューラルフェアネス・アウェア・サブグラフ(FASD)手法を提案する。
FASDは,デバイアス付きサブグラフ上で標準GNN学習を行うことにより,入力グラフ上で公正なノード予測を誘導することを示す。
実験により,提案手法は最先端のFair GNNベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-12-31T18:48:30Z) - Disentangling, Amplifying, and Debiasing: Learning Disentangled Representations for Fair Graph Neural Networks [22.5976413484192]
本稿では,新しいGNNフレームワークであるDAB-GNNを提案する。
DAB-GNNは、精度と公正性の最適バランスを達成するという点で、最先端の10のライバルを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-23T07:14:56Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - Inducing Neural Collapse in Deep Long-tailed Learning [13.242721780822848]
クラス不均衡データの高品質な表現を学習するための2つの明示的な特徴正規化項を提案する。
提案された正規化により、ニューラル崩壊現象はクラス不均衡分布の下に現れる。
本手法は, 実装が容易で, 有効であり, 既存のほとんどの方法に組み込むことができる。
論文 参考訳(メタデータ) (2023-02-24T05:07:05Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。