論文の概要: Mitigating Bias in Graph Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2512.07433v1
- Date: Mon, 08 Dec 2025 11:09:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.85306
- Title: Mitigating Bias in Graph Hyperdimensional Computing
- Title(参考訳): グラフ超次元計算におけるバイアスの緩和
- Authors: Yezi Liu, William Youngwoo Chung, Yang Ni, Hanning Chen, Mohsen Imani,
- Abstract要約: グラフ超次元コンピューティング(HDC)は認知タスクの有望なパラダイムとして登場した。
グラフHDCでは,データ表現や決定規則の偏りが不平等な扱いにつながる可能性がある。
このようなバイアスを軽減するためにフェアネス対応のトレーニングフレームワークであるFairGHDCを提案する。
- 参考スコア(独自算出の注目度): 15.864328671840612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph hyperdimensional computing (HDC) has emerged as a promising paradigm for cognitive tasks, emulating brain-like computation with high-dimensional vectors known as hypervectors. While HDC offers robustness and efficiency on graph-structured data, its fairness implications remain largely unexplored. In this paper, we study fairness in graph HDC, where biases in data representation and decision rules can lead to unequal treatment of different groups. We show how hypervector encoding and similarity-based classification can propagate or even amplify such biases, and we propose a fairness-aware training framework, FairGHDC, to mitigate them. FairGHDC introduces a bias correction term, derived from a gap-based demographic-parity regularizer, and converts it into a scalar fairness factor that scales the update of the class hypervector for the ground-truth label. This enables debiasing directly in the hypervector space without modifying the graph encoder or requiring backpropagation. Experimental results on six benchmark datasets demonstrate that FairGHDC substantially reduces demographic-parity and equal-opportunity gaps while maintaining accuracy comparable to standard GNNs and fairness-aware GNNs. At the same time, FairGHDC preserves the computational advantages of HDC, achieving up to about one order of magnitude ($\approx 10\times$) speedup in training time on GPU compared to GNN and fairness-aware GNN baselines.
- Abstract(参考訳): グラフ超次元コンピューティング(HDC)は認知タスクのための有望なパラダイムとして登場し、ハイパーベクトルとして知られる高次元ベクトルで脳のような計算をエミュレートしている。
HDCはグラフ構造化データに対して堅牢性と効率性を提供するが、その公正性は未解明のままである。
本稿では,データ表現と決定規則の偏りが,異なるグループの不平等な扱いにつながる可能性のある,グラフHDCの公平性について検討する。
ハイパーベクターの符号化と類似度に基づく分類が,そのようなバイアスを伝播あるいは増幅することを示すとともに,公平性を意識したトレーニングフレームワークであるFairGHDCを提案する。
FairGHDCは、ギャップベースの人口平準正規化器から派生したバイアス補正項を導入し、それをスカラーフェアネス係数に変換して、クラスハイパーベクターをグランドトラストラベルに更新する。
これにより、グラフエンコーダを変更したり、バックプロパゲーションを必要とせずに、ハイパーベクタ空間でのデバイアス化が可能になる。
6つのベンチマークデータセットによる実験結果から、FairGHDCは標準のGNNやフェアネスを意識したGNNに匹敵する精度を維持しながら、人口格差と均等な機会ギャップを著しく低減することが示された。
同時に、FairGHDCはHDCの計算上の利点を保ち、GNNやフェアネス対応のGNNベースラインと比較して、GPU上でのトレーニング時間の最大1桁($\approx 10\times$)のスピードアップを実現している。
関連論文リスト
- VS-Graph: Scalable and Efficient Graph Classification Using Hyperdimensional Computing [0.4497860392054933]
本稿では,HDCの効率性とメッセージパッシングの表現力とのギャップを狭めるベクトル記号グラフ学習フレームワークであるVS-Graphを提案する。
提案手法は,従来のHDCベースラインを標準ベンチマークで4-5%上回り,最新のGNNと競合する精度を実現している。
また、GNNベースラインのパフォーマンスを複数のデータセットで一致または超過し、最大450倍の速度でトレーニングを加速する。
論文 参考訳(メタデータ) (2025-12-03T03:03:44Z) - Improving Fairness in Graph Neural Networks via Counterfactual Debiasing [4.984092292992338]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングに成功している。
GNNは、人種や性別などの属性に基づいた予測においてバイアスを示すことができる。
本稿では, バイアス軽減のためのデファクト・デファクト・データ拡張手法を提案する。
論文 参考訳(メタデータ) (2025-08-20T12:59:05Z) - FairGP: A Scalable and Fair Graph Transformer Using Graph Partitioning [15.383535436798065]
近年の研究では、グラフトランスフォーマー(GT)モデルにおいて、重要な公平性の問題が浮き彫りになっている。
GTは計算集約的でメモリオンデマンドであり、大規模グラフに制限される。
本稿では,高次ノードの負の影響を最小限に抑えるためにグラフを分割するグラフ分割(FairGP)を提案する。
論文 参考訳(メタデータ) (2024-12-14T04:15:32Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。