論文の概要: Enabling Group Fairness in Graph Unlearning via Bi-level Debiasing
- arxiv url: http://arxiv.org/abs/2505.09702v1
- Date: Wed, 14 May 2025 18:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.057316
- Title: Enabling Group Fairness in Graph Unlearning via Bi-level Debiasing
- Title(参考訳): グラフアンラーニングにおけるグループフェアネスのバイレベルデバイアスによる実現
- Authors: Yezi Liu, Prathyush Poduval, Wenjun Huang, Yang Ni, Hanning Chen, Mohsen Imani,
- Abstract要約: グラフアンラーニングは、トレーニングされたグラフモデルに対するユーザデータの影響を消去することで、ユーザのプライバシを保護するための重要なアプローチである。
グラフアンラーニング手法の最近の進歩は,ユーザ情報を取り除きながら,モデル予測性能の維持に重点を置いている。
プライバシと精度を維持しつつ公正性を確保するために,フェアグラフアンラーニング手法FGUを提案する。
- 参考スコア(独自算出の注目度): 11.879507789144062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph unlearning is a crucial approach for protecting user privacy by erasing the influence of user data on trained graph models. Recent developments in graph unlearning methods have primarily focused on maintaining model prediction performance while removing user information. However, we have observed that when user information is deleted from the model, the prediction distribution across different sensitive groups often changes. Furthermore, graph models are shown to be prone to amplifying biases, making the study of fairness in graph unlearning particularly important. This raises the question: Does graph unlearning actually introduce bias? Our findings indicate that the predictions of post-unlearning models become highly correlated with sensitive attributes, confirming the introduction of bias in the graph unlearning process. To address this issue, we propose a fair graph unlearning method, FGU. To guarantee privacy, FGU trains shard models on partitioned subgraphs, unlearns the requested data from the corresponding subgraphs, and retrains the shard models on the modified subgraphs. To ensure fairness, FGU employs a bi-level debiasing process: it first enables shard-level fairness by incorporating a fairness regularizer in the shard model retraining, and then achieves global-level fairness by aligning all shard models to minimize global disparity. Our experiments demonstrate that FGU achieves superior fairness while maintaining privacy and accuracy. Additionally, FGU is robust to diverse unlearning requests, ensuring fairness and utility performance across various data distributions.
- Abstract(参考訳): グラフアンラーニングは、トレーニングされたグラフモデルに対するユーザデータの影響を消去することで、ユーザのプライバシを保護するための重要なアプローチである。
グラフアンラーニング手法の最近の進歩は,ユーザ情報を取り除きながら,モデル予測性能の維持に重点を置いている。
しかし、ユーザ情報がモデルから削除されると、異なるセンシティブなグループ間での予測分布が頻繁に変化する。
さらに、グラフモデルはバイアスを増幅する傾向があることが示され、グラフの未学習における公平性の研究が特に重要である。
グラフアンラーニングは実際にバイアスをもたらすのか?
その結果,学習後モデルの予測は感度特性と高い相関関係を呈し,グラフアンラーニングプロセスにおけるバイアスの導入を確認した。
この問題に対処するため、フェアグラフアンラーニング法FGUを提案する。
プライバシーを保証するため、FGUは分割されたサブグラフ上でシャードモデルを訓練し、要求されたデータを対応するサブグラフから解放し、修正されたサブグラフ上でシャードモデルを再訓練する。
公平性を確保するために、FGUは二段階の偏平プロセスを採用し、まず、シャードモデル再トレーニングに公平性正規化器を組み込むことにより、シャードレベルの公平性を可能とし、次に、すべてのシャードモデルを整列させて、グローバルな格差を最小限に抑えることで、グローバルレベルの公平性を達成する。
我々の実験は、FGUがプライバシーと精度を維持しながら優れた公正性を達成することを示した。
さらに、FGUは多様な未学習リクエストに対して堅牢であり、さまざまなデータディストリビューションにおける公正性とユーティリティパフォーマンスを保証する。
関連論文リスト
- Towards Federated Graph Learning in One-shot Communication [27.325478113745206]
Federated Graph Learning(FGL)は、分散プライベートグラフ間のデータサイロを壊すための有望なパラダイムとして登場した。
ワンショットフェデレートラーニング(OFL)は1ラウンドでのコラボレーションを可能にするが、既存のOFLメソッドはグラフデータには有効ではない。
本稿では,ノード分類のための最初の$textbfO-pFGL$メソッド(textbfO-pFGL$)を提案する。
論文 参考訳(メタデータ) (2024-11-18T05:59:29Z) - A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献をよりよく理解するために,既存の手法をモデル中心およびデータ中心のアプローチに分類する系統分類を導入した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - Graph Fairness Learning under Distribution Shifts [33.9878682279549]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを実現している。
GNNは、トレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行うことができる。
本稿では,異なる距離で有意な偏差を持つ多数のグラフを生成するグラフ生成器を提案する。
論文 参考訳(メタデータ) (2024-01-30T06:51:24Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。