論文の概要: FairGU: Fairness-aware Graph Unlearning in Social Networks
- arxiv url: http://arxiv.org/abs/2601.09469v2
- Date: Sun, 18 Jan 2026 10:03:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 14:05:45.101615
- Title: FairGU: Fairness-aware Graph Unlearning in Social Networks
- Title(参考訳): FairGU: ソーシャルネットワークにおける公正を意識したグラフの学習
- Authors: Renqiang Luo, Yongshuai Yang, Huafei Huang, Qing Qing, Mingliang Hou, Ziqi Xu, Yi Yu, Jingjing Zhou, Feng Xia,
- Abstract要約: フェアネスを意識したグラフアンラーニングフレームワークであるFairGUを紹介する。
FairGUは、有効データ保護戦略を備えた専用のフェアネス対応モジュールを統合している。
FairGUは、最先端のグラフアンラーニング手法よりも一貫して優れていることを実証する。
- 参考スコア(独自算出の注目度): 17.116462601803544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph unlearning has emerged as a critical mechanism for supporting sustainable and privacy-preserving social networks, enabling models to remove the influence of deleted nodes and thereby better safeguard user information. However, we observe that existing graph unlearning techniques insufficiently protect sensitive attributes, often leading to degraded algorithmic fairness compared with traditional graph learning methods. To address this gap, we introduce FairGU, a fairness-aware graph unlearning framework designed to preserve both utility and fairness during the unlearning process. FairGU integrates a dedicated fairness-aware module with effective data protection strategies, ensuring that sensitive attributes are neither inadvertently amplified nor structurally exposed when nodes are removed. Through extensive experiments on multiple real-world datasets, we demonstrate that FairGU consistently outperforms state-of-the-art graph unlearning methods and fairness-enhanced graph learning baselines in terms of both accuracy and fairness metrics. Our findings highlight a previously overlooked risk in current unlearning practices and establish FairGU as a robust and equitable solution for the next generation of socially sustainable networked systems. The codes are available at https://github.com/LuoRenqiang/FairGU.
- Abstract(参考訳): グラフアンラーニングは、持続可能なプライバシ保護のソーシャルネットワークをサポートする重要なメカニズムとして現れ、モデルが削除されたノードの影響を排除し、ユーザ情報の保護を改善する。
しかし,既存のグラフアンラーニング技術は機密属性を十分に保護しておらず,従来のグラフ学習法と比較してアルゴリズムの公平性を低下させることが多い。
このギャップに対処するために、未学習プロセスにおける有用性と公平性の両方を維持するように設計された、公正を意識したグラフアンラーニングフレームワークであるFairGUを紹介した。
FairGUは、専用のフェアネス対応モジュールを有効データ保護戦略に統合し、ノードが削除された場合、センシティブな属性が意図せず増幅されず、構造的に露出されることを保証する。
複数の実世界のデータセットに関する広範な実験を通じて、FairGUは、精度と公正度の両方の観点から、最先端のグラフアンラーニング手法と公正性向上したグラフ学習ベースラインを一貫して上回っていることを実証した。
我々の発見は、現在の未学習の実践においてこれまで見過ごされていたリスクを浮き彫りにし、FairGUを次世代の社会的持続性ネットワークシステムのための堅牢で公平なソリューションとして確立している。
コードはhttps://github.com/LuoRenqiang/FairGUで公開されている。
関連論文リスト
- Enabling Group Fairness in Graph Unlearning via Bi-level Debiasing [11.879507789144062]
グラフアンラーニングは、トレーニングされたグラフモデルに対するユーザデータの影響を消去することで、ユーザのプライバシを保護するための重要なアプローチである。
グラフアンラーニング手法の最近の進歩は,ユーザ情報を取り除きながら,モデル予測性能の維持に重点を置いている。
プライバシと精度を維持しつつ公正性を確保するために,フェアグラフアンラーニング手法FGUを提案する。
論文 参考訳(メタデータ) (2025-05-14T18:04:02Z) - FROG: Fair Removal on Graphs [31.295786898354837]
本稿では,グラフ構造とモデルの両方を協調的に最適化し,公平な未学習を実現する新しいフレームワークを提案する。
本手法は,対象のエッジ拡張による公平性を維持しつつ,忘れることを妨げる冗長なエッジを除去し,グラフを再構成する。
実世界のデータセットに対する実験により、我々のアプローチは既存のベースラインよりも効果的で公平なアンラーニングを実現していることが示された。
論文 参考訳(メタデータ) (2025-03-23T20:39:53Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification with Limited Sensitive Information Leakage [1.5438758943381854]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。