論文の概要: Certified Defense on the Fairness of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2311.02757v2
- Date: Fri, 04 Apr 2025 05:00:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:46:40.727239
- Title: Certified Defense on the Fairness of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの公正性に関する認証保護
- Authors: Yushun Dong, Binchi Zhang, Hanghang Tong, Jundong Li,
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
- 参考スコア(独自算出の注目度): 86.14235652889242
- License:
- Abstract: Graph Neural Networks (GNNs) have emerged as a prominent graph learning model in various graph-based tasks over the years. Nevertheless, due to the vulnerabilities of GNNs, it has been empirically proved that malicious attackers could easily corrupt the fairness level of their predictions by adding perturbations to the input graph data. In this paper, we take crucial steps to study a novel problem of certifiable defense on the fairness level of GNNs. Specifically, we propose a principled framework named ELEGANT and present a detailed theoretical certification analysis for the fairness of GNNs. ELEGANT takes any GNNs as its backbone, and the fairness level of such a backbone is theoretically impossible to be corrupted under certain perturbation budgets for attackers. Notably, ELEGANT does not have any assumption over the GNN structure or parameters, and does not require re-training the GNNs to realize certification. Hence it can serve as a plug-and-play framework for any optimized GNNs ready to be deployed. We verify the satisfactory effectiveness of ELEGANT in practice through extensive experiments on real-world datasets across different backbones of GNNs, where ELEGANT is also demonstrated to be beneficial for GNN debiasing. Open-source code can be found at https://github.com/yushundong/ELEGANT.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフベースのタスクにおいて、長年にわたって顕著なグラフ学習モデルとして現れてきた。
しかしながら、GNNの脆弱性のため、悪意のある攻撃者が入力グラフデータに摂動を加えることで、予測の公平度を容易に損なうことが実証されている。
本稿では,GNNの公正度レベルにおける認証防御の新たな課題について検討する。
具体的には、ELEGANTという原理的なフレームワークを提案し、GNNの公正性に関する詳細な理論的証明分析を行う。
ELEGANTはGNNをバックボーンとしており、そのようなバックボーンの公平度は、攻撃者に対する特定の摂動予算の下では理論上は損なわれることは不可能である。
特に、ELEGANTはGNNの構造やパラメータに関する仮定を持っておらず、認証を実現するためにGNNを再訓練する必要はない。
従って、デプロイ可能な最適化GNNのプラグイン・アンド・プレイフレームワークとして機能することが可能になる。
GNNのさまざまなバックボーンにまたがる実世界のデータセットに関する広範な実験を通じて,実際にELEGANTの有効性を検証する。
オープンソースコードはhttps://github.com/yushundong/ELEGANTで見ることができる。
関連論文リスト
- IDEA: A Flexible Framework of Certified Unlearning for Graph Neural Networks [68.6374698896505]
グラフニューラルネットワーク(GNN)は、ますます多くのアプリケーションにデプロイされている。
トレーニングされたGNNがデプロイされ、潜在的攻撃者に対して公開されると、プライバシリークが発生する可能性がある。
我々は,GNNのための柔軟で認定されたアンラーニングを実現するために,IDEAというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-28T04:59:59Z) - Are Your Models Still Fair? Fairness Attacks on Graph Neural Networks via Node Injections [28.86365261170078]
グラフニューラルネットワーク(GNN)では、悪意のある敵対的攻撃に直面した際の公正な脆弱性が明らかにされている。
我々は、より現実的な環境でGNNフェアネスの脆弱性を探求するノードインジェクションベースのフェアネスアタック(NIFA)を紹介する。
NIFAは、ノードの1%だけを注入することで、フェアネスを意識したGNNを含むメインストリームのGNNの公平性を著しく損なう可能性がある。
論文 参考訳(メタデータ) (2024-06-05T08:26:53Z) - Adversarial Attacks on Fairness of Graph Neural Networks [63.155299388146176]
公正を意識したグラフニューラルネットワーク(GNN)は、どの人口集団でも予測のバイアスを減らすことができるため、注目を集めている。
これらの手法はGNNのアルゴリズム的公正性を大幅に改善するが、慎重に設計された敵攻撃によって容易に公正性を損なうことができる。
論文 参考訳(メタデータ) (2023-10-20T21:19:54Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Say No to the Discrimination: Learning Fair Graph Neural Networks with
Limited Sensitive Attribute Information [37.90997236795843]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて大きな力を示している。
GNNは、皮膚の色や性別など、保護された機密属性に偏った予測を行う。
高いノード分類精度を維持しつつ,GNNのバイアスを取り除くためにFairGNNを提案する。
論文 参考訳(メタデータ) (2020-09-03T05:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。