論文の概要: ELEGANT: Certified Defense on the Fairness of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2311.02757v1
- Date: Sun, 5 Nov 2023 20:29:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:02:52.094701
- Title: ELEGANT: Certified Defense on the Fairness of Graph Neural Networks
- Title(参考訳): ELEGANT: グラフニューラルネットワークの公正性に関する認証された防御
- Authors: Yushun Dong, Binchi Zhang, Hanghang Tong, Jundong Li
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
- 参考スコア(独自算出の注目度): 94.10433608311604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as a prominent graph learning model
in various graph-based tasks over the years. Nevertheless, due to the
vulnerabilities of GNNs, it has been empirically proved that malicious
attackers could easily corrupt the fairness level of their predictions by
adding perturbations to the input graph data. In this paper, we take crucial
steps to study a novel problem of certifiable defense on the fairness level of
GNNs. Specifically, we propose a principled framework named ELEGANT and present
a detailed theoretical certification analysis for the fairness of GNNs. ELEGANT
takes any GNNs as its backbone, and the fairness level of such a backbone is
theoretically impossible to be corrupted under certain perturbation budgets for
attackers. Notably, ELEGANT does not have any assumption over the GNN structure
or parameters, and does not require re-training the GNNs to realize
certification. Hence it can serve as a plug-and-play framework for any
optimized GNNs ready to be deployed. We verify the satisfactory effectiveness
of ELEGANT in practice through extensive experiments on real-world datasets
across different backbones of GNNs, where ELEGANT is also demonstrated to be
beneficial for GNN debiasing. Open-source code can be found at
https://github.com/yushundong/ELEGANT.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフベースのタスクにおいて、長年にわたって顕著なグラフ学習モデルとして現れてきた。
しかしながら、GNNの脆弱性のため、悪意のある攻撃者が入力グラフデータに摂動を加えることで、予測の公平度を容易に損なうことが実証されている。
本稿では,gnnの公平性レベルを検証可能な防御の新たな問題を検討するために,重要なステップを踏み出す。
具体的には、ELEGANTという原理的なフレームワークを提案し、GNNの公正性に関する詳細な理論的証明分析を行う。
ELEGANTは任意のGNNをバックボーンとしており、そのようなバックボーンの公平度は、攻撃者に対する特定の摂動予算の下では理論的に破壊できない。
特に、ELEGANTはGNNの構造やパラメータに関する仮定を持っておらず、認証を実現するためにGNNを再訓練する必要はない。
従って、デプロイ可能な最適化GNNのプラグイン・アンド・プレイフレームワークとして機能することが可能になる。
GNNのさまざまなバックボーンにまたがる実世界のデータセットに関する広範な実験を通じて,実際にELEGANTの有効性を検証する。
オープンソースのコードはhttps://github.com/yushundong/elegantにある。
関連論文リスト
- IDEA: A Flexible Framework of Certified Unlearning for Graph Neural Networks [68.6374698896505]
グラフニューラルネットワーク(GNN)は、ますます多くのアプリケーションにデプロイされている。
トレーニングされたGNNがデプロイされ、潜在的攻撃者に対して公開されると、プライバシリークが発生する可能性がある。
我々は,GNNのための柔軟で認定されたアンラーニングを実現するために,IDEAというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-28T04:59:59Z) - Are Your Models Still Fair? Fairness Attacks on Graph Neural Networks via Node Injections [28.86365261170078]
グラフニューラルネットワーク(GNN)では、悪意のある敵対的攻撃に直面した際の公正な脆弱性が明らかにされている。
我々は、より現実的な環境でGNNフェアネスの脆弱性を探求するノードインジェクションベースのフェアネスアタック(NIFA)を紹介する。
NIFAは、ノードの1%だけを注入することで、フェアネスを意識したGNNを含むメインストリームのGNNの公平性を著しく損なう可能性がある。
論文 参考訳(メタデータ) (2024-06-05T08:26:53Z) - Adversarial Attacks on Fairness of Graph Neural Networks [63.155299388146176]
公正を意識したグラフニューラルネットワーク(GNN)は、どの人口集団でも予測のバイアスを減らすことができるため、注目を集めている。
これらの手法はGNNのアルゴリズム的公正性を大幅に改善するが、慎重に設計された敵攻撃によって容易に公正性を損なうことができる。
論文 参考訳(メタデータ) (2023-10-20T21:19:54Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Say No to the Discrimination: Learning Fair Graph Neural Networks with
Limited Sensitive Attribute Information [37.90997236795843]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて大きな力を示している。
GNNは、皮膚の色や性別など、保護された機密属性に偏った予測を行う。
高いノード分類精度を維持しつつ,GNNのバイアスを取り除くためにFairGNNを提案する。
論文 参考訳(メタデータ) (2020-09-03T05:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。