論文の概要: On the Interaction between Node Fairness and Edge Privacy in Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2301.12951v1
- Date: Mon, 30 Jan 2023 14:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 14:13:31.455652
- Title: On the Interaction between Node Fairness and Edge Privacy in Graph
Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるノードフェアネスとエッジプライバシの相互作用について
- Authors: He Zhang, Xingliang Yuan, Quoc Viet Hung Nguyen and Shirui Pan
- Abstract要約: 本稿では,GNNの公平性とプライバシとの相互作用を初めて考察する。
ノードの個別の公平性が向上すると、エッジプライバシのリスクが増加することを実証的に確認する。
本稿では, 公正な再重み付けとプライバシに配慮したグラフ構造摂動モジュールをリトレーニング機構に実装することを提案する。
- 参考スコア(独自算出の注目度): 54.922084348041864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the emergence of graph neural networks (GNNs) and their widespread
implementation in real-world scenarios, the fairness and privacy of GNNs have
attracted considerable interest since they are two essential social concerns in
the era of building trustworthy GNNs. Existing studies have respectively
explored the fairness and privacy of GNNs and exhibited that both fairness and
privacy are at the cost of GNN performance. However, the interaction between
them is yet to be explored and understood. In this paper, we investigate the
interaction between the fairness of a GNN and its privacy for the first time.
We empirically identify that edge privacy risks increase when the individual
fairness of nodes is improved. Next, we present the intuition behind such a
trade-off and employ the influence function and Pearson correlation to measure
it theoretically. To take the performance, fairness, and privacy of GNNs into
account simultaneously, we propose implementing fairness-aware reweighting and
privacy-aware graph structure perturbation modules in a retraining mechanism.
Experimental results demonstrate that our method is effective in implementing
GNN fairness with limited performance cost and restricted privacy risks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の出現と、現実のシナリオにおける広範な実装により、GNNの公正性とプライバシは、信頼できるGNNの構築において2つの重要な社会的関心事であるため、かなりの関心を集めている。
既存の研究では、GNNの公平性とプライバシをそれぞれ調査し、公正性とプライバシの両方がGNNのパフォーマンスの犠牲であることを示した。
しかし、それらの相互作用はまだ解明されていない。
本稿では,GNNの公平性とプライバシとの相互作用を初めて考察する。
ノードの個別の公平性が向上すると、エッジプライバシのリスクが増加することを実証的に確認する。
次に,このようなトレードオフの背後にある直観を提示し,影響関数とピアソン相関を用いて理論的に測定する。
本稿では,GNNの性能,公平性,プライバシを同時に考慮し,公正性を考慮した再重み付けとプライバシを考慮したグラフ構造摂動モジュールをリトレーニング機構に実装することを提案する。
実験により,本手法は性能コストの制限とプライバシーリスクの制限によるGNNフェアネスの実現に有効であることが示された。
関連論文リスト
- GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models [3.0509197593879844]
本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
論文 参考訳(メタデータ) (2023-11-03T20:26:03Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs [7.626349365968476]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークなどのグラフ上で表現を学習するための強力なツールである。
プライバシを保存するGNNは、ノードやリンクのプライバシの保護に重点を置いて提案されている。
本稿では,ノードとリンクの両方を効果的に保護するプライバシー保護型GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:46:43Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Releasing Graph Neural Networks with Differential Privacy Guarantees [0.81308403220442]
我々は,GNNモデルを集中的にリリースするためのプライバシ保護フレームワークであるPrivGNNを提案する。
PrivGNNは、知識蒸留フレームワークとランダムサブサンプリングとノイズラベリングという2つのノイズメカニズムを組み合わせることで、厳格なプライバシー保証を保証する。
論文 参考訳(メタデータ) (2021-09-18T11:35:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。