論文の概要: Releasing Graph Neural Networks with Differential Privacy Guarantees
- arxiv url: http://arxiv.org/abs/2109.08907v2
- Date: Thu, 2 Nov 2023 05:37:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 18:47:50.207772
- Title: Releasing Graph Neural Networks with Differential Privacy Guarantees
- Title(参考訳): 差分プライバシー保証を備えたグラフニューラルネットワークのリリース
- Authors: Iyiola E. Olatunji, Thorben Funke, and Megha Khosla
- Abstract要約: 我々は,GNNモデルを集中的にリリースするためのプライバシ保護フレームワークであるPrivGNNを提案する。
PrivGNNは、知識蒸留フレームワークとランダムサブサンプリングとノイズラベリングという2つのノイズメカニズムを組み合わせることで、厳格なプライバシー保証を保証する。
- 参考スコア(独自算出の注目度): 0.81308403220442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing popularity of graph neural networks (GNNs) in several
sensitive applications like healthcare and medicine, concerns have been raised
over the privacy aspects of trained GNNs. More notably, GNNs are vulnerable to
privacy attacks, such as membership inference attacks, even if only black-box
access to the trained model is granted. We propose PrivGNN, a
privacy-preserving framework for releasing GNN models in a centralized setting.
Assuming an access to a public unlabeled graph, PrivGNN provides a framework to
release GNN models trained explicitly on public data along with knowledge
obtained from the private data in a privacy preserving manner. PrivGNN combines
the knowledge-distillation framework with the two noise mechanisms, random
subsampling, and noisy labeling, to ensure rigorous privacy guarantees. We
theoretically analyze our approach in the Renyi differential privacy framework.
Besides, we show the solid experimental performance of our method compared to
several baselines adapted for graph-structured data. Our code is available at
https://github.com/iyempissy/privGnn.
- Abstract(参考訳): 医療や医療などの機密性の高いアプリケーションでグラフニューラルネットワーク(GNN)の人気が高まっているため、トレーニングされたGNNのプライバシー面で懸念が高まっている。
特に、GNNは、トレーニングされたモデルへのブラックボックスアクセスのみを許可しても、メンバーシップ推論攻撃のようなプライバシー攻撃に弱い。
我々は,GNNモデルを集中的にリリースするためのプライバシ保護フレームワークであるPrivGNNを提案する。
公開されていないグラフへのアクセスを前提として、PrivGNNは、公開データに基づいて明示的にトレーニングされたGNNモデルと、プライベートデータから得られた知識をプライバシ保護形式でリリースするフレームワークを提供する。
PrivGNNは、知識蒸留フレームワークとランダムサブサンプリングとノイズラベリングという2つのノイズメカニズムを組み合わせて、厳格なプライバシー保証を保証する。
我々は、Renyi差分プライバシーフレームワークにおける我々のアプローチを理論的に分析する。
さらに,グラフ構造化データに適用したいくつかのベースラインと比較して,本手法の固体実験性能を示す。
私たちのコードはhttps://github.com/iyempissy/privgnnで入手できる。
関連論文リスト
- Privacy-Preserved Neural Graph Databases [52.1165903128359]
NGDBにおけるプライバシー漏洩のリスクを軽減するために,プライバシ保存型ニューラルグラフデータベース(P-NGDB)フレームワークを提案する。
本研究は,NGDBを訓練段階に導入し,個人情報で質問したときの識別不能な回答を生成する。
論文 参考訳(メタデータ) (2023-12-25T02:32:05Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs [7.626349365968476]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークなどのグラフ上で表現を学習するための強力なツールである。
プライバシを保存するGNNは、ノードやリンクのプライバシの保護に重点を置いて提案されている。
本稿では,ノードとリンクの両方を効果的に保護するプライバシー保護型GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:46:43Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Node Injection Link Stealing Attack [0.649970685896541]
グラフ構造化データ内のプライベートリンクを推測することにより、グラフニューラルネットワーク(GNN)のプライバシ脆弱性を露呈する、ステルスで効果的な攻撃を提案する。
我々の研究は、GNNに固有のプライバシの脆弱性を強調し、アプリケーションの堅牢なプライバシ保護メカニズムを開発することの重要性を強調しています。
論文 参考訳(メタデータ) (2023-07-25T14:51:01Z) - ProGAP: Progressive Graph Neural Networks with Differential Privacy
Guarantees [8.79398901328539]
グラフニューラルネットワーク(GNN)は、グラフを学習するための一般的なツールとなっているが、広く使われているため、プライバシの懸念が高まる。
本稿では,ProGAPと呼ばれる新たなGNNを提案し,プログレッシブトレーニング手法を用いて,そのような精度とプライバシのトレードオフを改善する。
論文 参考訳(メタデータ) (2023-04-18T12:08:41Z) - On the Interaction between Node Fairness and Edge Privacy in Graph
Neural Networks [54.922084348041864]
本稿では,GNNの公平性とプライバシとの相互作用を初めて考察する。
ノードの個別の公平性が向上すると、エッジプライバシのリスクが増加することを実証的に確認する。
本稿では, 公正な再重み付けとプライバシに配慮したグラフ構造摂動モジュールをリトレーニング機構に実装することを提案する。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Towards Private Learning on Decentralized Graphs with Local Differential
Privacy [45.47822758278652]
em Solitudeはグラフニューラルネットワーク(GNN)に基づく新しいプライバシー保護学習フレームワーク
我々の新しいフレームワークは、ノード機能のプライバシとエッジのプライバシを同時に保護し、あらゆるGNNとシームレスにプライバシユーティリティの保証を組み込むことができます。
論文 参考訳(メタデータ) (2022-01-23T23:20:56Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。