論文の概要: Towards Training Graph Neural Networks with Node-Level Differential
Privacy
- arxiv url: http://arxiv.org/abs/2210.04442v1
- Date: Mon, 10 Oct 2022 05:34:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 19:43:00.015191
- Title: Towards Training Graph Neural Networks with Node-Level Differential
Privacy
- Title(参考訳): ノードレベル差分プライバシーを用いたグラフニューラルネットワークのトレーニング
- Authors: Qiuchen Zhang, Jing Ma, Jian Lou, Carl Yang, Li Xiong
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ構造化データのマイニングにおいて大きな成功を収めている。
グラフの機密情報を公開できる訓練されたモデルに対して、深刻なプライバシー上の懸念が提起されている。
我々は,厳密なノードレベルの差分プライバシーを満足しつつ,実用性を確保するために,GNNモデルをトレーニングする最初の正式な研究を行う。
- 参考スコア(独自算出の注目度): 26.742884662413594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved great success in mining
graph-structured data. Despite the superior performance of GNNs in learning
graph representations, serious privacy concerns have been raised for the
trained models which could expose the sensitive information of graphs. We
conduct the first formal study of training GNN models to ensure utility while
satisfying the rigorous node-level differential privacy considering the private
information of both node features and edges. We adopt the training framework
utilizing personalized PageRank to decouple the message-passing process from
feature aggregation during training GNN models and propose differentially
private PageRank algorithms to protect graph topology information formally.
Furthermore, we analyze the privacy degradation caused by the sampling process
dependent on the differentially private PageRank results during model training
and propose a differentially private GNN (DPGNN) algorithm to further protect
node features and achieve rigorous node-level differential privacy. Extensive
experiments on real-world graph datasets demonstrate the effectiveness of the
proposed algorithms for providing node-level differential privacy while
preserving good model utility.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、グラフ構造化データのマイニングで大きな成功を収めた。
グラフ表現の学習におけるGNNの優れたパフォーマンスにもかかわらず、グラフの機密情報を公開可能なトレーニングされたモデルに対して、深刻なプライバシー上の懸念が提起されている。
ノードの特徴とエッジのプライベート情報を考慮した厳密なノードレベルの差分プライバシを満足しながら,実用性を確保するためのgnnモデルのトレーニングに関する最初の正式な研究を行った。
本稿では,gnnモデルの学習中に,パーソナライズされたページランクを利用してメッセージパッシングプロセスを特徴集約から切り離し,グラフトポロジ情報を形式的に保護する差分プライベートページランクアルゴリズムを提案する。
さらに、モデルトレーニング中の差分プライベートPageRank結果に依存するサンプリングプロセスによるプライバシー劣化を分析し、ノードの特徴をさらに保護し、厳密なノードレベルの差分プライバシーを実現するための差分プライベートGNN(DPGNN)アルゴリズムを提案する。
実世界のグラフデータセットに対する大規模な実験は、優れたモデルユーティリティを保ちながらノードレベルの差分プライバシーを提供するための提案アルゴリズムの有効性を示す。
関連論文リスト
- Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - SplitGNN: Splitting GNN for Node Classification with Heterogeneous
Attention [29.307331758493323]
グラフ計算のための分割学習型グラフニューラルネットワーク(SplitGNN)を提案する。
我々のSplitGNNは、孤立した異種地区を協調的に利用できるようにする。
2つの標準公開データセットと実世界のデータセットのノード分類タスクにおけるSplitGNNの有効性を示す。
論文 参考訳(メタデータ) (2023-01-27T12:08:44Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - Node-Level Differentially Private Graph Neural Networks [14.917945355629563]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをモデル化するための一般的な手法である。
この研究は、ノードレベルのプライバシで1層GNNを学習する問題を正式に定義する。
強力な差分プライバシー保証を備えたアルゴリズムによるソリューションを提供する。
論文 参考訳(メタデータ) (2021-11-23T16:18:53Z) - Noise-robust Graph Learning by Estimating and Leveraging Pairwise
Interactions [123.07967420310796]
本稿では,グラフ上のノイズノード分類のためのペアワイズフレームワークを提案することにより,そのギャップを埋める。
PI-GNNは、ノイズの多いノードクラスラベルからのポイントワイズ学習に加えて、PIを一次学習プロキシとして依存している。
提案するフレームワークPI-GNNは,(1)PIラベルを適応的に推定する信頼度を考慮したPI推定モデル,(2)PIラベルを推定する疎結合トレーニング手法の2つの新しい構成要素に寄与する。
論文 参考訳(メタデータ) (2021-06-14T14:23:08Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。