論文の概要: Model Inversion Attacks on Homogeneous and Heterogeneous Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2310.09800v1
- Date: Sun, 15 Oct 2023 11:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 18:00:03.697143
- Title: Model Inversion Attacks on Homogeneous and Heterogeneous Graph Neural
Networks
- Title(参考訳): 均一・不均一グラフニューラルネットワークにおけるモデル反転攻撃
- Authors: Renyang Liu, Wei Zhou, Jinhong Zhang, Xiaoyuan Liu, Peiyuan Si, Haoran
Li
- Abstract要約: HomoGMI と HeteGMI は、目標GNN におけるクロスエントロピー損失を最大化することを目的とした勾配差に基づく最適化手法である。
HeteGMIは、HeteGNNに対してモデル反転攻撃を行う最初の試みである。
- 参考スコア(独自算出の注目度): 6.569169627119353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Graph Neural Networks (GNNs), including Homogeneous Graph Neural
Networks (HomoGNNs) and Heterogeneous Graph Neural Networks (HeteGNNs), have
made remarkable progress in many physical scenarios, especially in
communication applications. Despite achieving great success, the privacy issue
of such models has also received considerable attention. Previous studies have
shown that given a well-fitted target GNN, the attacker can reconstruct the
sensitive training graph of this model via model inversion attacks, leading to
significant privacy worries for the AI service provider. We advocate that the
vulnerability comes from the target GNN itself and the prior knowledge about
the shared properties in real-world graphs. Inspired by this, we propose a
novel model inversion attack method on HomoGNNs and HeteGNNs, namely HomoGMI
and HeteGMI. Specifically, HomoGMI and HeteGMI are gradient-descent-based
optimization methods that aim to maximize the cross-entropy loss on the target
GNN and the $1^{st}$ and $2^{nd}$-order proximities on the reconstructed graph.
Notably, to the best of our knowledge, HeteGMI is the first attempt to perform
model inversion attacks on HeteGNNs. Extensive experiments on multiple
benchmarks demonstrate that the proposed method can achieve better performance
than the competitors.
- Abstract(参考訳): 近年,ホモジニアスグラフニューラルネットワーク (HomoGNN) やヘテロジニアスグラフニューラルネットワーク (HeteGNN) を含むグラフニューラルネットワーク (GNN) は,多くの物理的シナリオ,特に通信アプリケーションにおいて顕著な進歩を遂げている。
大きな成功を収めたものの、こうしたモデルのプライバシー問題も大きな注目を集めている。
従来の研究によると、十分に適合したターゲットGNNが与えられた場合、攻撃者はモデル反転攻撃によってこのモデルのセンシティブなトレーニンググラフを再構築できる。
我々は、この脆弱性は、ターゲットのGNN自身と、現実世界のグラフにおける共有プロパティに関する以前の知識から来ていることを主張する。
そこで本研究では,HomoGNNとHeteGNNのモデル反転攻撃手法,すなわちHomoGMIとHeteGMIを提案する。
具体的には、HomoGMI と HeteGMI は、目標 GNN 上のクロスエントロピー損失を最大化し、再構成されたグラフ上の 1^{st}$ および $2^{nd}$-order の近似を最大化することを目的とした勾配依存性に基づく最適化手法である。
私たちの知る限りでは、HeteGMIはHeteGNNに対するモデル逆攻撃を行う最初の試みである。
複数のベンチマーク実験により,提案手法は競合他社よりも優れた性能が得られることが示された。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Attentional Graph Neural Networks for Robust Massive Network
Localization [20.416879207269446]
グラフニューラルネットワーク(GNN)は、機械学習における分類タスクの顕著なツールとして登場した。
本稿では,GNNとアテンション機構を統合し,ネットワークローカライゼーションという難解な非線形回帰問題に対処する。
我々はまず,厳密な非視線(NLOS)条件下でも例外的な精度を示すグラフ畳み込みネットワーク(GCN)に基づく新しいネットワークローカライゼーション手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T15:05:13Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Ranking Structured Objects with Graph Neural Networks [0.0]
RankGNNはグラフ間のペアワイズ選好のセットでトレーニングされており、一方が他方よりも好まれていることを示唆している。
この問題の実用的な適用の1つは薬剤の候補者の大規模なコレクションの最も有望な分子を見つけたいと思う薬剤のスクリーニングです。
提案するペアワイズrankgnnアプローチが,平均的なポイントワイズベースラインアプローチのランキング性能を有意に上回っているか,少なくとも同等であることを示す。
論文 参考訳(メタデータ) (2021-04-18T14:40:59Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。