論文の概要: Does Black-box Attribute Inference Attacks on Graph Neural Networks
Constitute Privacy Risk?
- arxiv url: http://arxiv.org/abs/2306.00578v1
- Date: Thu, 1 Jun 2023 11:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 16:32:17.119037
- Title: Does Black-box Attribute Inference Attacks on Graph Neural Networks
Constitute Privacy Risk?
- Title(参考訳): グラフニューラルネットワークにおけるブラックボックス属性推論攻撃はプライバシリスクか?
- Authors: Iyiola E. Olatunji, Anmar Hizber, Oliver Sihlovec, Megha Khosla
- Abstract要約: グラフニューラルネットワーク(GNN)は、医療、金融、教育など、現実のデータセットとアプリケーションに対して有望な結果を示している。
近年の研究では、GNNはメンバーシップ推論攻撃やリンク再構築攻撃のような攻撃に対して非常に脆弱であることが示されている。
攻撃者が、彼女のパブリック属性や非センシティブ属性に基づいて、センシティブなユーザ属性を推論することを目的とした、属性推論攻撃に関する最初の調査を開始する。
- 参考スコア(独自算出の注目度): 0.38581147665516596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have shown promising results on real-life
datasets and applications, including healthcare, finance, and education.
However, recent studies have shown that GNNs are highly vulnerable to attacks
such as membership inference attack and link reconstruction attack.
Surprisingly, attribute inference attacks has received little attention. In
this paper, we initiate the first investigation into attribute inference attack
where an attacker aims to infer the sensitive user attributes based on her
public or non-sensitive attributes. We ask the question whether black-box
attribute inference attack constitutes a significant privacy risk for
graph-structured data and their corresponding GNN model. We take a systematic
approach to launch the attacks by varying the adversarial knowledge and
assumptions. Our findings reveal that when an attacker has black-box access to
the target model, GNNs generally do not reveal significantly more information
compared to missing value estimation techniques. Code is available.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、医療、金融、教育など、現実のデータセットやアプリケーションで有望な結果を示している。
しかし、近年の研究では、GNNはメンバーシップ推論攻撃やリンク再構築攻撃のような攻撃に対して非常に脆弱であることが示されている。
驚いたことに、属性推論攻撃はほとんど注目を集めていない。
本稿では,アタッカーが,パブリック属性や非センシティブ属性に基づいてセンシティブなユーザ属性を推測することを目的とした,属性推論攻撃の初回調査を開始する。
我々は,ブラックボックス属性推論攻撃がグラフ構造化データとその対応するGNNモデルに対する重要なプライバシーリスクを構成するかどうかを問う。
我々は、敵の知識や仮定を変えて攻撃を開始するための体系的なアプローチをとる。
この結果から,攻撃者がターゲットモデルにブラックボックスアクセスを行う場合,GNNは一般に,欠落した値推定手法に比べてはるかに多くの情報を明らかにしないことがわかった。
コードは利用可能。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Structack: Structure-based Adversarial Attacks on Graph Neural Networks [1.795391652194214]
攻撃者はグラフ構造にのみアクセスできるが,ノード属性に関する情報は得られない。
構造に基づく非情報攻撃は情報攻撃の性能に近づき、計算効率が良くなることを示す。
Structackは、厳密な計算制約の下で動作しながら、非常に限られた情報でGNNの性能を操作できる。
論文 参考訳(メタデータ) (2021-07-23T16:17:10Z) - Node-Level Membership Inference Attacks Against Graph Neural Networks [29.442045622210532]
新しい機械学習(ML)モデル、すなわちグラフニューラルネットワーク(GNN)が導入された。
これまでの研究では、機械学習モデルはプライバシー攻撃に弱いことが示されている。
本稿では,GNNに対するノードレベルメンバシップ推論攻撃の包括的解析を行う。
論文 参考訳(メタデータ) (2021-02-10T13:51:54Z) - Membership Inference Attack on Graph Neural Networks [1.6457778420360536]
我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
論文 参考訳(メタデータ) (2021-01-17T02:12:35Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。