論文の概要: Structack: Structure-based Adversarial Attacks on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2107.11327v1
- Date: Fri, 23 Jul 2021 16:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 14:13:21.343119
- Title: Structack: Structure-based Adversarial Attacks on Graph Neural Networks
- Title(参考訳): Structack: グラフニューラルネットワーク上の構造に基づく逆攻撃
- Authors: Hussain Hussain, Tomislav Duricic, Elisabeth Lex, Denis Helic, Markus
Strohmaier, Roman Kern
- Abstract要約: 攻撃者はグラフ構造にのみアクセスできるが,ノード属性に関する情報は得られない。
構造に基づく非情報攻撃は情報攻撃の性能に近づき、計算効率が良くなることを示す。
Structackは、厳密な計算制約の下で動作しながら、非常に限られた情報でGNNの性能を操作できる。
- 参考スコア(独自算出の注目度): 1.795391652194214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown that graph neural networks (GNNs) are vulnerable to
adversarial attacks on graph data. Common attack approaches are typically
informed, i.e. they have access to information about node attributes such as
labels and feature vectors. In this work, we study adversarial attacks that are
uninformed, where an attacker only has access to the graph structure, but no
information about node attributes. Here the attacker aims to exploit structural
knowledge and assumptions, which GNN models make about graph data. In
particular, literature has shown that structural node centrality and similarity
have a strong influence on learning with GNNs. Therefore, we study the impact
of centrality and similarity on adversarial attacks on GNNs. We demonstrate
that attackers can exploit this information to decrease the performance of GNNs
by focusing on injecting links between nodes of low similarity and,
surprisingly, low centrality. We show that structure-based uninformed attacks
can approach the performance of informed attacks, while being computationally
more efficient. With our paper, we present a new attack strategy on GNNs that
we refer to as Structack. Structack can successfully manipulate the performance
of GNNs with very limited information while operating under tight computational
constraints. Our work contributes towards building more robust machine learning
approaches on graphs.
- Abstract(参考訳): 近年の研究では、グラフニューラルネットワーク(GNN)がグラフデータに対する敵攻撃に対して脆弱であることが示されている。
一般的な攻撃アプローチは一般的には情報である。
彼らはラベルや特徴ベクトルなどのノード属性に関する情報にアクセスできる。
本研究では,攻撃者がグラフ構造にのみアクセスできるが,ノード属性に関する情報が得られない非インフォームな攻撃について検討する。
ここで攻撃者は、GNNモデルがグラフデータで生み出す構造的知識と仮定を活用することを目指している。
特に、構造ノードの中央性と類似性はGNNによる学習に強い影響を与えることが文献で示されている。
そこで我々は,GNNに対する敵対的攻撃に対する中心性と類似性の影響について検討した。
我々は,この情報を利用して,類似度の低いノード間のリンクの注入に注目することで,gnnの性能を低下させることを実証する。
構造に基づく非情報攻撃は情報攻撃の性能に近づき、計算効率が良くなることを示す。
本稿では,GNNに対する新たな攻撃戦略について述べる。
Structackは、厳密な計算制約の下で動作しながら、非常に限られた情報でGNNのパフォーマンスをうまく操作できる。
私たちの研究は、グラフ上でより堅牢な機械学習アプローチの構築に寄与します。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Node-Level Membership Inference Attacks Against Graph Neural Networks [29.442045622210532]
新しい機械学習(ML)モデル、すなわちグラフニューラルネットワーク(GNN)が導入された。
これまでの研究では、機械学習モデルはプライバシー攻撃に弱いことが示されている。
本稿では,GNNに対するノードレベルメンバシップ推論攻撃の包括的解析を行う。
論文 参考訳(メタデータ) (2021-02-10T13:51:54Z) - Membership Inference Attack on Graph Neural Networks [1.6457778420360536]
我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
論文 参考訳(メタデータ) (2021-01-17T02:12:35Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。