論文の概要: Query-based Adversarial Attacks on Graph with Fake Nodes
- arxiv url: http://arxiv.org/abs/2109.13069v1
- Date: Mon, 27 Sep 2021 14:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:43:53.020542
- Title: Query-based Adversarial Attacks on Graph with Fake Nodes
- Title(参考訳): Fake Nodesを使用したグラフ上のクエリベースの逆攻撃
- Authors: Zhengyi Wang, Zhongkai Hao, Hang Su, Jun Zhu
- Abstract要約: そこで本研究では,元のグラフに偽ノードの集合を導入することで,新たな敵攻撃を提案する。
具体的には、各被害者ノードに対して、最も敵対的な特徴を取得するよう、被害者モデルに問い合わせる。
私たちの攻撃は実用的で目立たない方法で行われます。
- 参考スコア(独自算出の注目度): 32.67989796394633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks have achieved great success on the graph analysis,
recent works have shown that they are also vulnerable to adversarial attacks
where fraudulent users can fool the model with a limited number of queries.
Compared with adversarial attacks on image classification, performing
adversarial attack on graphs is challenging because of the discrete and
non-differential nature of a graph. To address these issues, we proposed
Cluster Attack, a novel adversarial attack by introducing a set of fake nodes
to the original graph which can mislead the classification on certain victim
nodes. Specifically, we query the victim model for each victim node to acquire
their most adversarial feature, which is related to how the fake node's feature
will affect the victim nodes. We further cluster the victim nodes into several
subgroups according to their most adversarial features such that we can reduce
the searching space. Moreover, our attack is performed in a practical and
unnoticeable manner: (1) We protect the predicted labels of nodes which we are
not aimed for from being changed during attack. (2) We attack by introducing
fake nodes into the original graph without changing existing links and
features. (3) We attack with only partial information about the attacked graph,
i.e., by leveraging the information of victim nodes along with their neighbors
within $k$-hop instead of the whole graph. (4) We perform attack with a limited
number of queries about the predicted scores of the model in a black-box
manner, i.e., without model architecture and parameters. Extensive experiments
demonstrate the effectiveness of our method in terms of the success rate of
attack.
- Abstract(参考訳): ディープニューラルネットワークはグラフ解析において大きな成功を収めているが、最近の研究では、不正なユーザが限られたクエリ数でモデルを騙せる敵攻撃にも弱いことが示されている。
画像分類に対する敵対的攻撃と比較して、グラフの離散性と非微分性のため、グラフに対する敵対的攻撃を実行することは困難である。
これらの問題に対処するために,我々は,特定の被害者ノードの分類を誤解させるような偽ノードの集合を元のグラフに導入することにより,新たな敵対攻撃であるクラスタアタックを提案する。
具体的には、被害者ノード毎の被害者モデルに問い合わせて、最も敵対的な機能を取得する。
我々はさらに、探索空間を縮小できるような最も敵対的な特徴に従って、被害者ノードを複数のサブグループにクラスタリングする。
また,本攻撃は,(1)攻撃時に変更されないように意図されていないノードのラベルを保護し,実用的かつ注意すべきでない方法で実施する。
2) 既存のリンクや機能を変更することなく,元のグラフに偽ノードを導入することで攻撃する。
3)攻撃対象のグラフ、すなわち、被害者のノードの情報と隣人に関する情報をグラフ全体ではなく$k$-hop内で活用することで、部分的な情報のみを用いて攻撃を行う。
(4) モデルアーキテクチャやパラメータを使わずに,ブラックボックス方式でモデルを予測したスコアについて,限られたクエリ数でアタックを実行する。
広範な実験により,攻撃成功率の観点から本手法の有効性を実証した。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - GUAP: Graph Universal Attack Through Adversarial Patching [12.484396767037925]
グラフニューラルネットワーク(GNN)は、ノード分類タスクのための効果的なディープラーニングモデルのクラスである。
本研究では,新たなノードとエッジでグラフを逆パッチすることで,より容易な攻撃を見極める。
我々はGUAPと呼ばれるアルゴリズムを開発し、高い攻撃成功率を達成できるが、予測精度は維持できる。
論文 参考訳(メタデータ) (2023-01-04T18:02:29Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Scalable Attack on Graph Data by Injecting Vicious Nodes [44.56647129718062]
グラフ畳み込みネットワーク(GCN)は、注意深い設計の攻撃に対して脆弱である。
我々は、より実用的な攻撃シナリオを考慮した、よりスケーラブルなフレームワークであるApproximate Fast Gradient Sign Method (AFGSM)を開発した。
提案手法はGCNの分類精度を大幅に低減し,攻撃性能を損なうことなく既存の手法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-22T02:11:13Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z) - Adversarial Attack on Community Detection by Hiding Individuals [68.76889102470203]
我々はブラックボックス攻撃に焦点をあて、ディープグラフコミュニティ検出モデルの検出からターゲット個人を隠すことを目的としている。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-22T09:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。