論文の概要: Adversarial Attack Framework on Graph Embedding Models with Limited
Knowledge
- arxiv url: http://arxiv.org/abs/2105.12419v1
- Date: Wed, 26 May 2021 09:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 13:09:21.177928
- Title: Adversarial Attack Framework on Graph Embedding Models with Limited
Knowledge
- Title(参考訳): 限られた知識を持つグラフ埋め込みモデルにおける逆攻撃フレームワーク
- Authors: Heng Chang, Yu Rong, Tingyang Xu, Wenbing Huang, Honglei Zhang, Peng
Cui, Xin Wang, Wenwu Zhu, Junzhou Huang
- Abstract要約: 現存する作品は通常、ホワイトボックス方式で攻撃を行う。
ブラックボックス駆動で様々なグラフ埋め込みモデルに対処する必要がある。
GF-Attackはグラフ埋め込みモデルの層数を知ることなく効果的な攻撃を行うことができることを示す。
- 参考スコア(独自算出の注目度): 126.32842151537217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the success of the graph embedding model in both academic and industry
areas, the robustness of graph embedding against adversarial attack inevitably
becomes a crucial problem in graph learning. Existing works usually perform the
attack in a white-box fashion: they need to access the predictions/labels to
construct their adversarial loss. However, the inaccessibility of
predictions/labels makes the white-box attack impractical to a real graph
learning system. This paper promotes current frameworks in a more general and
flexible sense -- we demand to attack various kinds of graph embedding models
with black-box driven. We investigate the theoretical connections between graph
signal processing and graph embedding models and formulate the graph embedding
model as a general graph signal process with a corresponding graph filter.
Therefore, we design a generalized adversarial attacker: GF-Attack. Without
accessing any labels and model predictions, GF-Attack can perform the attack
directly on the graph filter in a black-box fashion. We further prove that
GF-Attack can perform an effective attack without knowing the number of layers
of graph embedding models. To validate the generalization of GF-Attack, we
construct the attacker on four popular graph embedding models. Extensive
experiments validate the effectiveness of GF-Attack on several benchmark
datasets.
- Abstract(参考訳): 学術分野と産業分野の両方におけるグラフ埋め込みモデルの成功により、グラフ埋め込みの頑健性は必然的にグラフ学習において重要な問題となる。
既存の作業は、通常、ホワイトボックス方式で攻撃を行う: 敵の損失を構築するには、予測やラベルにアクセスする必要がある。
しかし、予測/ラベルが使えないため、実際のグラフ学習システムではホワイトボックス攻撃は現実的ではない。
この論文は、現在のフレームワークをより汎用的で柔軟な意味で推進し、ブラックボックス駆動の様々なグラフ埋め込みモデルに対処する必要がある。
グラフ信号処理とグラフ埋め込みモデルの間の理論的関係を考察し,グラフ埋め込みモデルをグラフフィルタを用いた一般グラフ信号処理として定式化する。
そこで我々は、汎用的な敵攻撃機GF-Attackを設計する。
ラベルやモデル予測にアクセスせずに、GF-Attackはブラックボックス方式でグラフフィルタに直接攻撃を実行することができる。
さらに,GF-Attackがグラフ埋め込みモデルの層数を知ることなく効果的に攻撃できることを示す。
GF-Attackの一般化を検証するため、4つのグラフ埋め込みモデル上で攻撃者を構成する。
複数のベンチマークデータセットに対するGF-Attackの有効性を検証する。
関連論文リスト
- Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Unsupervised Graph Poisoning Attack via Contrastive Loss
Back-propagation [18.671374133506838]
本稿では,グラフのコントラスト学習にラベルを頼らない,教師なし勾配に基づく新たな逆攻撃を提案する。
我々の攻撃は教師なしベースライン攻撃よりも優れており、複数の下流タスクにおける教師なし攻撃と同等のパフォーマンスを持つ。
論文 参考訳(メタデータ) (2022-01-20T03:32:21Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Graphfool: Targeted Label Adversarial Attack on Graph Embedding [11.866894644607894]
Graphfoolは、グラフ埋め込みに対する新しいターゲットラベルの敵対的攻撃である。
境界情報と勾配情報を分類することで、逆グラフを生成してグラフ埋め込みを攻撃できる。
実世界のグラフネットワークの実験は、Graphfoolが最先端技術よりも優れたパフォーマンスを得られることを示した。
論文 参考訳(メタデータ) (2021-02-24T13:45:38Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Query-free Black-box Adversarial Attacks on Graphs [37.88689315688314]
そこで,攻撃者は対象モデルについて知識がなく,クエリーアクセスも行わないグラフに対して,クエリフリーなブラックボックス攻撃を提案する。
対象モデルに対するフリップリンクの影響をスペクトル変化によって定量化できることを証明し,固有値摂動理論を用いて近似する。
その単純さとスケーラビリティのため、提案モデルは様々なグラフベースモデルで一般的なだけでなく、異なる知識レベルがアクセス可能であれば容易に拡張できる。
論文 参考訳(メタデータ) (2020-12-12T08:52:56Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。