論文の概要: Graphfool: Targeted Label Adversarial Attack on Graph Embedding
- arxiv url: http://arxiv.org/abs/2102.12284v1
- Date: Wed, 24 Feb 2021 13:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 13:23:50.781115
- Title: Graphfool: Targeted Label Adversarial Attack on Graph Embedding
- Title(参考訳): Graphfool:Graph Embedding上のターゲットラベル逆アタック
- Authors: Jinyin Chen, Xiang Lin, Dunjie Zhang, Wenrong Jiang, Guohan Huang, Hui
Xiong, and Yun Xiang
- Abstract要約: Graphfoolは、グラフ埋め込みに対する新しいターゲットラベルの敵対的攻撃である。
境界情報と勾配情報を分類することで、逆グラフを生成してグラフ埋め込みを攻撃できる。
実世界のグラフネットワークの実験は、Graphfoolが最先端技術よりも優れたパフォーマンスを得られることを示した。
- 参考スコア(独自算出の注目度): 11.866894644607894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning is effective in graph analysis. It is widely applied in many
related areas, such as link prediction, node classification, community
detection, and graph classification etc. Graph embedding, which learns
low-dimensional representations for vertices or edges in the graph, usually
employs deep models to derive the embedding vector. However, these models are
vulnerable. We envision that graph embedding methods based on deep models can
be easily attacked using adversarial examples. Thus, in this paper, we propose
Graphfool, a novel targeted label adversarial attack on graph embedding. It can
generate adversarial graph to attack graph embedding methods via classifying
boundary and gradient information in graph convolutional network (GCN).
Specifically, we perform the following steps: 1),We first estimate the
classification boundaries of different classes. 2), We calculate the minimal
perturbation matrix to misclassify the attacked vertex according to the target
classification boundary. 3), We modify the adjacency matrix according to the
maximal absolute value of the disturbance matrix. This process is implemented
iteratively. To the best of our knowledge, this is the first targeted label
attack technique. The experiments on real-world graph networks demonstrate that
Graphfool can derive better performance than state-of-art techniques. Compared
with the second best algorithm, Graphfool can achieve an average improvement of
11.44% in attack success rate.
- Abstract(参考訳): 深層学習はグラフ解析に有効である。
リンク予測、ノード分類、コミュニティ検出、グラフ分類など、多くの関連分野で広く適用されています。
グラフの頂点や辺の低次元表現を学習するグラフ埋め込みは通常、埋め込みベクトルを導出するために深いモデルを用いる。
しかし、これらのモデルは脆弱です。
ディープモデルに基づくグラフ埋め込み手法は、逆例を用いて容易に攻撃できると考えます。
そこで本稿では,グラフ埋め込みに対する新たなラベル対逆攻撃であるGraphfoolを提案する。
グラフ畳み込みネットワーク(gcn)で境界情報と勾配情報を分類することで、グラフ埋め込みメソッドを攻撃するための逆グラフを生成することができる。
具体的には、次のステップを実行する: 1)、まず、異なるクラスの分類境界を推定する。
2) 最小摂動行列を計算し, 対象の分類境界に従って攻撃された頂点を誤分類する。
3)、私達は妨害のマトリックスの最大絶対値に従って隣接のマトリックスを変更します。
このプロセスは反復的に実装される。
私たちの知る限りでは、これは最初の標的ラベル攻撃技術です。
実世界のグラフネットワークの実験は、Graphfoolが最先端技術よりも優れたパフォーマンスを得られることを示した。
第2のアルゴリズムと比較して、graphfoolは攻撃成功率の平均11.44%の改善を達成できる。
関連論文リスト
- Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Semi-Supervised Hierarchical Graph Classification [54.25165160435073]
ノードがグラフのインスタンスである階層グラフにおけるノード分類問題について検討する。
本稿では階層グラフ相互情報(HGMI)を提案し,理論的保証をもってHGMIを計算する方法を提案する。
本稿では,この階層グラフモデリングとSEAL-CI法がテキストおよびソーシャルネットワークデータに与える影響を実証する。
論文 参考訳(メタデータ) (2022-06-11T04:05:29Z) - Unsupervised Graph Poisoning Attack via Contrastive Loss
Back-propagation [18.671374133506838]
本稿では,グラフのコントラスト学習にラベルを頼らない,教師なし勾配に基づく新たな逆攻撃を提案する。
我々の攻撃は教師なしベースライン攻撃よりも優れており、複数の下流タスクにおける教師なし攻撃と同等のパフォーマンスを持つ。
論文 参考訳(メタデータ) (2022-01-20T03:32:21Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Adversarial Attack Framework on Graph Embedding Models with Limited
Knowledge [126.32842151537217]
現存する作品は通常、ホワイトボックス方式で攻撃を行う。
ブラックボックス駆動で様々なグラフ埋め込みモデルに対処する必要がある。
GF-Attackはグラフ埋め込みモデルの層数を知ることなく効果的な攻撃を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-26T09:18:58Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - Contrastive Self-supervised Learning for Graph Classification [21.207647143672585]
オーバーフィッティングを緩和するために,コントラスト型自己教師学習(CSSL)に基づく2つのアプローチを提案する。
最初のアプローチでは、CSSLを使用して、人間が提供したラベルに頼ることなく、広く利用可能なラベル付きグラフ上のグラフエンコーダを事前訓練する。
第2のアプローチでは、CSSLに基づく正規化器を開発し、教師付き分類タスクと教師なしCSSLタスクを同時に解決する。
論文 参考訳(メタデータ) (2020-09-13T05:12:55Z) - Certified Robustness of Graph Classification against Topology Attack
with Randomized Smoothing [22.16111584447466]
グラフベースの機械学習モデルは、非i.dなグラフデータの性質のため、敵対的な摂動に弱い。
堅牢性を保証するスムーズなグラフ分類モデルを構築した。
グラフ畳み込みネットワーク(GCN)に基づくマルチクラスグラフ分類モデルにおいて,提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2020-09-12T22:18:54Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。