論文の概要: Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2009.00163v2
- Date: Sat, 12 Sep 2020 20:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:53:03.612606
- Title: Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs
- Title(参考訳): 強化学習に基づくブラックボックス回避攻撃による動的グラフのリンク予測
- Authors: Houxiang Fan, Binghui Wang, Pan Zhou, Ang Li, Meng Pang, Zichuan Xu,
Cai Fu, Hai Li, Yiran Chen
- Abstract要約: 動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
- 参考スコア(独自算出の注目度): 87.5882042724041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Link prediction in dynamic graphs (LPDG) is an important research problem
that has diverse applications such as online recommendations, studies on
disease contagion, organizational studies, etc. Various LPDG methods based on
graph embedding and graph neural networks have been recently proposed and
achieved state-of-the-art performance. In this paper, we study the
vulnerability of LPDG methods and propose the first practical black-box evasion
attack. Specifically, given a trained LPDG model, our attack aims to perturb
the graph structure, without knowing to model parameters, model architecture,
etc., such that the LPDG model makes as many wrong predicted links as possible.
We design our attack based on a stochastic policy-based RL algorithm. Moreover,
we evaluate our attack on three real-world graph datasets from different
application domains. Experimental results show that our attack is both
effective and efficient.
- Abstract(参考訳): 動的グラフ(LPDG)におけるリンク予測は、オンラインレコメンデーション、病気の伝染に関する研究、組織研究など様々な応用を持つ重要な研究課題である。
グラフ埋め込みとグラフニューラルネットワークに基づく様々なLPDG法が最近提案され、最先端の性能を実現している。
本稿では,LPDG手法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
具体的には、トレーニングされたLPDGモデルを考えると、LPDGモデルが可能な限り多くの誤ったリンクを予測できるように、モデルパラメータやモデルアーキテクチャなどを知ることなく、グラフ構造を摂動させることが目的である。
我々は、確率的ポリシーに基づくRLアルゴリズムに基づいて攻撃を設計する。
さらに、異なるアプリケーションドメインの3つの実世界のグラフデータセットに対する攻撃を評価する。
実験の結果,我々の攻撃は効果的かつ効率的であることが判明した。
関連論文リスト
- Top K Enhanced Reinforcement Learning Attacks on Heterogeneous Graph Node Classification [1.4943280454145231]
グラフニューラルネットワーク(GNN)は、グラフベースのデータに対する例外的なパフォーマンスのため、かなりの関心を集めている。
それらの堅牢性、特に異種グラフ上では、特に敵攻撃に対する探索が過小評価されている。
本稿では,ヘテロKRLAttackを提案する。
論文 参考訳(メタデータ) (2024-08-04T08:44:00Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.552065156611815]
グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、広範囲のアプリケーションにおいてますます重要になりつつある。
本稿では,誘導型GNNに対して教師なしモデルステアリング攻撃を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。