論文の概要: Practicable Black-box Evasion Attacks on Link Prediction in Dynamic Graphs -- A Graph Sequential Embedding Method
- arxiv url: http://arxiv.org/abs/2412.13134v1
- Date: Tue, 17 Dec 2024 17:53:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:49.687080
- Title: Practicable Black-box Evasion Attacks on Link Prediction in Dynamic Graphs -- A Graph Sequential Embedding Method
- Title(参考訳): 動的グラフのリンク予測における実行可能ブラックボックスの侵入攻撃-グラフシークエンス埋め込み法
- Authors: Jiate Li, Meng Pang, Binghui Wang,
- Abstract要約: 動的グラフ(LPDG)におけるリンク予測は,Webサイトレコメンデーションやトラフィックフロー予測,組織研究など,現実世界のアプリケーションに広く適用されている。
そこで本研究では,対象のLPDGモデルに対する効果的な攻撃を,限られた数の相互作用と摂動で実現する,最初の実行可能なブラックボックス回避攻撃法を提案する。
- 参考スコア(独自算出の注目度): 16.957498511037485
- License:
- Abstract: Link prediction in dynamic graphs (LPDG) has been widely applied to real-world applications such as website recommendation, traffic flow prediction, organizational studies, etc. These models are usually kept local and secure, with only the interactive interface restrictively available to the public. Thus, the problem of the black-box evasion attack on the LPDG model, where model interactions and data perturbations are restricted, seems to be essential and meaningful in practice. In this paper, we propose the first practicable black-box evasion attack method that achieves effective attacks against the target LPDG model, within a limited amount of interactions and perturbations. To perform effective attacks under limited perturbations, we develop a graph sequential embedding model to find the desired state embedding of the dynamic graph sequences, under a deep reinforcement learning framework. To overcome the scarcity of interactions, we design a multi-environment training pipeline and train our agent for multiple instances, by sharing an aggregate interaction buffer. Finally, we evaluate our attack against three advanced LPDG models on three real-world graph datasets of different scales and compare its performance with related methods under the interaction and perturbation constraints. Experimental results show that our attack is both effective and practicable.
- Abstract(参考訳): 動的グラフ(LPDG)におけるリンク予測は,Webサイトレコメンデーションやトラフィックフロー予測,組織研究など,現実世界のアプリケーションに広く適用されている。
これらのモデルは普通、ローカルでセキュアに保たれており、対話型インターフェースのみが一般公開されている。
したがって、モデル相互作用とデータ摂動が制限されているLPDGモデルに対するブラックボックス回避攻撃の問題は、実際に必要不可欠で有意義なものであるように思われる。
本稿では,対象のLPDGモデルに対する効果的な攻撃を,限られた数の相互作用と摂動で実現する,最初の実行可能なブラックボックス回避攻撃法を提案する。
限られた摂動下で効果的な攻撃を行うために,動的グラフ列の所望の状態埋め込みを求めるグラフシーケンシャル埋め込みモデルを,深層強化学習フレームワークの下で開発する。
相互作用の不足を克服するため,多環境学習パイプラインを設計し,集約的な相互作用バッファを共有することでエージェントを複数インスタンスにトレーニングする。
最後に、異なるスケールの3つの実世界のグラフデータセット上の3つの先進SPDGモデルに対する攻撃を評価し、その性能を相互作用と摂動制約の下で関連する方法と比較する。
実験結果から,我々の攻撃は効果的かつ実用的であることが示唆された。
関連論文リスト
- Graph Defense Diffusion Model [26.41730982598055]
グラフニューラルネットワーク(GNN)は、敵攻撃に対して非常に脆弱であり、パフォーマンスを著しく低下させる可能性がある。
既存のグラフ浄化法は、攻撃されたグラフをフィルタリングすることでこの問題に対処しようとする。
グラフに対する敵攻撃を防御するための,より汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T16:18:40Z) - GAIM: Attacking Graph Neural Networks via Adversarial Influence Maximization [12.651079126612121]
我々は,厳密なブラックボックス設定を考慮しつつ,ノードベースで行う統合逆攻撃手法を提案する。
提案手法では,対象ノードの選択と特徴摂動の構成を単一最適化問題に統一する。
ラベル指向攻撃に対応するため,本手法を拡張し,適用範囲を広げる。
論文 参考訳(メタデータ) (2024-08-20T15:41:20Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Spear and Shield: Adversarial Attacks and Defense Methods for
Model-Based Link Prediction on Continuous-Time Dynamic Graphs [40.01361505644007]
本稿では,連続時間動的グラフ上でのリンク予測のための,単純かつ効果的な逆攻撃手法T-SPEARを提案する。
本稿では,T-SPEARがリンク予測タスクにおいて,被害者モデルの性能を著しく低下させることを示す。
我々の攻撃は他のTGNNに転送可能であり、攻撃者が想定する被害者モデルとは異なる。
論文 参考訳(メタデータ) (2023-08-21T15:09:51Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。