論文の概要: Exploiting Meta-Learning-based Poisoning Attacks for Graph Link Prediction
- arxiv url: http://arxiv.org/abs/2504.06492v1
- Date: Tue, 08 Apr 2025 23:36:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:07:19.738388
- Title: Exploiting Meta-Learning-based Poisoning Attacks for Graph Link Prediction
- Title(参考訳): グラフリンク予測のためのメタラーニングによる毒殺攻撃の爆発
- Authors: Mingchen Li, Di Zhuang, Keyu Chen, Dumindu Samaraweera, Morris Chang,
- Abstract要約: グラフデータのリンク予測は、さまざまなアルゴリズムと機械学習/ディープラーニングモデルを使用して、グラフノード間の潜在的な関係を予測する。
近年の研究では、毒や脱走攻撃などの敵攻撃に対するリンク予測モデルの脆弱性が強調されている。
本稿では,VGAEのリンク予測性能を損なうメタラーニング手法を用いたグラフ中毒攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 12.179477926103353
- License:
- Abstract: Link prediction in graph data utilizes various algorithms and machine learning/deep learning models to predict potential relationships between graph nodes. This technique has found widespread use in numerous real-world applications, including recommendation systems, community networks, and biological structures. However, recent research has highlighted the vulnerability of link prediction models to adversarial attacks, such as poisoning and evasion attacks. Addressing the vulnerability of these models is crucial to ensure stable and robust performance in link prediction applications. While many works have focused on enhancing the robustness of the Graph Convolution Network (GCN) model, the Variational Graph Auto-Encoder (VGAE), a sophisticated model for link prediction, has not been thoroughly investigated in the context of graph adversarial attacks. To bridge this gap, this article proposes an unweighted graph poisoning attack approach using meta-learning techniques to undermine VGAE's link prediction performance. We conducted comprehensive experiments on diverse datasets to evaluate the proposed method and its parameters, comparing it with existing approaches in similar settings. Our results demonstrate that our approach significantly diminishes link prediction performance and outperforms other state-of-the-art methods.
- Abstract(参考訳): グラフデータのリンク予測は、さまざまなアルゴリズムと機械学習/ディープラーニングモデルを使用して、グラフノード間の潜在的な関係を予測する。
この技術は、レコメンデーションシステム、コミュニティネットワーク、生物学的構造など、多くの現実世界のアプリケーションで広く利用されている。
しかし、最近の研究では、毒や回避攻撃などの敵攻撃に対するリンク予測モデルの脆弱性を強調している。
これらのモデルの脆弱性に対処することは、リンク予測アプリケーションにおける安定的で堅牢なパフォーマンスを保証するために不可欠である。
グラフ畳み込みネットワーク(GCN)モデルの堅牢性向上に多くの研究が注がれているが、リンク予測の洗練されたモデルである変分グラフオートエンコーダ(VGAE)は、グラフ敵攻撃の文脈で完全には研究されていない。
本稿では,VGAEのリンク予測性能を損なうメタラーニング手法を用いたグラフ中毒攻撃手法を提案する。
提案手法とそのパラメータを評価するために, 多様なデータセットに関する総合的な実験を行い, 類似した設定で既存手法と比較した。
その結果,提案手法はリンク予測性能を著しく低下させ,他の最先端手法よりも優れていることが示された。
関連論文リスト
- Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Variational Disentangled Graph Auto-Encoders for Link Prediction [10.390861526194662]
本稿では,DGAE(disentangled graph auto-encoder)とVDGAE(variantal disentangled graph auto-encoder)の2つの変種を持つ新しいフレームワークを提案する。
提案フレームワークは,グラフのエッジの原因となる潜伏因子を推定し,その表現を一意の潜伏因子に対応する複数のチャネルに分解する。
論文 参考訳(メタデータ) (2023-06-20T06:25:05Z) - Generative Graph Neural Networks for Link Prediction [13.643916060589463]
欠落したリンクを推測したり、観測されたグラフに基づいて急激なリンクを検出することは、グラフデータ分析における長年の課題である。
本稿では,GraphLPと呼ばれるネットワーク再構成理論に基づく,新しい,根本的に異なるリンク予測アルゴリズムを提案する。
リンク予測に使用される識別ニューラルネットワークモデルとは異なり、GraphLPは生成可能であり、ニューラルネットワークベースのリンク予測の新しいパラダイムを提供する。
論文 参考訳(メタデータ) (2022-12-31T10:07:19Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Deepened Graph Auto-Encoders Help Stabilize and Enhance Link Prediction [11.927046591097623]
リンク予測は、浅層グラフオートエンコーダ(GAE)アーキテクチャの1層または2層に基づく現在の最先端モデルを用いて、比較的未研究のグラフ学習タスクである。
本論文では,浅いGAEと変動GAEしか使用できないリンク予測の現在の手法の限界に対処することに焦点をあてる。
提案手法はGAEのアーキテクチャに標準オートエンコーダ(AE)を革新的に組み込んでおり、標準AEは隣接情報とノード機能をシームレスに統合することで必要不可欠な低次元表現を学習する。
論文 参考訳(メタデータ) (2021-03-21T14:43:10Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。