論文の概要: HeTa: Relation-wise Heterogeneous Graph Foundation Attack Model
- arxiv url: http://arxiv.org/abs/2506.07428v1
- Date: Mon, 09 Jun 2025 04:59:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.116921
- Title: HeTa: Relation-wise Heterogeneous Graph Foundation Attack Model
- Title(参考訳): HeTa:関係性的に不均一なグラフ基礎攻撃モデル
- Authors: Yuling Wang, Zihui Chen, Pengfei Jiao, Xiao Wang,
- Abstract要約: 不均一グラフニューラルネットワーク(HGNN)は脆弱性があり、堅牢性を評価し、セキュリティを確保するために、適切な攻撃の必要性を強調している。
近年,基礎モデルはグラフニューラルネットワークの一般化のための新たな地平を開拓している。
本稿では,新たな関係性を考慮したヘテロジニアスグラフ基盤攻撃モデルHeTaを提案する。
- 参考スコア(独自算出の注目度): 9.772313458292983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous Graph Neural Networks (HGNNs) are vulnerable, highlighting the need for tailored attacks to assess their robustness and ensure security. However, existing HGNN attacks often require complex retraining of parameters to generate specific perturbations for new scenarios. Recently, foundation models have opened new horizons for the generalization of graph neural networks by capturing shared semantics across various graph distributions. This leads us to ask:Can we design a foundation attack model for HGNNs that enables generalizable perturbations across different HGNNs, and quickly adapts to new heterogeneous graphs (HGs)? Empirical findings reveal that, despite significant differences in model design and parameter space, different HGNNs surprisingly share common vulnerability patterns from a relation-aware perspective. Therefore, we explore how to design foundation HGNN attack criteria by mining shared attack units. In this paper, we propose a novel relation-wise heterogeneous graph foundation attack model, HeTa. We introduce a foundation surrogate model to align heterogeneity and identify the importance of shared relation-aware attack units. Building on this, we implement a serialized relation-by-relation attack based on the identified relational weights. In this way, the perturbation can be transferred to various target HGNNs and easily fine-tuned for new HGs. Extensive experiments exhibit powerful attack performances and generalizability of our method.
- Abstract(参考訳): 不均一グラフニューラルネットワーク(HGNN)は脆弱性があり、堅牢性を評価し、セキュリティを確保するために、適切な攻撃の必要性を強調している。
しかし、既存のHGNN攻撃は、しばしば新しいシナリオに対する特定の摂動を生成するためにパラメータの複雑な再訓練を必要とする。
近年,様々なグラフ分布の共有セマンティクスをキャプチャすることで,グラフニューラルネットワークの一般化に向けた新たな地平を開拓している。
私たちは、異なるHGNN間の一般化可能な摂動を可能にし、新しいヘテロジニアスグラフ(HGs)に迅速に適応できるHGNNの基盤攻撃モデルを設計します。
モデル設計とパラメータ空間に大きな違いがあるにもかかわらず、異なるHGNNは、関係認識の観点から共通の脆弱性パターンを驚くほど共有している。
そこで本研究では,共有攻撃ユニットのマイニングによる基礎的HGNN攻撃基準の設計方法について検討する。
本稿では,新たな関係性を考慮したヘテロジニアスグラフ基盤攻撃モデルHeTaを提案する。
本稿では,不均一性を整合させ,共有関係認識攻撃ユニットの重要性を識別する基盤代理モデルを提案する。
これに基づいて、同定された関係重みに基づく直列化相関攻撃を実装した。
このようにして、摂動は様々なターゲットHGNNに転送することができ、新しいHGに対して容易に微調整できる。
大規模実験では,攻撃性能と本手法の一般化性を示す。
関連論文リスト
- HeteroBA: A Structure-Manipulating Backdoor Attack on Heterogeneous Graphs [5.39755597471183]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、リコメンデーション、ファイナンス、ソーシャルネットワークなどの領域における複雑なマルチリレーショナルデータをモデリングするために、近年注目を集めている。
異種グラフ上のノード分類タスクのための新しい異種バックドア攻撃フレームワークを提案する。
我々は,HGNNの潜在的な脆弱性に光を当て,マルチリレーショナルグラフのシナリオにおいて,バックドアの脅威に対するより堅牢な防御を求める。
論文 参考訳(メタデータ) (2025-05-27T12:51:48Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Model Inversion Attacks on Homogeneous and Heterogeneous Graph Neural
Networks [6.569169627119353]
HomoGMI と HeteGMI は、目標GNN におけるクロスエントロピー損失を最大化することを目的とした勾配差に基づく最適化手法である。
HeteGMIは、HeteGNNに対してモデル反転攻撃を行う最初の試みである。
論文 参考訳(メタデータ) (2023-10-15T11:16:14Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。