論文の概要: Momentum Gradient-based Untargeted Attack on Hypergraph Neural Networks
- arxiv url: http://arxiv.org/abs/2310.15656v1
- Date: Tue, 24 Oct 2023 09:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 19:42:41.531370
- Title: Momentum Gradient-based Untargeted Attack on Hypergraph Neural Networks
- Title(参考訳): モメンタム勾配に基づくハイパーグラフニューラルネットワークの標的外攻撃
- Authors: Yang Chen, Stjepan Picek, Zhonglin Ye, Zhaoyang Wang and Haixing Zhao
- Abstract要約: ハイパーグラフニューラルネットワーク(HGNN)は、様々なハイパーグラフ関連タスクにうまく適用されている。
近年の研究では、ディープラーニングモデルは敵の攻撃に弱いことが示されている。
我々は、ノード機能の変更に焦点を当てた、未ターゲット攻撃のための新しいHGNNアタックモデル、MGHGAを設計する。
- 参考スコア(独自算出の注目度): 17.723282166737867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hypergraph Neural Networks (HGNNs) have been successfully applied in various
hypergraph-related tasks due to their excellent higher-order representation
capabilities. Recent works have shown that deep learning models are vulnerable
to adversarial attacks. Most studies on graph adversarial attacks have focused
on Graph Neural Networks (GNNs), and the study of adversarial attacks on HGNNs
remains largely unexplored. In this paper, we try to reduce this gap. We design
a new HGNNs attack model for the untargeted attack, namely MGHGA, which focuses
on modifying node features. We consider the process of HGNNs training and use a
surrogate model to implement the attack before hypergraph modeling.
Specifically, MGHGA consists of two parts: feature selection and feature
modification. We use a momentum gradient mechanism to choose the attack node
features in the feature selection module. In the feature modification module,
we use two feature generation approaches (direct modification and sign
gradient) to enable MGHGA to be employed on discrete and continuous datasets.
We conduct extensive experiments on five benchmark datasets to validate the
attack performance of MGHGA in the node and the visual object classification
tasks. The results show that MGHGA improves performance by an average of 2%
compared to the than the baselines.
- Abstract(参考訳): ハイパグラフニューラルネットワーク(HGNN)は,高次表現能力に優れたため,様々なハイパーグラフ関連タスクに適用されている。
近年の研究では、ディープラーニングモデルは敵の攻撃に弱いことが示されている。
グラフニューラルネットワーク(GNN)を対象とするグラフ敵攻撃の研究はほとんど行われておらず、HGNNに対する敵攻撃の研究はほとんど未解明である。
本稿では,このギャップを低減しようと試みる。
我々は、ノード機能の変更に焦点を当てた、未ターゲット攻撃のための新しいHGNN攻撃モデル、MGHGAを設計する。
我々はHGNNのトレーニングの過程を考察し、ハイパーグラフモデリングの前に代理モデルを用いて攻撃を実装する。
具体的には、MGHGAは2つの部分から構成される。
我々は,特徴選択モジュールにおける攻撃ノード機能を選択するために運動量勾配機構を用いる。
特徴修正モジュールでは、MGHGAを離散的かつ連続的なデータセットに適用するために、2つの特徴生成アプローチ(直接修正と符号勾配)を用いる。
我々は,5つのベンチマークデータセットを用いて,ノードにおけるMGHGAの攻撃性能と視覚オブジェクト分類タスクを検証する。
その結果,MGHGAはベースラインよりも平均2%向上した。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Model Inversion Attacks on Homogeneous and Heterogeneous Graph Neural
Networks [6.569169627119353]
HomoGMI と HeteGMI は、目標GNN におけるクロスエントロピー損失を最大化することを目的とした勾配差に基づく最適化手法である。
HeteGMIは、HeteGNNに対してモデル反転攻撃を行う最初の試みである。
論文 参考訳(メタデータ) (2023-10-15T11:16:14Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。