論文の概要: HyperAttack: Multi-Gradient-Guided White-box Adversarial Structure
Attack of Hypergraph Neural Networks
- arxiv url: http://arxiv.org/abs/2302.12407v1
- Date: Fri, 24 Feb 2023 02:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 14:52:20.048136
- Title: HyperAttack: Multi-Gradient-Guided White-box Adversarial Structure
Attack of Hypergraph Neural Networks
- Title(参考訳): HyperAttack:ハイパーグラフニューラルネットワークのマルチグラディエントガイド型ホワイトボックス対向構造攻撃
- Authors: Chao Hu, Ruishi Yu, Binqi Zeng, Yu Zhan, Ying Fu, Quan Zhang, Rongkai
Liu and Heyuan Shi
- Abstract要約: ハイパーグラフニューラルネットワーク(HGNN)は、様々なディープラーニングタスクにおいて優れた性能を示している。
グラフニューラルネットワーク(GNN)に対するよく研究されている敵攻撃にもかかわらず、HGNNに対する敵攻撃についてはほとんど研究されていない。
我々はハイパーグラフニューラルネットワークに対する最初のホワイトボックス逆攻撃フレームワークであるHyperAttackを紹介する。
- 参考スコア(独自算出の注目度): 10.937499142803512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hypergraph neural networks (HGNN) have shown superior performance in various
deep learning tasks, leveraging the high-order representation ability to
formulate complex correlations among data by connecting two or more nodes
through hyperedge modeling. Despite the well-studied adversarial attacks on
Graph Neural Networks (GNN), there is few study on adversarial attacks against
HGNN, which leads to a threat to the safety of HGNN applications. In this
paper, we introduce HyperAttack, the first white-box adversarial attack
framework against hypergraph neural networks. HyperAttack conducts a white-box
structure attack by perturbing hyperedge link status towards the target node
with the guidance of both gradients and integrated gradients. We evaluate
HyperAttack on the widely-used Cora and PubMed datasets and three hypergraph
neural networks with typical hypergraph modeling techniques. Compared to
state-of-the-art white-box structural attack methods for GNN, HyperAttack
achieves a 10-20X improvement in time efficiency while also increasing attack
success rates by 1.3%-3.7%. The results show that HyperAttack can achieve
efficient adversarial attacks that balance effectiveness and time costs.
- Abstract(参考訳): ハイパーグラフニューラルネットワーク(HGNN)は、ハイパーエッジモデリングによって2つ以上のノードを接続することで、データ間の複雑な相関を定式化する高次表現能力を活用し、様々なディープラーニングタスクにおいて優れた性能を示している。
グラフニューラルネットワーク(GNN)に対するよく研究されている敵攻撃にもかかわらず、HGNNに対する敵攻撃についてはほとんど研究されていないため、HGNNアプリケーションの安全性に対する脅威となる。
本稿では,ハイパーグラフニューラルネットワークに対する初のホワイトボックス攻撃フレームワークであるhyperattackを提案する。
HyperAttackは、ハイパーエッジリンクステータスを、グラデーションと統合グラデーションの両方のガイダンスでターゲットノードに摂動することで、ホワイトボックス構造攻撃を行う。
我々は、広く使われているCoraおよびPubMedデータセットと典型的なハイパーグラフモデリング技術を用いた3つのハイパーグラフニューラルネットワーク上でHyperAttackを評価する。
GNNの最先端のホワイトボックス構造攻撃手法と比較して、HyperAttackは時間効率が10~20倍向上し、攻撃成功率も1.3%-3.7%向上した。
その結果,HyperAttackは効率性と時間的コストのバランスをとる効果的な敵攻撃を実現できることがわかった。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Hard Label Black Box Node Injection Attack on Graph Neural Networks [7.176182084359572]
グラフニューラルネットワークにおける非ターゲット型ハードラベルブラックボックスノードインジェクション攻撃を提案する。
我々の攻撃は、既存のエッジ摂動攻撃に基づいており、ノード注入攻撃を定式化するために最適化プロセスを制限する。
本研究では,3つのデータセットを用いて攻撃性能を評価する。
論文 参考訳(メタデータ) (2023-11-22T09:02:04Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Augmentations in Hypergraph Contrastive Learning: Fabricated and
Generative [126.0985540285981]
我々は、ハイパーグラフニューラルネットワークの一般化性を改善するために、画像/グラフからの対照的な学習アプローチ(ハイパーGCLと呼ぶ)を適用する。
我々は、高次関係を符号化したハイパーエッジを増大させる2つのスキームを作成し、グラフ構造化データから3つの拡張戦略を採用する。
拡張ビューを生成するためのハイパーグラフ生成モデルを提案し、次に、ハイパーグラフ拡張とモデルパラメータを協調的に学習するエンド・ツー・エンドの微分可能なパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-07T20:12:20Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。