論文の概要: Black-Box Attacks against Signed Graph Analysis via Balance Poisoning
- arxiv url: http://arxiv.org/abs/2309.02396v1
- Date: Tue, 5 Sep 2023 17:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 23:09:29.326600
- Title: Black-Box Attacks against Signed Graph Analysis via Balance Poisoning
- Title(参考訳): バランス違反による署名付きグラフ分析に対するブラックボックス攻撃
- Authors: Jialong Zhou, Yuni Lai, Jian Ren, Kai Zhou,
- Abstract要約: 符号付きグラフニューラルネットワーク(SGNN)は、一般的にそのようなグラフのリンク信号を予測するために使用される。
署名されたグラフのバランス度を下げることを目的としたバランスアタックと呼ばれる新しいブラックボックスアタックを提案する。
我々の研究は、SGNNに対する攻撃に直面した場合のロバストモデルの限界とレジリエンスの理解に寄与する。
- 参考スコア(独自算出の注目度): 8.680110107377953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Signed graphs are well-suited for modeling social networks as they capture both positive and negative relationships. Signed graph neural networks (SGNNs) are commonly employed to predict link signs (i.e., positive and negative) in such graphs due to their ability to handle the unique structure of signed graphs. However, real-world signed graphs are vulnerable to malicious attacks by manipulating edge relationships, and existing adversarial graph attack methods do not consider the specific structure of signed graphs. SGNNs often incorporate balance theory to effectively model the positive and negative links. Surprisingly, we find that the balance theory that they rely on can ironically be exploited as a black-box attack. In this paper, we propose a novel black-box attack called balance-attack that aims to decrease the balance degree of the signed graphs. We present an efficient heuristic algorithm to solve this NP-hard optimization problem. We conduct extensive experiments on five popular SGNN models and four real-world datasets to demonstrate the effectiveness and wide applicability of our proposed attack method. By addressing these challenges, our research contributes to a better understanding of the limitations and resilience of robust models when facing attacks on SGNNs. This work contributes to enhancing the security and reliability of signed graph analysis in social network modeling. Our PyTorch implementation of the attack is publicly available on GitHub: https://github.com/JialongZhou666/Balance-Attack.git.
- Abstract(参考訳): 符号付きグラフは、肯定的な関係と否定的な関係の両方を捉えるため、ソーシャルネットワークをモデル化するのに適している。
符号付きグラフニューラルネットワーク(SGNN)は、符号付きグラフのユニークな構造を扱う能力のため、これらのグラフのリンク信号(正と負の)を予測するために一般的に使用される。
しかし、実世界のグラフはエッジ関係を操作することによって悪意ある攻撃に対して脆弱であり、既存の逆グラフ攻撃法は署名されたグラフの特定の構造を考慮していない。
SGNNはしばしば、正と負のリンクを効果的にモデル化するためにバランス理論を取り入れている。
驚くべきことに、彼らが依存しているバランス理論は、皮肉にもブラックボックス攻撃として利用することができる。
本稿では,署名されたグラフのバランス度を下げることを目的とした,バランスアタックと呼ばれる新しいブラックボックス攻撃を提案する。
このNPハード最適化問題を解くために,効率的なヒューリスティックアルゴリズムを提案する。
5つの人気のあるSGNNモデルと4つの実世界のデータセットについて広範な実験を行い、提案手法の有効性と適用性を実証した。
これらの課題に対処することにより、SGNNに対する攻撃に直面した場合のロバストモデルの制限とレジリエンスの理解を深める上で、我々の研究は貢献する。
この研究は,ソーシャル・ネットワーク・モデリングにおける署名付きグラフ解析の安全性と信頼性の向上に寄与する。
私たちのPyTorch実装はGitHubで公開されています。
関連論文リスト
- Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees [60.61846004535707]
グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
論文 参考訳(メタデータ) (2022-05-07T04:17:25Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。