論文の概要: Simple and Efficient Partial Graph Adversarial Attack: A New Perspective
- arxiv url: http://arxiv.org/abs/2308.07834v1
- Date: Tue, 15 Aug 2023 15:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 12:09:01.881832
- Title: Simple and Efficient Partial Graph Adversarial Attack: A New Perspective
- Title(参考訳): 単純かつ効率的な部分グラフ逆アタック : 新しい視点
- Authors: Guanghui Zhu, Mengyu Chen, Chunfeng Yuan, and Yihua Huang
- Abstract要約: 既存のグローバルアタックメソッドは、グラフ内のすべてのノードをアタックターゲットとして扱う。
攻撃対象として脆弱なノードを選択する部分グラフ攻撃(PGA)という全く新しい手法を提案する。
PGAは、既存のグラフグローバルアタック手法と比較して、アタック効果とアタック効率の両方で大幅に改善できる。
- 参考スコア(独自算出の注目度): 16.083311332179633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the study of graph neural networks becomes more intensive and
comprehensive, their robustness and security have received great research
interest. The existing global attack methods treat all nodes in the graph as
their attack targets. Although existing methods have achieved excellent
results, there is still considerable space for improvement. The key problem is
that the current approaches rigidly follow the definition of global attacks.
They ignore an important issue, i.e., different nodes have different robustness
and are not equally resilient to attacks. From a global attacker's view, we
should arrange the attack budget wisely, rather than wasting them on highly
robust nodes. To this end, we propose a totally new method named partial graph
attack (PGA), which selects the vulnerable nodes as attack targets. First, to
select the vulnerable items, we propose a hierarchical target selection policy,
which allows attackers to only focus on easy-to-attack nodes. Then, we propose
a cost-effective anchor-picking policy to pick the most promising anchors for
adding or removing edges, and a more aggressive iterative greedy-based attack
method to perform more efficient attacks. Extensive experimental results
demonstrate that PGA can achieve significant improvements in both attack effect
and attack efficiency compared to other existing graph global attack methods.
- Abstract(参考訳): グラフニューラルネットワークの研究がより集中的で包括的になるにつれて、その堅牢性とセキュリティは大きな研究関心を集めている。
既存のグローバルアタックメソッドは、グラフのすべてのノードを攻撃対象として扱う。
既存の手法は優れた成果を上げているが、改善の余地は十分ある。
鍵となる問題は、現在のアプローチがグローバルアタックの定義に厳格に従うことである。
それらは重要な問題を無視し、すなわち、異なるノードは異なる堅牢性を持ち、攻撃に対して等しく耐性がない。
グローバルアタッカーの視点では、高度に堅牢なノードを浪費するのではなく、攻撃予算を賢明に調整する必要がある。
そこで本研究では,攻撃対象として脆弱なノードを選択する部分グラフ攻撃(PGA)という全く新しい手法を提案する。
まず,脆弱性のある項目を選択するために,攻撃者が攻撃しやすいノードのみに集中できる階層的ターゲット選択ポリシーを提案する。
そこで本稿では,エッジの追加や削除に最も有望なアンカーを選択するための費用対効果の高いアンカーピッキングポリシと,より効率的な攻撃を行うためのより積極的な反復グリーディベースのアタック手法を提案する。
広範な実験結果から、pgaは他のグラフグローバル攻撃法と比較して攻撃効果と攻撃効率の両方において著しく改善できることが示されている。
関連論文リスト
- AGSOA:Graph Neural Network Targeted Attack Based on Average Gradient and Structure Optimization [16.681157857248436]
グラフニューラルネットワーク(GNN)は、グラフに小さな摂動を加えることでパフォーマンス低下を引き起こす敵攻撃に対して脆弱である。
本稿では、平均勾配計算と構造最適化モジュールで構成されるAGSOAと呼ばれるGNNに対する攻撃を提案する。
論文 参考訳(メタデータ) (2024-06-19T05:29:20Z) - Minimum Topology Attacks for Graph Neural Networks [70.17791814425148]
グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:29:12Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - GUAP: Graph Universal Attack Through Adversarial Patching [12.484396767037925]
グラフニューラルネットワーク(GNN)は、ノード分類タスクのための効果的なディープラーニングモデルのクラスである。
本研究では,新たなノードとエッジでグラフを逆パッチすることで,より容易な攻撃を見極める。
我々はGUAPと呼ばれるアルゴリズムを開発し、高い攻撃成功率を達成できるが、予測精度は維持できる。
論文 参考訳(メタデータ) (2023-01-04T18:02:29Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Scalable Attack on Graph Data by Injecting Vicious Nodes [44.56647129718062]
グラフ畳み込みネットワーク(GCN)は、注意深い設計の攻撃に対して脆弱である。
我々は、より実用的な攻撃シナリオを考慮した、よりスケーラブルなフレームワークであるApproximate Fast Gradient Sign Method (AFGSM)を開発した。
提案手法はGCNの分類精度を大幅に低減し,攻撃性能を損なうことなく既存の手法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-22T02:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。