論文の概要: Understanding and Improving Graph Injection Attack by Promoting
Unnoticeability
- arxiv url: http://arxiv.org/abs/2202.08057v1
- Date: Wed, 16 Feb 2022 13:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 20:11:36.629076
- Title: Understanding and Improving Graph Injection Attack by Promoting
Unnoticeability
- Title(参考訳): 不注意性促進によるグラフインジェクション攻撃の理解と改善
- Authors: Yongqiang Chen, Han Yang, Yonggang Zhang, Kaili Ma, Tongliang Liu, Bo
Han, James Cheng
- Abstract要約: グラフインジェクションアタック(GIA)はグラフニューラルネットワーク(GNN)の実用的な攻撃シナリオである
グラフ修正攻撃 (GMA) と比較したところ, GIA は比較的高い柔軟性のため, GMA よりも明らかに有害であることがわかった。
我々は,GAAがホモフィリを維持することを強制する,新しい制約-ホモフィリな無意味性を導入し,そのインスタンス化のためにハーモニアス・アドバイサリアル・オブジェクト(HAO)を提案する。
- 参考スコア(独自算出の注目度): 69.3530705476563
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently Graph Injection Attack (GIA) emerges as a practical attack scenario
on Graph Neural Networks (GNNs), where the adversary can merely inject few
malicious nodes instead of modifying existing nodes or edges, i.e., Graph
Modification Attack (GMA). Although GIA has achieved promising results, little
is known about why it is successful and whether there is any pitfall behind the
success. To understand the power of GIA, we compare it with GMA and find that
GIA can be provably more harmful than GMA due to its relatively high
flexibility. However, the high flexibility will also lead to great damage to
the homophily distribution of the original graph, i.e., similarity among
neighbors. Consequently, the threats of GIA can be easily alleviated or even
prevented by homophily-based defenses designed to recover the original
homophily. To mitigate the issue, we introduce a novel constraint -- homophily
unnoticeability that enforces GIA to preserve the homophily, and propose
Harmonious Adversarial Objective (HAO) to instantiate it. Extensive experiments
verify that GIA with HAO can break homophily-based defenses and outperform
previous GIA attacks by a significant margin. We believe our methods can serve
for a more reliable evaluation of the robustness of GNNs.
- Abstract(参考訳): 最近、グラフインジェクションアタック(GIA)がグラフニューラルネットワーク(GNN)の実用的な攻撃シナリオとして登場し、敵は既存のノードやエッジを変更するのではなく、悪意のあるノードをわずかに注入できる。
giaは有望な成果を上げたが、成功の理由と成功の背景にある落とし穴についてはほとんど知られていない。
GIAのパワーをGMAと比較すると,GAAの柔軟性が比較的高いため,GAAはGMAよりも確実に有害であることがわかった。
しかし、高い柔軟性は元のグラフのホモフィリー分布、すなわち近隣のグラフ間の類似性に大きなダメージを与える。
したがって、GAAの脅威は、元のホモフィリーを回復するために設計されたホモフィリーベースの防御によって容易に緩和または予防することができる。
問題を緩和するために,GAAにホモフィリ保存を強制する新たな制約を導入し,そのインスタンス化のためにハーモニアス・アドバイザリアル・オブジェクト(HAO)を提案する。
大規模な実験により、HAOによるGAAは、ホモフィリーベースの防御を破り、以前のGAA攻撃を著しく上回っていることが確認された。
我々はGNNの堅牢性をより信頼性の高い評価に役立てることができると考えている。
関連論文リスト
- Query-Based and Unnoticeable Graph Injection Attack from Neighborhood Perspective [5.29403129046676]
QUGIAはクエリベースの無意味グラフインジェクションアタックである。
被害者ノード接続に基づいてエッジを選択し、ベイズフレームワークを使用してノード機能を生成することで、ノードを注入する。
これにより、インジェクションされたノードが元のグラフノードと似ており、暗黙的にホモフィリを保ち、攻撃をより目立たないものにすることができる。
論文 参考訳(メタデータ) (2025-02-04T02:11:57Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Byzantine-Robust Learning on Heterogeneous Data via Gradient Splitting [58.91947205027892]
フェデレーテッド・ラーニングはビザンツの攻撃に対する脆弱性を示している。
ビザンティン攻撃者は、任意の勾配を中央サーバに送ることで、グローバルモデルの収束と性能を破壊することができる。
アグレゲーション・ルール(AGR)は、ビザンツの攻撃から守るために提案されている。
論文 参考訳(メタデータ) (2023-02-13T03:31:50Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - TDGIA:Effective Injection Attacks on Graph Neural Networks [21.254710171416374]
グラフインジェクションアタック(GIA)における最近導入された現実的な攻撃シナリオについて検討する。
GIAのシナリオでは、敵は既存のリンク構造や入力グラフのノード属性を変更することができない。
本稿では,GIA設定下でのGNNのトポロジ的脆弱性の解析を行い,効果的なインジェクション攻撃のためのトポロジカルデフェクティブグラフインジェクション攻撃(TDGIA)を提案する。
論文 参考訳(メタデータ) (2021-06-12T01:53:25Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。