論文の概要: Minimum Topology Attacks for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2403.02723v1
- Date: Tue, 5 Mar 2024 07:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:50:14.105279
- Title: Minimum Topology Attacks for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための最小トポロジー攻撃
- Authors: Mengmei Zhang, Xiao Wang, Chuan Shi, Lingjuan Lyu, Tianchi Yang,
Junping Du
- Abstract要約: グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
- 参考スコア(独自算出の注目度): 70.17791814425148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the great popularity of Graph Neural Networks (GNNs), their robustness
to adversarial topology attacks has received significant attention. Although
many attack methods have been proposed, they mainly focus on fixed-budget
attacks, aiming at finding the most adversarial perturbations within a fixed
budget for target node. However, considering the varied robustness of each
node, there is an inevitable dilemma caused by the fixed budget, i.e., no
successful perturbation is found when the budget is relatively small, while if
it is too large, the yielding redundant perturbations will hurt the
invisibility. To break this dilemma, we propose a new type of topology attack,
named minimum-budget topology attack, aiming to adaptively find the minimum
perturbation sufficient for a successful attack on each node. To this end, we
propose an attack model, named MiBTack, based on a dynamic projected gradient
descent algorithm, which can effectively solve the involving non-convex
constraint optimization on discrete topology. Extensive results on three GNNs
and four real-world datasets show that MiBTack can successfully lead all target
nodes misclassified with the minimum perturbation edges. Moreover, the obtained
minimum budget can be used to measure node robustness, so we can explore the
relationships of robustness, topology, and uncertainty for nodes, which is
beyond what the current fixed-budget topology attacks can offer.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の普及に伴い、敵のトポロジ攻撃に対する堅牢性に大きな注目を集めている。
多くの攻撃手法が提案されているが、主に固定予算攻撃に焦点を当てており、目標ノードの固定予算内で最も敵対的な摂動を見つけることを目的としている。
しかし、各ノードの様々な堅牢性を考えると、固定予算によって生じる必然的なジレンマ、すなわち予算が比較的小さい場合には摂動が成功せず、大きすぎると余分な摂動が不可視性を損なう。
このジレンマを破るために,我々は,各ノードに対する攻撃の成功に十分な最小摂動を適応的に見つけることを目的とした,minimum-budget topology attackという新しいタイプのトポロジー攻撃を提案する。
そこで本研究では,離散トポロジにおける非凸制約最適化を効果的に解くために,動的射影勾配降下アルゴリズムに基づくMiBTackと呼ばれる攻撃モデルを提案する。
3つのGNNと4つの実世界のデータセットの大規模な結果から、MiBTackは最小の摂動エッジで分類されたすべてのターゲットノードをうまく導くことができる。
さらに、得られた最小予算は、ノードのロバスト性を測定するために使用できるため、現在の固定予算トポロジ攻撃が提供するもの以上の、ノードのロバスト性、トポロジ、不確実性の関係を探索することができる。
関連論文リスト
- Graph Protection under Multiple Simultaneous Attacks: A Heuristic Approach [41.94295877935867]
この研究は、グラフを用いてモデル化されたネットワークのノードに対する同時攻撃から保護するための効果的なメタヒューリスティックなアプローチの開発に焦点を当てる。
具体的には、グラフ上のよく知られたローマ支配問題の一般化である$k$-strong Roman支配問題に焦点を当てる。
本稿では,準実現可能性の概念を導入して,その実現可能性を確認する可変近傍探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-25T18:46:13Z) - Cost Aware Untargeted Poisoning Attack against Graph Neural Networks, [5.660584039688214]
本稿では,攻撃予算の配分を改善するため,コスト・アウェア・ポジショニング・アタック(CA-アタック)と呼ばれる新たなアタック・ロス・フレームワークを提案する。
実験の結果,提案したCA攻撃は既存の攻撃戦略を大幅に強化することが示された。
論文 参考訳(メタデータ) (2023-12-12T10:54:02Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees [60.61846004535707]
グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
論文 参考訳(メタデータ) (2022-05-07T04:17:25Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - Adversarial Attack on Graph Neural Networks as An Influence Maximization
Problem [12.88476464580968]
グラフニューラルネットワーク(GNN)が注目されている。
敵の攻撃下でのGNNの堅牢性を理解する必要がある。
論文 参考訳(メタデータ) (2021-06-21T00:47:44Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。