論文の概要: Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias
- arxiv url: http://arxiv.org/abs/2304.00010v1
- Date: Wed, 29 Mar 2023 13:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-09 05:44:17.257672
- Title: Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias
- Title(参考訳): グラディエントデバイアスによるグラフ構造攻撃における不当な予算配分に向けて
- Authors: Zihan Liu, Yun Luo, Lirong Wu, Zicheng Liu, Stan Z. Li
- Abstract要約: クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
- 参考スコア(独自算出の注目度): 50.628150015907565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has become cognitive inertia to employ cross-entropy loss function in
classification related tasks. In the untargeted attacks on graph structure, the
gradients derived from the attack objective are the attacker's basis for
evaluating a perturbation scheme. Previous methods use negative cross-entropy
loss as the attack objective in attacking node-level classification models.
However, the suitability of the cross-entropy function for constructing the
untargeted attack objective has yet been discussed in previous works. This
paper argues about the previous unreasonable attack objective from the
perspective of budget allocation. We demonstrate theoretically and empirically
that negative cross-entropy tends to produce more significant gradients from
nodes with lower confidence in the labeled classes, even if the predicted
classes of these nodes have been misled. To free up these inefficient attack
budgets, we propose a simple attack model for untargeted attacks on graph
structure based on a novel attack objective which generates unweighted
gradients on graph structures that are not affected by the node confidence. By
conducting experiments in gray-box poisoning attack scenarios, we demonstrate
that a reasonable budget allocation can significantly improve the effectiveness
of gradient-based edge perturbations without any extra hyper-parameter.
- Abstract(参考訳): 分類関連のタスクでクロスエントロピー損失関数を採用することは認知慣性になる。
グラフ構造に対する未目標攻撃では、攻撃目標から導出される勾配が摂動スキームを評価するための攻撃の基盤となる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
しかし、未目標攻撃目標を構築するためのクロスエントロピー関数の適合性については、これまでも議論されてきた。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
負のクロスエントロピーはラベル付きクラスに対する信頼度が低いノードから、これらのノードの予測されたクラスが誤っていたとしても、より顕著な勾配を生み出す傾向があることを理論的および実証的に示す。
これらの非効率な攻撃予算を解放するために,ノードの信頼度に影響を受けないグラフ構造の非重み付け勾配を生成する新しい攻撃目標に基づく,グラフ構造に対する非標的攻撃のための単純な攻撃モデルを提案する。
グレーボックス中毒攻撃実験を行い, 適切な予算配分を行うことで, 余分なハイパーパラメータを必要とせず, 勾配に基づくエッジ摂動の有効性を著しく向上できることを示した。
関連論文リスト
- AGSOA:Graph Neural Network Targeted Attack Based on Average Gradient and Structure Optimization [16.681157857248436]
グラフニューラルネットワーク(GNN)は、グラフに小さな摂動を加えることでパフォーマンス低下を引き起こす敵攻撃に対して脆弱である。
本稿では、平均勾配計算と構造最適化モジュールで構成されるAGSOAと呼ばれるGNNに対する攻撃を提案する。
論文 参考訳(メタデータ) (2024-06-19T05:29:20Z) - Minimum Topology Attacks for Graph Neural Networks [70.17791814425148]
グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:29:12Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Are Gradients on Graph Structure Reliable in Gray-box Attacks? [56.346504691615934]
従来のグレーボックス攻撃者は、グラフ構造を乱すために、サロゲートモデルからの勾配を用いて脆弱なエッジを見つける。
本稿では,構造勾配の不確実性に起因する誤差を考察し,解析する。
本稿では,構造勾配の誤差を低減する手法を用いた新しい攻撃モデルを提案する。
論文 参考訳(メタデータ) (2022-08-07T06:43:32Z) - Surrogate Representation Learning with Isometric Mapping for Gray-box
Graph Adversarial Attacks [27.317964031440546]
グレーボックスグラフ攻撃は、被害者モデルに関する限られた知識を持つ攻撃を使用することで、被害者モデルのパフォーマンスを損なうことを目的としている。
ノード属性やグラフ構造の勾配を求めるため、攻撃者は監督下で訓練された仮想代理モデルを構築する。
本稿では,グラフ逆数攻撃の伝達性に及ぼす代理モデルの表現学習の影響について検討する。
論文 参考訳(メタデータ) (2021-10-20T10:47:34Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - Towards More Practical Adversarial Attacks on Graph Neural Networks [14.78539966828287]
グラフニューラルネットワーク(GNN)に対するブラックボックス攻撃を,新規で現実的な制約の下で検討する。
我々は,GNNモデルの構造的帰納バイアスが,この種の攻撃に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-09T05:27:39Z) - Topological Effects on Attacks Against Vertex Classification [61.62383779296796]
本稿では,グラフの2つのトポロジ的特徴を考察し,これらの特徴がグラフを乱さなければならない量に与える影響について考察する。
トレーニングセットに特定の頂点が組み込まれている場合、敵の要求する摂動予算を実質的に満たすことが可能であることを示す。
特に簡単なターゲット(たった1つか2つの摂動の後に誤って分類されるもの)であっても、パフォーマンスの劣化ははるかに遅く、誤ったクラスにずっと低い確率を割り当てる。
論文 参考訳(メタデータ) (2020-03-12T14:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。