論文の概要: Surrogate Representation Learning with Isometric Mapping for Gray-box
Graph Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2110.10482v1
- Date: Wed, 20 Oct 2021 10:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:09:25.786090
- Title: Surrogate Representation Learning with Isometric Mapping for Gray-box
Graph Adversarial Attacks
- Title(参考訳): グラフ逆数攻撃に対する等尺写像を用いた代理表現学習
- Authors: Zihan Liul, Yun Luo, Zelin Zang, Stan Z. Li
- Abstract要約: グレーボックスグラフ攻撃は、被害者モデルに関する限られた知識を持つ攻撃を使用することで、被害者モデルのパフォーマンスを損なうことを目的としている。
ノード属性やグラフ構造の勾配を求めるため、攻撃者は監督下で訓練された仮想代理モデルを構築する。
本稿では,グラフ逆数攻撃の伝達性に及ぼす代理モデルの表現学習の影響について検討する。
- 参考スコア(独自算出の注目度): 27.317964031440546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gray-box graph attacks aim at disrupting the performance of the victim model
by using inconspicuous attacks with limited knowledge of the victim model. The
parameters of the victim model and the labels of the test nodes are invisible
to the attacker. To obtain the gradient on the node attributes or graph
structure, the attacker constructs an imaginary surrogate model trained under
supervision. However, there is a lack of discussion on the training of
surrogate models and the robustness of provided gradient information. The
general node classification model loses the topology of the nodes on the graph,
which is, in fact, an exploitable prior for the attacker. This paper
investigates the effect of representation learning of surrogate models on the
transferability of gray-box graph adversarial attacks. To reserve the topology
in the surrogate embedding, we propose Surrogate Representation Learning with
Isometric Mapping (SRLIM). By using Isometric mapping method, our proposed
SRLIM can constrain the topological structure of nodes from the input layer to
the embedding space, that is, to maintain the similarity of nodes in the
propagation process. Experiments prove the effectiveness of our approach
through the improvement in the performance of the adversarial attacks generated
by the gradient-based attacker in untargeted poisoning gray-box setups.
- Abstract(参考訳): グレイボックスグラフ攻撃は、被害者モデルに関する知識が限られた目立たない攻撃を用いて、被害者モデルのパフォーマンスを損なうことを目的としている。
被害者モデルのパラメータとテストノードのラベルは攻撃者には見えない。
ノード属性やグラフ構造の勾配を求めるため、攻撃者は監督下で訓練された仮想代理モデルを構築する。
しかし、サロゲートモデルのトレーニングや提供された勾配情報の堅牢性については議論の余地がない。
一般的なノード分類モデルは、グラフ上のノードのトポロジーを失う。
本稿では,グラフ逆数攻撃の伝達性に及ぼす代理モデルの表現学習の影響について検討する。
サロゲート埋め込みにおけるトポロジーを予約するために,isometric mapping (srlim) を用いたサロゲート表現学習を提案する。
Isometric mapping法を用いることで,提案するSRLIMは,入力層から埋め込み空間へのノードのトポロジ的構造,すなわち伝搬過程におけるノードの類似性を維持することができる。
グラデーションベースの攻撃者による非標的のグレーボックス装置における敵攻撃の性能向上により, 本手法の有効性を実証した。
関連論文リスト
- Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Are Gradients on Graph Structure Reliable in Gray-box Attacks? [56.346504691615934]
従来のグレーボックス攻撃者は、グラフ構造を乱すために、サロゲートモデルからの勾配を用いて脆弱なエッジを見つける。
本稿では,構造勾配の不確実性に起因する誤差を考察し,解析する。
本稿では,構造勾配の誤差を低減する手法を用いた新しい攻撃モデルを提案する。
論文 参考訳(メタデータ) (2022-08-07T06:43:32Z) - Adversarial Attacks on Graph Classification via Bayesian Optimisation [25.781404695921122]
本稿では,グラフ分類モデルに対する新たな最適化に基づく攻撃手法を提案する。
提案手法は, 摂動に関して, ブラックボックスであり, クエリ効率が高く, 相似である。
提案手法の有効性と柔軟性を幅広いグラフ分類タスクで実証的に検証する。
論文 参考訳(メタデータ) (2021-11-04T13:01:20Z) - Query-based Adversarial Attacks on Graph with Fake Nodes [32.67989796394633]
そこで本研究では,元のグラフに偽ノードの集合を導入することで,新たな敵攻撃を提案する。
具体的には、各被害者ノードに対して、最も敵対的な特徴を取得するよう、被害者モデルに問い合わせる。
私たちの攻撃は実用的で目立たない方法で行われます。
論文 参考訳(メタデータ) (2021-09-27T14:19:17Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。