論文の概要: Node Copying for Protection Against Graph Neural Network Topology
Attacks
- arxiv url: http://arxiv.org/abs/2007.06704v1
- Date: Thu, 9 Jul 2020 18:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 05:25:26.149796
- Title: Node Copying for Protection Against Graph Neural Network Topology
Attacks
- Title(参考訳): グラフニューラルネットワークトポロジー攻撃に対するノードコピー
- Authors: Florence Regol, Soumyasundar Pal and Mark Coates
- Abstract要約: 特に、グラフトポロジの破損は、グラフベースの学習アルゴリズムの性能を著しく低下させる可能性がある。
本稿では,ノードコピーを用いて,敵攻撃による分類の劣化を緩和するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 24.81359861632328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks can affect the performance of existing deep learning
models. With the increased interest in graph based machine learning techniques,
there have been investigations which suggest that these models are also
vulnerable to attacks. In particular, corruptions of the graph topology can
degrade the performance of graph based learning algorithms severely. This is
due to the fact that the prediction capability of these algorithms relies
mostly on the similarity structure imposed by the graph connectivity.
Therefore, detecting the location of the corruption and correcting the induced
errors becomes crucial. There has been some recent work which tackles the
detection problem, however these methods do not address the effect of the
attack on the downstream learning task. In this work, we propose an algorithm
that uses node copying to mitigate the degradation in classification that is
caused by adversarial attacks. The proposed methodology is applied only after
the model for the downstream task is trained and the added computation cost
scales well for large graphs. Experimental results show the effectiveness of
our approach for several real world datasets.
- Abstract(参考訳): 敵攻撃は既存のディープラーニングモデルの性能に影響を与える可能性がある。
グラフベースの機械学習技術への関心が高まり、これらのモデルが攻撃にも脆弱であることを示唆する調査が行われた。
特に、グラフトポロジの破損は、グラフベースの学習アルゴリズムの性能を著しく低下させる可能性がある。
これは、これらのアルゴリズムの予測能力が、グラフ接続によって課される類似性構造に大きく依存しているためである。
したがって、汚職の位置を検出し、発生したエラーを修正することが重要である。
近年,検出問題に対処する研究がいくつかあるが,これらの手法は下流学習課題に対する攻撃の影響に対処していない。
本研究では,敵の攻撃による分類の劣化を軽減するために,ノードコピーを用いたアルゴリズムを提案する。
提案手法は,ダウンストリームタスクのモデルがトレーニングされた後にのみ適用され,追加した計算コストは大規模グラフに対して十分にスケールする。
実験の結果,いくつかの実世界のデータセットに対するアプローチの有効性が示された。
関連論文リスト
- Perseus: Leveraging Common Data Patterns with Curriculum Learning for More Robust Graph Neural Networks [4.196444883507288]
グラフニューラルネットワーク(GNN)は、グラフデータを扱うのに優れるが、敵の攻撃に弱いままである。
本稿では,カリキュラム学習に基づく新たな対人防御手法であるPerseusを提案する。
実験の結果、ペルセウスは優れた性能を発揮し、敵の攻撃に対してはるかに堅牢であることが示された。
論文 参考訳(メタデータ) (2024-10-16T10:08:02Z) - Top K Enhanced Reinforcement Learning Attacks on Heterogeneous Graph Node Classification [1.4943280454145231]
グラフニューラルネットワーク(GNN)は、グラフベースのデータに対する例外的なパフォーマンスのため、かなりの関心を集めている。
それらの堅牢性、特に異種グラフ上では、特に敵攻撃に対する探索が過小評価されている。
本稿では,ヘテロKRLAttackを提案する。
論文 参考訳(メタデータ) (2024-08-04T08:44:00Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Exploring High-Order Structure for Robust Graph Structure Learning [33.62223306095631]
グラフニューラルネットワーク(GNN)は、敵の攻撃に対して脆弱である。すなわち、知覚不能な構造摂動は、GNNを騙して誤った予測をすることができる。
本稿では,特徴の滑らかさの観点から,グラフに対する逆攻撃を解析する。
本稿では,高次構造情報をグラフ構造学習に組み込む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-22T07:03:08Z) - Adversarial Attacks on Graph Classification via Bayesian Optimisation [25.781404695921122]
本稿では,グラフ分類モデルに対する新たな最適化に基づく攻撃手法を提案する。
提案手法は, 摂動に関して, ブラックボックスであり, クエリ効率が高く, 相似である。
提案手法の有効性と柔軟性を幅広いグラフ分類タスクで実証的に検証する。
論文 参考訳(メタデータ) (2021-11-04T13:01:20Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。