論文の概要: Attacks on Node Attributes in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2402.12426v1
- Date: Mon, 19 Feb 2024 17:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 18:35:21.938974
- Title: Attacks on Node Attributes in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるノード属性の攻撃
- Authors: Ying Xu, Michael Lanier, Anindya Sarkar, Yevgeniy Vorobeychik
- Abstract要約: 本研究では,特徴に基づく敵対攻撃の適用を通じて,グラフモデルの脆弱性について検討する。
以上の結果から,GA(Projected Gradient Descent, PGD)を用いた決定時間攻撃は,平均ノード埋め込みとグラフコントラスト学習戦略を用いた中毒攻撃に比べ,より強力であることが示唆された。
これはグラフデータセキュリティに対する洞察を与え、グラフベースのモデルが最も脆弱な場所をピンポイントすることで、そのような攻撃に対する強力な防御メカニズムの開発を通知する。
- 参考スコア(独自算出の注目度): 32.40598187698689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graphs are commonly used to model complex networks prevalent in modern social
media and literacy applications. Our research investigates the vulnerability of
these graphs through the application of feature based adversarial attacks,
focusing on both decision-time attacks and poisoning attacks. In contrast to
state-of-the-art models like Net Attack and Meta Attack, which target node
attributes and graph structure, our study specifically targets node attributes.
For our analysis, we utilized the text dataset Hellaswag and graph datasets
Cora and CiteSeer, providing a diverse basis for evaluation. Our findings
indicate that decision-time attacks using Projected Gradient Descent (PGD) are
more potent compared to poisoning attacks that employ Mean Node Embeddings and
Graph Contrastive Learning strategies. This provides insights for graph data
security, pinpointing where graph-based models are most vulnerable and thereby
informing the development of stronger defense mechanisms against such attacks.
- Abstract(参考訳): グラフは、現代のソーシャルメディアやリテラシーアプリケーションで広く使われている複雑なネットワークをモデル化するのによく使われる。
本研究は,これらのグラフの脆弱性を,特徴に基づく敵攻撃の適用を通じて調査し,決定時間攻撃と中毒攻撃の両方に着目した。
ノード属性とグラフ構造を対象とするNet AttackやMeta Attackのような最先端モデルとは対照的に,本研究では特にノード属性を対象としています。
分析では,テキストデータセットのHellaswagとグラフデータセットのCoraとCiteSeerを使用し,さまざまな評価基盤を提供しました。
本研究は,平均ノード埋め込みとグラフコントラスト学習戦略を用いた中毒攻撃と比較して,pgdを用いた意思決定時間攻撃の方が強いことを示唆する。
これはグラフデータセキュリティに対する洞察を与え、グラフベースのモデルが最も脆弱な場所をピンポイントすることで、そのような攻撃に対する強力な防御メカニズムの開発を通知する。
関連論文リスト
- Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Revisiting Adversarial Attacks on Graph Neural Networks for Graph
Classification [38.339503144719984]
本稿では,グラフ構造とノード特徴を操作することで,敵の例を生成する新しい汎用フレームワークを提案する。
具体的には,グラフ分類タスクに対応するノードレベルの重要度を生成するために,グラフクラスマッピングとその変種を利用する。
6つの実世界のベンチマークで4つの最先端グラフ分類モデルを攻撃する実験は、我々のフレームワークの柔軟性と有効性を検証する。
論文 参考訳(メタデータ) (2022-08-13T13:41:44Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Reinforcement Learning For Data Poisoning on Graph Neural Networks [0.5156484100374058]
コンピュータサイエンスの相当なサブフィールドとして、敵対的機械学習が登場した。
強化学習エージェントを用いたグラフ分類のためのニューラルネットワークに対するデータポゾニング(訓練時間)攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2021-02-12T22:34:53Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。