論文の概要: Scalable Adversarial Attack on Graph Neural Networks with Alternating
Direction Method of Multipliers
- arxiv url: http://arxiv.org/abs/2009.10233v1
- Date: Tue, 22 Sep 2020 00:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:22:53.285298
- Title: Scalable Adversarial Attack on Graph Neural Networks with Alternating
Direction Method of Multipliers
- Title(参考訳): 乗算器の交互方向法によるグラフニューラルネットワークのスケーラブルな逆攻撃
- Authors: Boyuan Feng, Yuke Wang, Xu Li, and Yufei Ding
- Abstract要約: 乗算器の交互方向法(ADMM)を用いた最初のスケーラブルな対向攻撃法であるSAGを提案する。
SAGは最先端の手法と比較して計算量やメモリオーバーヘッドを大幅に削減できることを示す。
- 参考スコア(独自算出の注目度): 17.09807200410981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have achieved high performance in analyzing
graph-structured data and have been widely deployed in safety-critical areas,
such as finance and autonomous driving. However, only a few works have explored
GNNs' robustness to adversarial attacks, and their designs are usually limited
by the scale of input datasets (i.e., focusing on small graphs with only
thousands of nodes). In this work, we propose, SAG, the first scalable
adversarial attack method with Alternating Direction Method of Multipliers
(ADMM). We first decouple the large-scale graph into several smaller graph
partitions and cast the original problem into several subproblems. Then, we
propose to solve these subproblems using projected gradient descent on both the
graph topology and the node features that lead to considerably lower memory
consumption compared to the conventional attack methods. Rigorous experiments
further demonstrate that SAG can significantly reduce the computation and
memory overhead compared with the state-of-the-art approach, making SAG
applicable towards graphs with large size of nodes and edges.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データの解析において高いパフォーマンスを実現しており、金融や自動運転などの安全クリティカルな領域に広くデプロイされている。
しかしながら、GNNの敵攻撃に対する堅牢性を探る研究はごくわずかであり、その設計は通常、入力データセットのスケール(つまり数千のノードしか持たない小さなグラフ)によって制限される。
本研究では,ALMM(Alternating Direction Method of Multipliers)を用いた最初のスケーラブルな敵攻撃手法であるSAGを提案する。
まず、大規模なグラフを複数の小さなグラフパーティションに分割し、元の問題をいくつかのサブ問題にキャストします。
そこで本研究では,これらのサブプロブレムを,従来の攻撃手法に比べてメモリ消費が大幅に減少するグラフトポロジとノード特徴の両方に勾配勾配を投影して解決する。
厳密な実験により、SAGは最先端のアプローチと比較して計算とメモリオーバーヘッドを著しく削減し、ノードとエッジの大きいグラフに適用できることを示した。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - $\rm A^2Q$: Aggregation-Aware Quantization for Graph Neural Networks [18.772128348519566]
グラフニューラルネットワーク(GNN)のための集約型混合精度量子化(rm A2Q$)を提案する。
本手法は,ノードレベルのタスクとグラフレベルのタスクで最大11.4%,9.5%の精度向上を実現し,専用ハードウェアアクセラレータで最大2倍の高速化を実現する。
論文 参考訳(メタデータ) (2023-02-01T02:54:35Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Scalable Attack on Graph Data by Injecting Vicious Nodes [44.56647129718062]
グラフ畳み込みネットワーク(GCN)は、注意深い設計の攻撃に対して脆弱である。
我々は、より実用的な攻撃シナリオを考慮した、よりスケーラブルなフレームワークであるApproximate Fast Gradient Sign Method (AFGSM)を開発した。
提案手法はGCNの分類精度を大幅に低減し,攻撃性能を損なうことなく既存の手法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-22T02:11:13Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。