論文の概要: Graph Robustness Benchmark: Benchmarking the Adversarial Robustness of
Graph Machine Learning
- arxiv url: http://arxiv.org/abs/2111.04314v1
- Date: Mon, 8 Nov 2021 07:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 14:53:55.128034
- Title: Graph Robustness Benchmark: Benchmarking the Adversarial Robustness of
Graph Machine Learning
- Title(参考訳): グラフロバストネスベンチマーク:グラフ機械学習の逆ロバストネスのベンチマーク
- Authors: Qinkai Zheng, Xu Zou, Yuxiao Dong, Yukuo Cen, Da Yin, Jiarong Xu, Yang
Yang, Jie Tang
- Abstract要約: グラフに対する敵対的な攻撃は、グラフ機械学習(GML)モデルの堅牢性にとって大きな脅威となっている。
グラフロバストネスベンチマーク(GRB)を用いて,GMLモデルの対向ロバスト性に対する拡張性,統一性,モジュール性,再現性を備えた評価を行う。
- 参考スコア(独自算出の注目度): 24.500868045285287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on graphs have posed a major threat to the robustness of
graph machine learning (GML) models. Naturally, there is an ever-escalating
arms race between attackers and defenders. However, the strategies behind both
sides are often not fairly compared under the same and realistic conditions. To
bridge this gap, we present the Graph Robustness Benchmark (GRB) with the goal
of providing a scalable, unified, modular, and reproducible evaluation for the
adversarial robustness of GML models. GRB standardizes the process of attacks
and defenses by 1) developing scalable and diverse datasets, 2) modularizing
the attack and defense implementations, and 3) unifying the evaluation protocol
in refined scenarios. By leveraging the GRB pipeline, the end-users can focus
on the development of robust GML models with automated data processing and
experimental evaluations. To support open and reproducible research on graph
adversarial learning, GRB also hosts public leaderboards across different
scenarios. As a starting point, we conduct extensive experiments to benchmark
baseline techniques. GRB is open-source and welcomes contributions from the
community. Datasets, codes, leaderboards are available at
https://cogdl.ai/grb/home.
- Abstract(参考訳): グラフに対する敵対的攻撃は、グラフ機械学習(gml)モデルの堅牢性に対する大きな脅威となっている。
当然、アタッカーとディフェンダーの間には、常にエスカレートする武器競争がある。
しかし、両陣営の戦略は、しばしば同一かつ現実的な条件下では十分に比較されない。
このギャップを埋めるため,我々はgmlモデルの逆ロバスト性に対するスケーラブルで統一性,モジュール性,再現性を備えた評価を目標として,グラフロバストネスベンチマーク(grb)を提案する。
GRBは攻撃と防御のプロセスを標準化する
1)スケーラブルで多様なデータセットの開発
2 攻撃及び防御の実施のモジュール化、及び
3) 評価プロトコルを洗練したシナリオで統一する。
GRBパイプラインを活用することで、エンドユーザは、自動データ処理と実験的評価を備えた堅牢なGMLモデルの開発に集中することができる。
グラフ敵対学習に関するオープンで再現可能な研究をサポートするため、GRBはさまざまなシナリオにわたる公開リーダボードも提供している。
出発点として,ベースライン手法のベンチマーク実験を行った。
GRBはオープンソースで、コミュニティからのコントリビューションを歓迎している。
データセット、コード、リーダーボードはhttps://cogdl.ai/grb/home.comで入手できる。
関連論文リスト
- GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - On the Adversarial Robustness of Graph Contrastive Learning Methods [9.675856264585278]
本稿では,グラフコントラスト学習(GCL)モデルのロバスト性を評価するために,包括的評価ロバストネスプロトコルを提案する。
我々はこれらのモデルを,グラフ構造をターゲットとした適応的敵攻撃,特に回避シナリオに適用する。
本研究は,GCL手法の堅牢性に関する知見を提供することを目標とし,今後の研究方向の道を開くことを期待する。
論文 参考訳(メタデータ) (2023-11-29T17:59:18Z) - Graph Learning Indexer: A Contributor-Friendly and Metadata-Rich
Platform for Graph Learning Benchmarks [11.972121836128592]
Graph Learning Indexer(GLI)は、グラフ学習のためのベンチマークキュレーションプラットフォームである。
GLIは、Emphdatasetコントリビュータにインセンティブを与えるように設計されている。
GLIは、ベンチマークデータセットの単純なコレクションではなく、知識ベースをキュレートする。
論文 参考訳(メタデータ) (2022-12-08T19:57:01Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - GRAND+: Scalable Graph Random Neural Networks [26.47857017550499]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付き学習に広く採用されている。
GRANDは計算コストのかかるデータ拡張処理に依存するため、大規模グラフを扱うことは困難である。
半教師付きグラフ学習のためのスケーラブルで高性能なGNNフレームワークGRAND+を提案する。
論文 参考訳(メタデータ) (2022-03-12T09:41:23Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。