論文の概要: Adversarial Attacks on Graph Classification via Bayesian Optimisation
- arxiv url: http://arxiv.org/abs/2111.02842v1
- Date: Thu, 4 Nov 2021 13:01:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 12:13:40.762763
- Title: Adversarial Attacks on Graph Classification via Bayesian Optimisation
- Title(参考訳): ベイズ最適化によるグラフ分類の逆攻撃
- Authors: Xingchen Wan, Henry Kenlay, Binxin Ru, Arno Blaas, Michael A. Osborne,
Xiaowen Dong
- Abstract要約: 本稿では,グラフ分類モデルに対する新たな最適化に基づく攻撃手法を提案する。
提案手法は, 摂動に関して, ブラックボックスであり, クエリ効率が高く, 相似である。
提案手法の有効性と柔軟性を幅広いグラフ分類タスクで実証的に検証する。
- 参考スコア(独自算出の注目度): 25.781404695921122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks, a popular class of models effective in a wide range of
graph-based learning tasks, have been shown to be vulnerable to adversarial
attacks. While the majority of the literature focuses on such vulnerability in
node-level classification tasks, little effort has been dedicated to analysing
adversarial attacks on graph-level classification, an important problem with
numerous real-life applications such as biochemistry and social network
analysis. The few existing methods often require unrealistic setups, such as
access to internal information of the victim models, or an impractically-large
number of queries. We present a novel Bayesian optimisation-based attack method
for graph classification models. Our method is black-box, query-efficient and
parsimonious with respect to the perturbation applied. We empirically validate
the effectiveness and flexibility of the proposed method on a wide range of
graph classification tasks involving varying graph properties, constraints and
modes of attack. Finally, we analyse common interpretable patterns behind the
adversarial samples produced, which may shed further light on the adversarial
robustness of graph classification models.
- Abstract(参考訳): グラフニューラルネットワークは、幅広いグラフベースの学習タスクに有効な一般的なモデルのクラスであり、敵の攻撃に弱いことが示されている。
文献の大部分はノードレベルの分類タスクにおいてこのような脆弱性に焦点を当てているが、グラフレベルの分類に対する敵意的な攻撃を分析することにはほとんど努力していない。
数少ない既存手法では、被害者モデルの内部情報へのアクセスや、急激な数のクエリなど、非現実的な設定を必要とすることが多い。
グラフ分類モデルに対するベイズ最適化に基づく新たな攻撃法を提案する。
提案手法はブラックボックスであり,クエリ効率が高く,摂動に対する対処法である。
提案手法の有効性と柔軟性を,様々なグラフ特性,制約,攻撃モードを含む広範囲なグラフ分類タスクで実証的に検証した。
最後に,生成されたサンプルの背後にある共通解釈可能なパターンを分析し,グラフ分類モデルの逆ロバスト性にさらなる光を当てる。
関連論文リスト
- Top K Enhanced Reinforcement Learning Attacks on Heterogeneous Graph Node Classification [1.4943280454145231]
グラフニューラルネットワーク(GNN)は、グラフベースのデータに対する例外的なパフォーマンスのため、かなりの関心を集めている。
それらの堅牢性、特に異種グラフ上では、特に敵攻撃に対する探索が過小評価されている。
本稿では,ヘテロKRLAttackを提案する。
論文 参考訳(メタデータ) (2024-08-04T08:44:00Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Revisiting Adversarial Attacks on Graph Neural Networks for Graph
Classification [38.339503144719984]
本稿では,グラフ構造とノード特徴を操作することで,敵の例を生成する新しい汎用フレームワークを提案する。
具体的には,グラフ分類タスクに対応するノードレベルの重要度を生成するために,グラフクラスマッピングとその変種を利用する。
6つの実世界のベンチマークで4つの最先端グラフ分類モデルを攻撃する実験は、我々のフレームワークの柔軟性と有効性を検証する。
論文 参考訳(メタデータ) (2022-08-13T13:41:44Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Reinforcement Learning For Data Poisoning on Graph Neural Networks [0.5156484100374058]
コンピュータサイエンスの相当なサブフィールドとして、敵対的機械学習が登場した。
強化学習エージェントを用いたグラフ分類のためのニューラルネットワークに対するデータポゾニング(訓練時間)攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2021-02-12T22:34:53Z) - Query-free Black-box Adversarial Attacks on Graphs [37.88689315688314]
そこで,攻撃者は対象モデルについて知識がなく,クエリーアクセスも行わないグラフに対して,クエリフリーなブラックボックス攻撃を提案する。
対象モデルに対するフリップリンクの影響をスペクトル変化によって定量化できることを証明し,固有値摂動理論を用いて近似する。
その単純さとスケーラビリティのため、提案モデルは様々なグラフベースモデルで一般的なだけでなく、異なる知識レベルがアクセス可能であれば容易に拡張できる。
論文 参考訳(メタデータ) (2020-12-12T08:52:56Z) - Node Copying for Protection Against Graph Neural Network Topology
Attacks [24.81359861632328]
特に、グラフトポロジの破損は、グラフベースの学習アルゴリズムの性能を著しく低下させる可能性がある。
本稿では,ノードコピーを用いて,敵攻撃による分類の劣化を緩和するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-09T18:09:55Z) - Adversarial Attack on Community Detection by Hiding Individuals [68.76889102470203]
我々はブラックボックス攻撃に焦点をあて、ディープグラフコミュニティ検出モデルの検出からターゲット個人を隠すことを目的としている。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-22T09:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。