論文の概要: A General Black-box Adversarial Attack on Graph-based Fake News Detectors
- arxiv url: http://arxiv.org/abs/2404.15744v1
- Date: Wed, 24 Apr 2024 09:04:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 19:40:12.086230
- Title: A General Black-box Adversarial Attack on Graph-based Fake News Detectors
- Title(参考訳): グラフベースフェイクニュース検出器に対する一般ブラックボックス攻撃
- Authors: Peican Zhu, Zechen Pan, Yang Liu, Jiwei Tian, Keke Tang, Zhen Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)をベースとした偽ニュース検出装置は,グラフ構築に様々な手法を適用し,識別のための特徴あるニュース埋め込みを学習することを目的とした。
グラフ構造に基づく検知器に対する汎用攻撃(GAFSI)を提案する。
- 参考スコア(独自算出の注目度): 9.075589870815932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network (GNN)-based fake news detectors apply various methods to construct graphs, aiming to learn distinctive news embeddings for classification. Since the construction details are unknown for attackers in a black-box scenario, it is unrealistic to conduct the classical adversarial attacks that require a specific adjacency matrix. In this paper, we propose the first general black-box adversarial attack framework, i.e., General Attack via Fake Social Interaction (GAFSI), against detectors based on different graph structures. Specifically, as sharing is an important social interaction for GNN-based fake news detectors to construct the graph, we simulate sharing behaviors to fool the detectors. Firstly, we propose a fraudster selection module to select engaged users leveraging local and global information. In addition, a post injection module guides the selected users to create shared relations by sending posts. The sharing records will be added to the social context, leading to a general attack against different detectors. Experimental results on empirical datasets demonstrate the effectiveness of GAFSI.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)をベースとした偽ニュース検出装置は,グラフ構築に様々な手法を適用し,識別のための特徴あるニュース埋め込みを学習することを目的とした。
ブラックボックスのシナリオでは、建設の詳細は分かっていないため、特定の隣接行列を必要とする古典的な敵攻撃を実行することは現実的ではない。
本稿では,異なるグラフ構造に基づく検出器に対する一般攻撃(GAFSI)を初めて提案する。
特に、共有はグラフを構築するためにGNNベースのフェイクニュース検出器にとって重要な社会的相互作用であるので、我々は共有行動をシミュレートして検出器を騙す。
まず,ローカルおよびグローバルな情報を活用するユーザを選別するための不正選択モジュールを提案する。
さらに、ポストインジェクションモジュールは、選択したユーザに対して、投稿を送信して共有関係を作成するようにガイドする。
共有記録はソーシャルコンテキストに追加され、さまざまな検出器に対する一般的な攻撃につながる。
実験データを用いた実験の結果,GAFSIの有効性が示された。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Does Black-box Attribute Inference Attacks on Graph Neural Networks
Constitute Privacy Risk? [0.38581147665516596]
グラフニューラルネットワーク(GNN)は、医療、金融、教育など、現実のデータセットとアプリケーションに対して有望な結果を示している。
近年の研究では、GNNはメンバーシップ推論攻撃やリンク再構築攻撃のような攻撃に対して非常に脆弱であることが示されている。
攻撃者が、彼女のパブリック属性や非センシティブ属性に基づいて、センシティブなユーザ属性を推論することを目的とした、属性推論攻撃に関する最初の調査を開始する。
論文 参考訳(メタデータ) (2023-06-01T11:49:43Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Adversarial Privacy Preserving Graph Embedding against Inference Attack [9.90348608491218]
グラフ埋め込みはグラフ構造化データから低次元の特徴表現を学習するのに非常に有用であることが証明されている。
既存のグラフ埋め込み手法は、推論攻撃を防ぐためのユーザのプライバシを考慮しない。
本稿では,学習ノード表現からユーザのプライベート情報を削除するためのアンタングルとパージ機構を統合したグラフ対向トレーニングフレームワークであるAdrial Privacy Graph Embedding (APGE)を提案する。
論文 参考訳(メタデータ) (2020-08-30T00:06:49Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z) - Adversarial Attack on Community Detection by Hiding Individuals [68.76889102470203]
我々はブラックボックス攻撃に焦点をあて、ディープグラフコミュニティ検出モデルの検出からターゲット個人を隠すことを目的としている。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-22T09:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。