論文の概要: Adversarial Attack on Community Detection by Hiding Individuals
- arxiv url: http://arxiv.org/abs/2001.07933v1
- Date: Wed, 22 Jan 2020 09:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:12:13.594730
- Title: Adversarial Attack on Community Detection by Hiding Individuals
- Title(参考訳): 隠蔽者によるコミュニティ検出に対する敵対的攻撃
- Authors: Jia Li, Honglei Zhang, Zhichao Han, Yu Rong, Hong Cheng, Junzhou Huang
- Abstract要約: 我々はブラックボックス攻撃に焦点をあて、ディープグラフコミュニティ検出モデルの検出からターゲット個人を隠すことを目的としている。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 68.76889102470203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been demonstrated that adversarial graphs, i.e., graphs with
imperceptible perturbations added, can cause deep graph models to fail on
node/graph classification tasks. In this paper, we extend adversarial graphs to
the problem of community detection which is much more difficult. We focus on
black-box attack and aim to hide targeted individuals from the detection of
deep graph community detection models, which has many applications in
real-world scenarios, for example, protecting personal privacy in social
networks and understanding camouflage patterns in transaction networks. We
propose an iterative learning framework that takes turns to update two modules:
one working as the constrained graph generator and the other as the surrogate
community detection model. We also find that the adversarial graphs generated
by our method can be transferred to other learning based community detection
models.
- Abstract(参考訳): 逆グラフ、すなわち、知覚不能な摂動が付加されたグラフは、ノード/グラフ分類タスクでディープグラフモデルに失敗することが示されている。
本稿では, 逆グラフを, より困難であるコミュニティ検出の問題に拡張する。
我々は,ブラックボックス攻撃に着目し,ソーシャルネットワークにおける個人のプライバシ保護や,トランザクションネットワークにおけるカモフラージュパターンの理解など,現実世界のシナリオに多くの応用がある深層グラフコミュニティ検出モデルからターゲットの個人を隠蔽することを目指している。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
また,本手法で生成した逆グラフを,他の学習に基づくコミュニティ検出モデルに転送できることを見いだした。
関連論文リスト
- EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Finding MNEMON: Reviving Memories of Node Embeddings [39.206574462957136]
元のグラフのノード埋め込み行列にのみアクセスすることで、敵が適切な精度でエッジを復元できることが示される。
広範囲な実験を通してグラフ回復攻撃の有効性と適用性を示す。
論文 参考訳(メタデータ) (2022-04-14T13:44:26Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Adversarial Attacks on Graph Classification via Bayesian Optimisation [25.781404695921122]
本稿では,グラフ分類モデルに対する新たな最適化に基づく攻撃手法を提案する。
提案手法は, 摂動に関して, ブラックボックスであり, クエリ効率が高く, 相似である。
提案手法の有効性と柔軟性を幅広いグラフ分類タスクで実証的に検証する。
論文 参考訳(メタデータ) (2021-11-04T13:01:20Z) - Deep Fraud Detection on Non-attributed Graph [61.636677596161235]
グラフニューラルネットワーク(GNN)は不正検出に強い性能を示している。
ラベル付きデータは大規模な産業問題、特に不正検出には不十分である。
よりラベルのないデータを活用するための新しいグラフ事前学習戦略を提案する。
論文 参考訳(メタデータ) (2021-10-04T03:42:09Z) - Query-based Adversarial Attacks on Graph with Fake Nodes [32.67989796394633]
そこで本研究では,元のグラフに偽ノードの集合を導入することで,新たな敵攻撃を提案する。
具体的には、各被害者ノードに対して、最も敵対的な特徴を取得するよう、被害者モデルに問い合わせる。
私たちの攻撃は実用的で目立たない方法で行われます。
論文 参考訳(メタデータ) (2021-09-27T14:19:17Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。