論文の概要: GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation
- arxiv url: http://arxiv.org/abs/2310.07100v1
- Date: Wed, 11 Oct 2023 00:50:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 02:42:56.311558
- Title: GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation
- Title(参考訳): GraphCloak: 不正なエクスプロイテーションによるグラフ構造化データ内のタスク固有の知識の保護
- Authors: Yixin Liu, Chenrui Fan, Xun Chen, Pan Zhou, Lichao Sun,
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
- 参考スコア(独自算出の注目度): 61.80017550099027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Graph Neural Networks (GNNs) become increasingly prevalent in a variety of fields, from social network analysis to protein-protein interaction studies, growing concerns have emerged regarding the unauthorized utilization of personal data. Recent studies have shown that imperceptible poisoning attacks are an effective method of protecting image data from such misuse. However, the efficacy of this approach in the graph domain remains unexplored. To bridge this gap, this paper introduces GraphCloak to safeguard against the unauthorized usage of graph data. Compared with prior work, GraphCloak offers unique significant innovations: (1) graph-oriented, the perturbations are applied to both topological structures and descriptive features of the graph; (2) effective and stealthy, our cloaking method can bypass various inspections while causing a significant performance drop in GNNs trained on the cloaked graphs; and (3) stable across settings, our methods consistently perform effectively under a range of practical settings with limited knowledge. To address the intractable bi-level optimization problem, we propose two error-minimizing-based poisoning methods that target perturbations on the structural and feature space, along with a subgraph injection poisoning method. Our comprehensive evaluation of these methods underscores their effectiveness, stealthiness, and stability. We also delve into potential countermeasures and provide analytical justification for their effectiveness, paving the way for intriguing future research.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が、ソーシャルネットワーク分析からタンパク質-タンパク質相互作用研究に至るまで、様々な分野で普及するにつれて、個人データの不正利用に対する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
しかし、グラフ領域におけるこのアプローチの有効性は未解明のままである。
このギャップを埋めるために、グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
グラフ指向,摂動はグラフのトポロジ的構造と記述的特徴の両方に適用される; 有効かつステルス性, クローキング手法は様々な検査を回避できると同時に, クロークされたグラフで訓練されたGNNの大幅な性能低下を招き得る; 設定が安定する; それぞれの手法は、限られた知識を持つ実用的な設定の下で一貫して有効に機能する。
難解な二段階最適化問題に対処するために, 構造的および特徴空間上の摂動を標的とした2つの誤り最小化型中毒法と, サブグラフ注入による中毒法を提案する。
これらの手法の総合的な評価は, その有効性, ステルス性, 安定性を裏付けるものである。
我々はまた、潜在的な対策を探求し、その効果を分析学的に正当化し、将来の研究への道を開く。
関連論文リスト
- Top K Enhanced Reinforcement Learning Attacks on Heterogeneous Graph Node Classification [1.4943280454145231]
グラフニューラルネットワーク(GNN)は、グラフベースのデータに対する例外的なパフォーマンスのため、かなりの関心を集めている。
それらの堅牢性、特に異種グラフ上では、特に敵攻撃に対する探索が過小評価されている。
本稿では,ヘテロKRLAttackを提案する。
論文 参考訳(メタデータ) (2024-08-04T08:44:00Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Uncertainty-Aware Robust Learning on Noisy Graphs [16.66112191539017]
本稿では,分散的ロバストな最適化を動機とした,新しい不確実性を考慮したグラフ学習フレームワークを提案する。
具体的には、グラフニューラルネットワークベースのエンコーダを使用して、ノードの特徴を埋め込んで、最適なノード埋め込みを見つけます。
このような不確実性を考慮した学習プロセスは、ノード表現の改善と、より堅牢なグラフ予測モデルをもたらす。
論文 参考訳(メタデータ) (2023-06-14T02:45:14Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Unsupervised Adversarially-Robust Representation Learning on Graphs [26.48111798048012]
近年の研究では、グラフの深層学習が敵の攻撃に弱いことが示されている。
本稿では,相互情報を用いたグラフ上でのロバスト表現学習の根底にある問題に焦点をあてる。
論文 参考訳(メタデータ) (2020-12-04T09:29:16Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Node Copying for Protection Against Graph Neural Network Topology
Attacks [24.81359861632328]
特に、グラフトポロジの破損は、グラフベースの学習アルゴリズムの性能を著しく低下させる可能性がある。
本稿では,ノードコピーを用いて,敵攻撃による分類の劣化を緩和するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-09T18:09:55Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。