論文の概要: Cluster-Aware Attacks on Graph Watermarks
- arxiv url: http://arxiv.org/abs/2504.17971v1
- Date: Thu, 24 Apr 2025 22:49:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.593649
- Title: Cluster-Aware Attacks on Graph Watermarks
- Title(参考訳): グラフ透かしにおけるクラスタ・アウェア・アタック
- Authors: Alexander Nemecek, Emre Yilmaz, Erman Ayday,
- Abstract要約: 本稿では,コミュニティ誘導型修正を回避できるクラスタ・アウェア・脅威モデルを提案する。
その結果,クラスタ・アウェア・アタックは,ランダムなベースラインよりも最大80%の精度でアトリビューション精度を低下させることができることがわかった。
グラフコミュニティにまたがる透かしノードを分散する軽量な埋め込み拡張を提案する。
- 参考スコア(独自算出の注目度): 50.19105800063768
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data from domains such as social networks, healthcare, finance, and cybersecurity can be represented as graph-structured information. Given the sensitive nature of this data and their frequent distribution among collaborators, ensuring secure and attributable sharing is essential. Graph watermarking enables attribution by embedding user-specific signatures into graph-structured data. While prior work has addressed random perturbation attacks, the threat posed by adversaries leveraging structural properties through community detection remains unexplored. In this work, we introduce a cluster-aware threat model in which adversaries apply community-guided modifications to evade detection. We propose two novel attack strategies and evaluate them on real-world social network graphs. Our results show that cluster-aware attacks can reduce attribution accuracy by up to 80% more than random baselines under equivalent perturbation budgets on sparse graphs. To mitigate this threat, we propose a lightweight embedding enhancement that distributes watermark nodes across graph communities. This approach improves attribution accuracy by up to 60% under attack on dense graphs, without increasing runtime or structural distortion. Our findings underscore the importance of cluster-topological awareness in both watermarking design and adversarial modeling.
- Abstract(参考訳): ソーシャルネットワーク、医療、金融、サイバーセキュリティといった分野のデータは、グラフ構造化情報として表現することができる。
このデータの繊細な性質と、共同作業者間の頻繁な分散を考えると、安全で帰属的な共有が不可欠である。
グラフウォーターマーキングは、ユーザ固有のシグネチャをグラフ構造化データに埋め込むことで、帰属を可能にする。
以前の研究はランダムな摂動攻撃に対処してきたが、コミュニティ検出を通じて構造的特性を活用する敵による脅威は未解明のままである。
本研究では,攻撃者がコミュニティ誘導による検出を回避できるクラスタ・アウェア・脅威モデルを提案する。
本稿では,2つの新たな攻撃戦略を提案し,それらを実世界のソーシャルネットワークグラフ上で評価する。
その結果,クラスタ・アウェア・アタックは,スパースグラフに等価な摂動予算の下で,ランダムなベースラインよりも最大80%の精度で帰属精度を低下させることができることがわかった。
この脅威を軽減するために,グラフコミュニティにまたがる透かしノードを分散する軽量な埋め込み拡張を提案する。
このアプローチは、実行時や構造歪みを増大させることなく、高密度グラフに対する攻撃下での属性精度を最大60%向上させる。
本研究は,透かし設計と対向モデルの両方において,クラスタトポロジカルな認識の重要性を浮き彫りにした。
関連論文リスト
- Attacks on Node Attributes in Graph Neural Networks [32.40598187698689]
本研究では,特徴に基づく敵対攻撃の適用を通じて,グラフモデルの脆弱性について検討する。
以上の結果から,GAD(Projected Gradient Descent)を用いた決定時間攻撃は,平均ノード埋め込みとグラフコントラスト学習戦略を用いた中毒攻撃に比べ,より強力であることが示唆された。
論文 参考訳(メタデータ) (2024-02-19T17:52:29Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Adversarial Attack on Community Detection by Hiding Individuals [68.76889102470203]
我々はブラックボックス攻撃に焦点をあて、ディープグラフコミュニティ検出モデルの検出からターゲット個人を隠すことを目的としている。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-22T09:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。