論文の概要: An Out-Of-Distribution Membership Inference Attack Approach for Cross-Domain Graph Attacks
- arxiv url: http://arxiv.org/abs/2505.20074v1
- Date: Mon, 26 May 2025 14:52:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.531018
- Title: An Out-Of-Distribution Membership Inference Attack Approach for Cross-Domain Graph Attacks
- Title(参考訳): クロスドメイングラフ攻撃に対するアウトオフ分布メンバーシップ推論攻撃法
- Authors: Jinyan Wang, Liu Yang, Yuecen Wei, Jiaxuan Si, Chenhao Guo, Qingyun Sun, Xianxian Li, Xingcheng Fu,
- Abstract要約: クロスドメイングラフ攻撃を実現するために,グラフOODメンバーシップ推論攻撃(GOOD-MIA)を提案する。
具体的には、実世界のデータの多様性をモデル化するために、異なる領域の分布を持つ影のサブグラフを構築する。
実験により、GOOD-MIAは複数のドメイン用に設計されたデータセットにおいて優れた攻撃性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 12.08908327186123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network-based methods face privacy leakage risks due to the introduction of topological structures about the targets, which allows attackers to bypass the target's prior knowledge of the sensitive attributes and realize membership inference attacks (MIA) by observing and analyzing the topology distribution. As privacy concerns grow, the assumption of MIA, which presumes that attackers can obtain an auxiliary dataset with the same distribution, is increasingly deviating from reality. In this paper, we categorize the distribution diversity issue in real-world MIA scenarios as an Out-Of-Distribution (OOD) problem, and propose a novel Graph OOD Membership Inference Attack (GOOD-MIA) to achieve cross-domain graph attacks. Specifically, we construct shadow subgraphs with distributions from different domains to model the diversity of real-world data. We then explore the stable node representations that remain unchanged under external influences and consider eliminating redundant information from confounding environments and extracting task-relevant key information to more clearly distinguish between the characteristics of training data and unseen data. This OOD-based design makes cross-domain graph attacks possible. Finally, we perform risk extrapolation to optimize the attack's domain adaptability during attack inference to generalize the attack to other domains. Experimental results demonstrate that GOOD-MIA achieves superior attack performance in datasets designed for multiple domains.
- Abstract(参考訳): グラフニューラルネットワークに基づく手法は、ターゲットに関するトポロジ構造の導入によるプライバシー漏洩リスクに直面しており、攻撃者は、ターゲットの機密属性に関する事前の知識をバイパスし、トポロジ分布を観察して分析することで、メンバシップ推論攻撃(MIA)を実現することができる。
プライバシーの懸念が高まるにつれ、攻撃者が同じ分布を持つ補助データセットを取得できると仮定するMIAの仮定が現実から逸脱しつつある。
本稿では,実世界のMIAシナリオにおける分布多様性問題を,OF-Distribution(OOD)問題に分類し,新たなグラフOODメンバーシップ推論攻撃(GOOD-MIA)を提案し,クロスドメイングラフ攻撃を実現する。
具体的には、実世界のデータの多様性をモデル化するために、異なる領域の分布を持つ影のサブグラフを構築する。
次に、外部の影響下で変化しない安定したノード表現を探索し、冗長な情報を混在する環境から排除し、タスク関連キー情報を抽出し、トレーニングデータの特徴と見当たらないデータとをより明確に区別する。
このOODベースの設計は、クロスドメイングラフ攻撃を可能にする。
最後に、攻撃推論中に攻撃のドメイン適応性を最適化し、攻撃を他のドメインに一般化するリスク補間を行う。
実験により、GOOD-MIAは複数のドメイン用に設計されたデータセットにおいて優れた攻撃性能を発揮することが示された。
関連論文リスト
- Cluster-Aware Attacks on Graph Watermarks [50.19105800063768]
本稿では,コミュニティ誘導型修正を回避できるクラスタ・アウェア・脅威モデルを提案する。
その結果,クラスタ・アウェア・アタックは,ランダムなベースラインよりも最大80%の精度でアトリビューション精度を低下させることができることがわかった。
グラフコミュニティにまたがる透かしノードを分散する軽量な埋め込み拡張を提案する。
論文 参考訳(メタデータ) (2025-04-24T22:49:28Z) - Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - Distributionally Robust Learning for Multi-source Unsupervised Domain Adaptation [9.359714425373616]
対象ドメインの分布がソースドメインの分布と異なる場合、経験的リスクはよく機能しない。
我々は、複数のソースドメインからのラベル付きデータと対象ドメインからのラベルなしデータを活用する、教師なしのドメイン適応アプローチを開発する。
論文 参考訳(メタデータ) (2023-09-05T13:19:40Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Formalizing and Estimating Distribution Inference Risks [11.650381752104298]
プロパティ推論攻撃の形式的および一般的な定義を提案する。
以上の結果から,安価なメタクラス化攻撃は高価なメタクラス化攻撃と同じくらい効果的であることが示唆された。
我々は、最先端のプロパティ推論攻撃を畳み込みニューラルネットワークに拡張する。
論文 参考訳(メタデータ) (2021-09-13T14:54:39Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。