論文の概要: Privacy Auditing of Multi-domain Graph Pre-trained Model under Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2511.17989v1
- Date: Sat, 22 Nov 2025 09:04:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.573644
- Title: Privacy Auditing of Multi-domain Graph Pre-trained Model under Membership Inference Attacks
- Title(参考訳): 会員推論攻撃下におけるマルチドメイングラフ事前学習モデルのプライバシ監査
- Authors: Jiayi Luo, Qingyun Sun, Yuecen Wei, Haonan Yuan, Xingcheng Fu, Jianxin Li,
- Abstract要約: 我々は,マルチドメイングラフ事前学習モデルに対するメンバシップ推論攻撃のためのフレームワークであるMGP-MIAを提案する。
まず,対象モデルのオーバーフィット特性を増幅するメンバシップ信号増幅機構を提案する。
次に、限られたシャドウグラフを持つ信頼性のあるシャドウモデルを構築するインクリメンタルシャドウモデル構築機構を設計する。
- 参考スコア(独自算出の注目度): 27.853332299363913
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-domain graph pre-training has emerged as a pivotal technique in developing graph foundation models. While it greatly improves the generalization of graph neural networks, its privacy risks under membership inference attacks (MIAs), which aim to identify whether a specific instance was used in training (member), remain largely unexplored. However, effectively conducting MIAs against multi-domain graph pre-trained models is a significant challenge due to: (i) Enhanced Generalization Capability: Multi-domain pre-training reduces the overfitting characteristics commonly exploited by MIAs. (ii) Unrepresentative Shadow Datasets: Diverse training graphs hinder the obtaining of reliable shadow graphs. (iii) Weakened Membership Signals: Embedding-based outputs offer less informative cues than logits for MIAs. To tackle these challenges, we propose MGP-MIA, a novel framework for Membership Inference Attacks against Multi-domain Graph Pre-trained models. Specifically, we first propose a membership signal amplification mechanism that amplifies the overfitting characteristics of target models via machine unlearning. We then design an incremental shadow model construction mechanism that builds a reliable shadow model with limited shadow graphs via incremental learning. Finally, we introduce a similarity-based inference mechanism that identifies members based on their similarity to positive and negative samples. Extensive experiments demonstrate the effectiveness of our proposed MGP-MIA and reveal the privacy risks of multi-domain graph pre-training.
- Abstract(参考訳): マルチドメイングラフ事前学習は、グラフ基盤モデルの開発において重要な手法として登場した。
グラフニューラルネットワークの一般化は大幅に改善されるが、特定のインスタンスがトレーニング(メンバー)に使用されたかどうかを識別することを目的としたMIA(Message Inference attack)によるプライバシリスクは、ほとんど未調査のままである。
しかし、マルチドメイングラフ事前学習モデルに対して効果的にMIAを実行することは、次のような大きな課題である。
(i) 一般化能力の向上: マルチドメイン事前学習はMIAによってよく利用されるオーバーフィッティング特性を低減させる。
(ii)非表現的シャドウデータセット: ディバーストレーニンググラフは信頼できるシャドウグラフの取得を妨げる。
3) 弱化会員信号: 埋め込みに基づく出力は、MIAのロジットよりも情報的な手がかりが少ない。
これらの課題に対処するために,マルチドメイングラフ事前学習モデルに対するメンバシップ推論攻撃のための新しいフレームワークであるMGP-MIAを提案する。
具体的には,まず,機械学習による対象モデルの過適合特性を増幅するメンバシップ信号増幅機構を提案する。
次に、インクリメンタル学習を通じて、限られたシャドウグラフを持つ信頼性のあるシャドウモデルを構築するインクリメンタルシャドウモデル構築機構を設計する。
最後に, 正および負のサンプルとの類似性に基づいて, メンバーを識別する類似性に基づく推論機構を提案する。
広汎な実験により提案したMGP-MIAの有効性を実証し,マルチドメイングラフ事前学習のプライバシーリスクを明らかにする。
関連論文リスト
- A Systematic Study of Model Extraction Attacks on Graph Foundation Models [32.616928898012624]
本稿では,グラフ基礎モデル(GFM)に対するモデル抽出攻撃(MEAs)の最初の系統的研究について述べる。
本稿では,グラフ埋め込みの教師付き回帰を用いて攻撃者エンコーダを訓練する軽量抽出手法を提案する。
実験の結果、攻撃者は元のトレーニングコストのごく一部しか使わず、ほとんど精度を損なうことなく、被害者モデルを近似できることがわかった。
論文 参考訳(メタデータ) (2025-11-14T22:43:42Z) - Neural Breadcrumbs: Membership Inference Attacks on LLMs Through Hidden State and Attention Pattern Analysis [9.529147118376464]
メンバーシップ推論攻撃(MIA)は、特定のデータが機械学習モデルのトレーニングに使用されたかどうかを明らかにする。
我々の研究は、内部表現を単に出力ではなく検査することで、メンバーシップ推論信号に対するさらなる洞察を与えることができるかを探る。
本研究は,出力に基づく信号が保護された場合でも,内部モデル行動がトレーニングデータの露出の側面を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2025-09-05T19:05:49Z) - Aggregation-aware MLP: An Unsupervised Approach for Graph Message-passing [10.93155007218297]
AMLP"は、アグリゲーション関数を直接作成することから適応アグリゲーションへとパラダイムをシフトする、教師なしのフレームワークである。
提案手法は2つの重要なステップから構成される: まず、高次グルーピング効果を促進するグラフ再構成を利用する。
論文 参考訳(メタデータ) (2025-07-27T04:52:55Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - CORE: Data Augmentation for Link Prediction via Information Bottleneck [25.044734252779975]
リンク予測(LP)はグラフ表現学習の基本的な課題である。
LPモデルのコンパクトかつ予測的な拡張を学習するための新しいデータ拡張手法であるCOREを提案する。
論文 参考訳(メタデータ) (2024-04-17T03:20:42Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Adversarial Attacks on Graph Classification via Bayesian Optimisation [25.781404695921122]
本稿では,グラフ分類モデルに対する新たな最適化に基づく攻撃手法を提案する。
提案手法は, 摂動に関して, ブラックボックスであり, クエリ効率が高く, 相似である。
提案手法の有効性と柔軟性を幅広いグラフ分類タスクで実証的に検証する。
論文 参考訳(メタデータ) (2021-11-04T13:01:20Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。