論文の概要: Can Graph Neural Networks Expose Training Data Properties? An Efficient Risk Assessment Approach
- arxiv url: http://arxiv.org/abs/2411.03663v1
- Date: Wed, 06 Nov 2024 04:44:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:23:40.764284
- Title: Can Graph Neural Networks Expose Training Data Properties? An Efficient Risk Assessment Approach
- Title(参考訳): グラフニューラルネットワークはトレーニングデータ特性を抽出できるか? : 効果的なリスク評価アプローチ
- Authors: Hanyang Yuan, Jiarong Xu, Renhong Huang, Mingli Song, Chunping Wang, Yang Yang,
- Abstract要約: 本研究では,共有モデルから機密性情報漏洩のリスクを特定するため,グラフ特性推定攻撃について検討する。
本手法では,攻撃に対して十分な数の近似影モデルを生成すると同時に,グラフ上の少数のモデルセットを訓練することしか必要としない。
- 参考スコア(独自算出の注目度): 37.84933964582224
- License:
- Abstract: Graph neural networks (GNNs) have attracted considerable attention due to their diverse applications. However, the scarcity and quality limitations of graph data present challenges to their training process in practical settings. To facilitate the development of effective GNNs, companies and researchers often seek external collaboration. Yet, directly sharing data raises privacy concerns, motivating data owners to train GNNs on their private graphs and share the trained models. Unfortunately, these models may still inadvertently disclose sensitive properties of their training graphs (e.g., average default rate in a transaction network), leading to severe consequences for data owners. In this work, we study graph property inference attack to identify the risk of sensitive property information leakage from shared models. Existing approaches typically train numerous shadow models for developing such attack, which is computationally intensive and impractical. To address this issue, we propose an efficient graph property inference attack by leveraging model approximation techniques. Our method only requires training a small set of models on graphs, while generating a sufficient number of approximated shadow models for attacks. To enhance diversity while reducing errors in the approximated models, we apply edit distance to quantify the diversity within a group of approximated models and introduce a theoretically guaranteed criterion to evaluate each model's error. Subsequently, we propose a novel selection mechanism to ensure that the retained approximated models achieve high diversity and low error. Extensive experiments across six real-world scenarios demonstrate our method's substantial improvement, with average increases of 2.7% in attack accuracy and 4.1% in ROC-AUC, while being 6.5$\times$ faster compared to the best baseline.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は様々な用途で注目されている。
しかし、グラフデータの不足と品質制限は、実践的な環境でのトレーニングプロセスに課題をもたらす。
効果的なGNNの開発を促進するため、企業や研究者はしばしば外部協力を求めている。
しかし、データを直接共有することでプライバシー上の懸念が高まり、データ所有者はプライベートグラフ上でGNNをトレーニングし、トレーニングされたモデルを共有できる。
残念ながら、これらのモデルはトレーニンググラフの機密性(例えば、トランザクションネットワークにおける平均デフォルトレート)を不注意に開示する可能性があり、データ所有者に深刻な結果をもたらす。
本研究では,共有モデルからの機密情報漏洩のリスクを特定するため,グラフ特性推定攻撃について検討する。
既存のアプローチは通常、そのような攻撃を開発するために多くの影モデルを訓練するが、これは計算集約的で実用的ではない。
そこで本研究では,モデル近似手法を用いて,効率的なグラフ特性推定攻撃を提案する。
本手法では,攻撃に対して十分な数の近似影モデルを生成すると同時に,グラフ上の少数のモデルセットを訓練することしか必要としない。
近似モデルにおける誤差を低減しつつ多様性を高めるため,近似モデル群内の多様性を定量化するために編集距離を適用し,各モデルの誤差を評価するために理論的に保証された基準を導入する。
次に,保持された近似モデルが高い多様性と低い誤差を達成するための新しい選択機構を提案する。
6つの実世界のシナリオにわたる大規模な実験は、攻撃精度が平均2.7%、ROC-AUCが4.1%向上し、最良のベースラインに比べて6.5$\times$高速であることを示す。
関連論文リスト
- Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.011211534057715]
グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、広範囲のアプリケーションにおいてますます重要になりつつある。
本稿では,誘導型GNNに対して教師なしモデルステアリング攻撃を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Model Stealing Attacks Against Inductive Graph Neural Networks [15.334336995523302]
グラフニューラルネットワーク(GNN)は、グラフデータを完全に活用して強力なアプリケーションを構築するために提案されている。
これまでの研究によると、機械学習モデルは盗難攻撃をモデル化する傾向がある。
本稿では,誘導型GNNに対する攻撃を盗む最初のモデルを提案する。
論文 参考訳(メタデータ) (2021-12-15T18:29:22Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。