論文の概要: Unlearnable Graph: Protecting Graphs from Unauthorized Exploitation
- arxiv url: http://arxiv.org/abs/2303.02568v1
- Date: Sun, 5 Mar 2023 03:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:51:10.696897
- Title: Unlearnable Graph: Protecting Graphs from Unauthorized Exploitation
- Title(参考訳): unlearnable graph: 不正利用からグラフを保護する
- Authors: Yixin Liu, Chenrui Fan, Pan Zhou and Lichao Sun
- Abstract要約: 学習不可能なグラフの例を生成するための新しい手法を提案する。
Error-Minimizing Structure Poisoning (EMinS) モジュールを使ってグラフに妄想的だが知覚不可能なノイズを注入することにより、グラフを説明不能にすることができる。
- 参考スコア(独自算出の注目度): 68.59161853439339
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the use of graph-structured data in various fields is becoming
increasingly popular, it also raises concerns about the potential unauthorized
exploitation of personal data for training commercial graph neural network
(GNN) models, which can compromise privacy. To address this issue, we propose a
novel method for generating unlearnable graph examples. By injecting delusive
but imperceptible noise into graphs using our Error-Minimizing Structural
Poisoning (EMinS) module, we are able to make the graphs unexploitable.
Notably, by modifying only $5\%$ at most of the potential edges in the graph
data, our method successfully decreases the accuracy from ${77.33\%}$ to
${42.47\%}$ on the COLLAB dataset.
- Abstract(参考訳): さまざまな分野におけるグラフ構造化データの利用が普及している一方で、商用グラフニューラルネットワーク(gnn)モデルのトレーニングにおける個人データの不正利用の可能性への懸念も高まり、プライバシを侵害する可能性がある。
そこで本研究では,未発見のグラフ例を生成する新しい手法を提案する。
Error-Minimizing Structure Poisoning (EMinS) モジュールを使ってグラフに妄想的だが知覚不可能なノイズを注入することにより、グラフを説明不能にすることができる。
特に、グラフデータ内のほとんどの潜在的なエッジで$5\%$だけを変更することで、この方法はcollabデータセット上で${77.33\%}$から${42.47\%}$に精度を下げることに成功した。
関連論文リスト
- Graph Unlearning with Efficient Partial Retraining [28.433619085748447]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで顕著な成功を収めている。
GNNは、望ましくないグラフデータに基づいてトレーニングされ、パフォーマンスと信頼性を低下させることができる。
学習不能なGNNのモデルユーティリティをよりよく維持するグラフアンラーニングフレームワークであるGraphRevokerを提案する。
論文 参考訳(メタデータ) (2024-03-12T06:22:10Z) - GraphPub: Generation of Differential Privacy Graph with High
Availability [21.829551460549936]
差分プライバシー(DP)は、グラフデータのプライバシーを保護する一般的な方法である。
グラフデータの複雑なトポロジ構造のため、グラフにDPを適用すると、GNNモデルのメッセージパッシングや集約に影響を及ぼすことが多い。
グラフトポロジを保護しつつ,データの可用性が基本的に変化しないことを保証するグラフパブリッシャ(GraphPub)を提案する。
論文 参考訳(メタデータ) (2024-02-28T20:02:55Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - Deep Fraud Detection on Non-attributed Graph [61.636677596161235]
グラフニューラルネットワーク(GNN)は不正検出に強い性能を示している。
ラベル付きデータは大規模な産業問題、特に不正検出には不十分である。
よりラベルのないデータを活用するための新しいグラフ事前学習戦略を提案する。
論文 参考訳(メタデータ) (2021-10-04T03:42:09Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。