論文の概要: GENIE: Watermarking Graph Neural Networks for Link Prediction
- arxiv url: http://arxiv.org/abs/2406.04805v2
- Date: Sun, 15 Dec 2024 16:46:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:59.605590
- Title: GENIE: Watermarking Graph Neural Networks for Link Prediction
- Title(参考訳): GENIE:リンク予測のための透かしグラフニューラルネットワーク
- Authors: Venkata Sai Pranav Bachina, Ankit Gangwal, Aaryan Ajay Sharma, Charu Sharma,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフベースの機械学習において、貴重な知的特性となっている。
ウォーターマーキングはディープニューラルネットワークにとって有望なODフレームワークであるが、グラフデータの非ユークリッド性のため、既存の手法ではGNNに一般化できない。
本稿では、リンク予測(LP)のためのGNNを透かし出す最初のスキームであるGENIEを提案する。
提案手法はDWT(Dynamic Watermark Thresholding)を搭載し,既存の透かし方式の実践的問題に対処しながら高い検証確率(>99.99%)を確保する。
- 参考スコア(独自算出の注目度): 5.1323099412421636
- License:
- Abstract: Graph Neural Networks (GNNs) have become invaluable intellectual property in graph-based machine learning. However, their vulnerability to model stealing attacks when deployed within Machine Learning as a Service (MLaaS) necessitates robust Ownership Demonstration (OD) techniques. Watermarking is a promising OD framework for Deep Neural Networks, but existing methods fail to generalize to GNNs due to the non-Euclidean nature of graph data. Previous works on GNN watermarking have primarily focused on node and graph classification, overlooking Link Prediction (LP). In this paper, we propose GENIE (watermarking Graph nEural Networks for lInk prEdiction), the first-ever scheme to watermark GNNs for LP. GENIE creates a novel backdoor for both node-representation and subgraph-based LP methods, utilizing a unique trigger set and a secret watermark vector. Our OD scheme is equipped with Dynamic Watermark Thresholding (DWT), ensuring high verification probability (>99.99%) while addressing practical issues in existing watermarking schemes. We extensively evaluate GENIE across 4 model architectures (i.e., SEAL, GCN, GraphSAGE and NeoGNN) and 7 real-world datasets. Furthermore, we validate the robustness of GENIE against 11 state-of-the-art watermark removal techniques and 3 model extraction attacks. We also show GENIE's resilience against ownership piracy attacks. Finally, we discuss a defense strategy to counter adaptive attacks against GENIE.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフベースの機械学習において、貴重な知的特性となっている。
しかし、機械学習・アズ・ア・サービス(MLaaS)にデプロイされた場合のステルス攻撃をモデル化する脆弱性は、堅牢なオーナシップ・デモレーション(OD)技術を必要とする。
ウォーターマーキングはディープニューラルネットワークにとって有望なODフレームワークであるが、グラフデータの非ユークリッド性のため、既存の手法ではGNNに一般化できない。
GNNウォーターマーキングに関するこれまでの研究は、主にノードとグラフの分類に重点を置いており、リンク予測(英語版) (LP) を見下ろしている。
本稿では,LP における GNN の透かし方式である GENIE (watermarking Graph nEural Networks for lInk prEdiction) を提案する。
GENIEは、ユニークなトリガーセットと秘密の透かしベクトルを利用して、ノード表現とサブグラフベースのLPメソッドの両方のための新しいバックドアを作成する。
提案方式はDWT(Dynamic Watermark Thresholding)を搭載し,既存の透かし方式の実践的問題に対処しながら高い検証確率(>99.99%)を確保する。
我々は4つのモデルアーキテクチャ(SEAL、GCN、GraphSAGE、NeoGNN)と7つの実世界のデータセットにまたがるGENIEを広範囲に評価した。
さらに,11種類の透かし除去技術と3種類のモデル抽出攻撃に対するGENIEの堅牢性を検証する。
また、ジェニーの所有権海賊行為に対するレジリエンスを示す。
最後に、ジェニーに対する適応攻撃に対抗するための防衛戦略について議論する。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - PreGIP: Watermarking the Pretraining of Graph Neural Networks for Deep
Intellectual Property Protection [35.7109941139987]
グラフニューラルネットワーク(GNN)の事前トレーニングは、さまざまな下流タスクの促進に大きく貢献している。
敵は、下流のタスクのために訓練済みのGNNモデルを違法にコピーして展開することができる。
本稿では,組込み空間の高品質を維持しつつ,IP保護のためのGNNエンコーダの事前訓練を透かし,PreGIPという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-06T22:13:49Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Watermarking Graph Neural Networks based on Backdoor Attacks [10.844454900508566]
本稿では,グラフ分類タスクとノード分類タスクの両方に対して,グラフニューラルネットワーク(GNN)のための透かしフレームワークを提案する。
我々のフレームワークは、両方のタスクに対して非常に高い確率(約100ドル)でGNNモデルのオーナシップを検証することができる。
論文 参考訳(メタデータ) (2021-10-21T09:59:59Z) - Watermarking Graph Neural Networks by Random Graphs [38.70278014164124]
GNNモデルに透かしを施す動機となるGNNモデルの所有権を保護する必要がある。
提案手法では,ランダムなノード特徴ベクトルとラベルを持つエルドス・レニー(ER)ランダムグラフを,GNNを訓練するためのトリガとしてランダムに生成する。
モデル検証において、マークされたGNNをトリガーERグラフで活性化することにより、ウォーターマークを出力から再構成してオーナシップを検証することができる。
論文 参考訳(メタデータ) (2020-11-01T14:22:48Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。