論文の概要: PreGIP: Watermarking the Pretraining of Graph Neural Networks for Deep
Intellectual Property Protection
- arxiv url: http://arxiv.org/abs/2402.04435v1
- Date: Tue, 6 Feb 2024 22:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 17:46:21.755038
- Title: PreGIP: Watermarking the Pretraining of Graph Neural Networks for Deep
Intellectual Property Protection
- Title(参考訳): PreGIP: 深部知的財産保護のためのグラフニューラルネットワークの事前学習の透かし
- Authors: Enyan Dai, Minhua Lin, Suhang Wang
- Abstract要約: グラフニューラルネットワーク(GNN)の事前トレーニングは、さまざまな下流タスクの促進に大きく貢献している。
敵は、下流のタスクのために訓練済みのGNNモデルを違法にコピーして展開することができる。
本稿では,組込み空間の高品質を維持しつつ,IP保護のためのGNNエンコーダの事前訓練を透かし,PreGIPという新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.7109941139987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pretraining on Graph Neural Networks (GNNs) has shown great power in
facilitating various downstream tasks. As pretraining generally requires huge
amount of data and computational resources, the pretrained GNNs are high-value
Intellectual Properties (IP) of the legitimate owner. However, adversaries may
illegally copy and deploy the pretrained GNN models for their downstream tasks.
Though initial efforts have been made to watermark GNN classifiers for IP
protection, these methods require the target classification task for
watermarking, and thus are not applicable to self-supervised pretraining of GNN
models. Hence, in this work, we propose a novel framework named PreGIP to
watermark the pretraining of GNN encoder for IP protection while maintain the
high-quality of the embedding space. PreGIP incorporates a task-free
watermarking loss to watermark the embedding space of pretrained GNN encoder. A
finetuning-resistant watermark injection is further deployed. Theoretical
analysis and extensive experiments show the effectiveness of {\method} in IP
protection and maintaining high-performance for downstream tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の事前トレーニングは、さまざまな下流タスクの促進に大きく貢献している。
事前学習は一般的に大量のデータと計算資源を必要とするため、事前訓練されたGNNは正当な所有者の高価値知的特性(IP)である。
しかし、敵は、下流のタスクのために訓練済みのGNNモデルを違法にコピーして展開することができる。
IP 保護のための GNN 分類器の透かしに最初に取り組みが行われたが、これらの手法は透かしのための目標分類タスクを必要とするため、GNN モデルの自己管理事前訓練には適用できない。
そこで本研究では,組込み空間の高品質を維持しつつ,IP保護のためのGNNエンコーダの事前訓練を透かし,PreGIPという新しいフレームワークを提案する。
PreGIPは、事前訓練されたGNNエンコーダの埋め込み空間を透かし、タスクフリーな透かし損失を取り入れている。
さらに微調整耐性透かし注入を施す。
理論的解析と広範な実験により、ダウンストリームタスクにおけるIP保護と高性能維持における {\method} の有効性が示されている。
関連論文リスト
- GENIE: Watermarking Graph Neural Networks for Link Prediction [5.1323099412421636]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを利用して機械学習の分野を進歩させた。
近年の研究では、GNNはモデルスティーリング攻撃に弱いことが示されている。
透かしはGNNモデルのIPを保護するのに有効であることが示されている。
論文 参考訳(メタデータ) (2024-06-07T10:12:01Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Watermarking Graph Neural Networks based on Backdoor Attacks [10.844454900508566]
本稿では,グラフ分類タスクとノード分類タスクの両方に対して,グラフニューラルネットワーク(GNN)のための透かしフレームワークを提案する。
我々のフレームワークは、両方のタスクに対して非常に高い確率(約100ドル)でGNNモデルのオーナシップを検証することができる。
論文 参考訳(メタデータ) (2021-10-21T09:59:59Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Watermarking Graph Neural Networks by Random Graphs [38.70278014164124]
GNNモデルに透かしを施す動機となるGNNモデルの所有権を保護する必要がある。
提案手法では,ランダムなノード特徴ベクトルとラベルを持つエルドス・レニー(ER)ランダムグラフを,GNNを訓練するためのトリガとしてランダムに生成する。
モデル検証において、マークされたGNNをトリガーERグラフで活性化することにより、ウォーターマークを出力から再構成してオーナシップを検証することができる。
論文 参考訳(メタデータ) (2020-11-01T14:22:48Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。