論文の概要: Watermarking Graph Neural Networks via Explanations for Ownership Protection
- arxiv url: http://arxiv.org/abs/2501.05614v1
- Date: Thu, 09 Jan 2025 23:25:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:27:53.169718
- Title: Watermarking Graph Neural Networks via Explanations for Ownership Protection
- Title(参考訳): オーナシップ保護のための説明による透かしグラフニューラルネットワーク
- Authors: Jane Downer, Ren Wang, Binghui Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、広汎なグラフデータを学習するための主流の手法である。
GNNを不正使用から保護することは依然として課題である。
オーナーシップ情報をモデルに埋め込むウォーターマーキングは潜在的な解決策である。
- 参考スコア(独自算出の注目度): 13.93535590008316
- License:
- Abstract: Graph Neural Networks (GNNs) are the mainstream method to learn pervasive graph data and are widely deployed in industry, making their intellectual property valuable. However, protecting GNNs from unauthorized use remains a challenge. Watermarking, which embeds ownership information into a model, is a potential solution. However, existing watermarking methods have two key limitations: First, almost all of them focus on non-graph data, with watermarking GNNs for complex graph data largely unexplored. Second, the de facto backdoor-based watermarking methods pollute training data and induce ownership ambiguity through intentional misclassification. Our explanation-based watermarking inherits the strengths of backdoor-based methods (e.g., robust to watermark removal attacks), but avoids data pollution and eliminates intentional misclassification. In particular, our method learns to embed the watermark in GNN explanations such that this unique watermark is statistically distinct from other potential solutions, and ownership claims must show statistical significance to be verified. We theoretically prove that, even with full knowledge of our method, locating the watermark is an NP-hard problem. Empirically, our method manifests robustness to removal attacks like fine-tuning and pruning. By addressing these challenges, our approach marks a significant advancement in protecting GNN intellectual property.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、広く普及しているグラフデータを学習するための主流の手法であり、業界に広く展開されているため、その知的財産価値は貴重である。
しかし、GNNを不正使用から保護することは依然として困難である。
オーナーシップ情報をモデルに埋め込むウォーターマーキングは潜在的な解決策である。
しかし、既存の透かし法には2つの重要な制限がある: まず、そのほとんどはグラフ以外のデータに焦点を合わせ、複雑なグラフデータに対する透かしGNNはほとんど探索されていない。
第二に、事実上のバックドアベースの透かし手法は、意図的な誤分類によって、トレーニングデータを汚染し、オーナーシップの曖昧さを誘発する。
我々の説明に基づく透かしは、バックドア方式(例えば、透かし除去攻撃に対する堅牢性)の強みを継承するが、データ汚染を回避し、意図的な誤分類を除去する。
特に,本手法は,この特異な透かしが他の潜在的な解と統計的に異なること,およびオーナシップの主張が統計的に有意であることを示すように,GNNの説明に透かしを埋め込むことを学習する。
理論的には、我々の方法の知識が十分にあるとしても、透かしの位置がNPハード問題であることを証明している。
実験的に,本手法は微調整や刈り取りなどの除去攻撃に対して堅牢性を示す。
これらの課題に対処することにより,GNN知的財産権保護の大幅な進歩を図った。
関連論文リスト
- GENIE: Watermarking Graph Neural Networks for Link Prediction [5.1323099412421636]
グラフニューラルネットワーク(GNN)は、グラフベースの機械学習において、貴重な知的特性となっている。
ウォーターマーキングはディープニューラルネットワークにとって有望なODフレームワークであるが、グラフデータの非ユークリッド性のため、既存の手法ではGNNに一般化できない。
本稿では、リンク予測(LP)のためのGNNを透かし出す最初のスキームであるGENIEを提案する。
提案手法はDWT(Dynamic Watermark Thresholding)を搭載し,既存の透かし方式の実践的問題に対処しながら高い検証確率(>99.99%)を確保する。
論文 参考訳(メタデータ) (2024-06-07T10:12:01Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。