論文の概要: Robust GNN Watermarking via Implicit Perception of Topological Invariants
- arxiv url: http://arxiv.org/abs/2510.25934v1
- Date: Wed, 29 Oct 2025 20:12:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.560618
- Title: Robust GNN Watermarking via Implicit Perception of Topological Invariants
- Title(参考訳): 位相不変量の入射知覚によるロバストGNN透かし
- Authors: Jipeng Li, Yannning Shen,
- Abstract要約: InvGNN-WMは、モデルのグラフ不変量に対する暗黙の認識とオーナシップを結びつける。
軽量ヘッドは、所有者がプライベートなキャリアセット上で正規化された代数接続を予測する。
トリガーや圧縮ベースのベースラインよりも高い透かし精度が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are valuable intellectual property, yet many watermarks rely on backdoor triggers that break under common model edits and create ownership ambiguity. We present InvGNN-WM, which ties ownership to a model's implicit perception of a graph invariant, enabling trigger-free, black-box verification with negligible task impact. A lightweight head predicts normalized algebraic connectivity on an owner-private carrier set; a sign-sensitive decoder outputs bits, and a calibrated threshold controls the false-positive rate. Across diverse node and graph classification datasets and backbones, InvGNN-WM matches clean accuracy while yielding higher watermark accuracy than trigger- and compression-based baselines. It remains strong under unstructured pruning, fine-tuning, and post-training quantization; plain knowledge distillation (KD) weakens the mark, while KD with a watermark loss (KD+WM) restores it. We provide guarantees for imperceptibility and robustness, and we prove that exact removal is NP-complete.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は貴重な知的財産であるが、多くの透かしは一般的なモデル編集で壊れるバックドアトリガーに依存し、オーナシップの曖昧さを生み出す。
InvGNN-WMは、モデルが持つグラフ不変量に対する暗黙的な認識と結びつき、無視可能なタスクインパクトによるトリガーフリーでブラックボックス検証を可能にする。
ライトウェイトヘッドは、所有者専用キャリアセット上で正規化された代数接続を予測し、サインセンシティブデコーダはビットを出力し、校正しきい値が偽陽性率を制御する。
InvGNN-WMは多様なノード分類データセットとグラフ分類データセットとバックボーンにまたがってクリーンな精度を一致し、トリガベースや圧縮ベースラインよりも高い透かし精度が得られる。
原知識蒸留(KD)はマークを弱め、透かし損失(KD+WM)を持つKDはマークを復元する。
我々は,非受容性と堅牢性を保証するとともに,正確な除去がNP完全であることを証明した。
関連論文リスト
- SSCL-BW: Sample-Specific Clean-Label Backdoor Watermarking for Dataset Ownership Verification [8.045712223215542]
本稿では,サンプル特異的クリーンラベルバックドア透かし(SSCL-BW)を提案する。
U-Netベースの透かしサンプルジェネレータをトレーニングすることにより,サンプル毎に独自の透かしを生成する。
ベンチマークデータセットを用いた実験は,提案手法の有効性と潜在的な透かし除去攻撃に対する頑健性を示す。
論文 参考訳(メタデータ) (2025-10-30T12:13:53Z) - WGLE:Backdoor-free and Multi-bit Black-box Watermarking for Graph Neural Networks [2.3612692427322313]
グラフニューラルネットワーク(GNN)のための新しいブラックボックス透かしパラダイムであるWGLEを提案する。
WGLEは、意図した情報をエンコードする透かしを埋め込む。
その結果、WGLEは100%のオーナシップ検証精度、平均忠実度0.85%、潜在的攻撃に匹敵し、組込みオーバーヘッドが低いことがわかった。
論文 参考訳(メタデータ) (2025-06-10T09:12:00Z) - Watermarking Graph Neural Networks via Explanations for Ownership Protection [13.93535590008316]
グラフニューラルネットワーク(GNN)は、広汎なグラフデータを学習するための主流の手法である。
GNNを不正使用から保護することは依然として課題である。
オーナーシップ情報をモデルに埋め込むウォーターマーキングは潜在的な解決策である。
論文 参考訳(メタデータ) (2025-01-09T23:25:06Z) - Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
グラフニューラルネットワーク(GNN)におけるラベルフリップの正確な認証手法を提案する。
本稿では,ノード分類タスクにおける広範囲なGNNアーキテクチャの認証に本手法を適用した。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な認証を提示します。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - GENIE: Watermarking Graph Neural Networks for Link Prediction [5.1323099412421636]
グラフニューラルネットワーク(GNN)は、グラフベースの機械学習において、貴重な知的特性となっている。
ウォーターマーキングはディープニューラルネットワークにとって有望なODフレームワークであるが、グラフデータの非ユークリッド性のため、既存の手法ではGNNに一般化できない。
本稿では、リンク予測(LP)のためのGNNを透かし出す最初のスキームであるGENIEを提案する。
提案手法はDWT(Dynamic Watermark Thresholding)を搭載し,既存の透かし方式の実践的問題に対処しながら高い検証確率(>99.99%)を確保する。
論文 参考訳(メタデータ) (2024-06-07T10:12:01Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Watermarking Graph Neural Networks by Random Graphs [38.70278014164124]
GNNモデルに透かしを施す動機となるGNNモデルの所有権を保護する必要がある。
提案手法では,ランダムなノード特徴ベクトルとラベルを持つエルドス・レニー(ER)ランダムグラフを,GNNを訓練するためのトリガとしてランダムに生成する。
モデル検証において、マークされたGNNをトリガーERグラフで活性化することにより、ウォーターマークを出力から再構成してオーナシップを検証することができる。
論文 参考訳(メタデータ) (2020-11-01T14:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。