論文の概要: WGLE:Backdoor-free and Multi-bit Black-box Watermarking for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2506.08602v1
- Date: Tue, 10 Jun 2025 09:12:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.074714
- Title: WGLE:Backdoor-free and Multi-bit Black-box Watermarking for Graph Neural Networks
- Title(参考訳): WGLE:グラフニューラルネットワークのためのバックドアフリー・マルチビットブラックボックス透かし
- Authors: Tingzhi Li, Xuefeng Liu,
- Abstract要約: グラフニューラルネットワーク(GNN)のための新しいブラックボックス透かしパラダイムであるWGLEを提案する。
WGLEは、意図した情報をエンコードする透かしを埋め込む。
その結果、WGLEは100%のオーナシップ検証精度、平均忠実度0.85%、潜在的攻撃に匹敵し、組込みオーバーヘッドが低いことがわかった。
- 参考スコア(独自算出の注目度): 2.3612692427322313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are increasingly deployed in graph-related applications, making ownership verification critical to protect their intellectual property against model theft. Fingerprinting and black-box watermarking are two main methods. However, the former relies on determining model similarity, which is computationally expensive and prone to ownership collisions after model post-processing such as model pruning or fine-tuning. The latter embeds backdoors, exposing watermarked models to the risk of backdoor attacks. Moreover, both methods enable ownership verification but do not convey additional information. As a result, each distributed model requires a unique trigger graph, and all trigger graphs must be used to query the suspect model during verification. Multiple queries increase the financial cost and the risk of detection. To address these challenges, this paper proposes WGLE, a novel black-box watermarking paradigm for GNNs that enables embedding the multi-bit string as the ownership information without using backdoors. WGLE builds on a key insight we term Layer-wise Distance Difference on an Edge (LDDE), which quantifies the difference between the feature distance and the prediction distance of two connected nodes. By predefining positive or negative LDDE values for multiple selected edges, WGLE embeds the watermark encoding the intended information without introducing incorrect mappings that compromise the primary task. WGLE is evaluated on six public datasets and six mainstream GNN architectures along with state-of-the-art methods. The results show that WGLE achieves 100% ownership verification accuracy, an average fidelity degradation of 0.85%, comparable robustness against potential attacks, and low embedding overhead. The code is available in the repository.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ関連のアプリケーションにますますデプロイされ、モデルの盗難から知的財産を保護するためにオーナシップの検証が重要になる。
フィンガープリントとブラックボックスの透かしは2つの主要な方法である。
しかし、前者は計算コストが高く、モデルプルーニングや微調整のようなモデル後処理の後、オーナシップの衝突を起こしやすいモデル類似性を決定することに頼っている。
後者はバックドアを埋め込み、ウォーターマークされたモデルをバックドア攻撃のリスクに晒す。
さらに、いずれの手法もオーナシップの検証を可能にするが、追加情報を伝達しない。
結果として、各分散モデルはユニークなトリガーグラフを必要とし、すべてのトリガーグラフを使用して、検証中に疑似モデルに問い合わせる必要がある。
複数のクエリは、金銭的コストと検出のリスクを増大させる。
これらの課題に対処するために、バックドアを使わずにマルチビット文字列をオーナシップ情報として埋め込むことのできる、GNNのための新しいブラックボックス透かしパラダイムであるWGLEを提案する。
WGLEは、エッジ(LDDE)上のレイヤワイド距離差(Layer-wise Distance difference)というキーインサイトに基づいて、特徴距離と2つの連結ノードの予測距離の差を定量化する。
複数の選択されたエッジに対して正または負のLDDE値を事前に定義することにより、WGLEは、意図した情報をエンコードする透かしを埋め込む。
WGLEは6つの公開データセットと6つの主流GNNアーキテクチャと最先端の手法で評価されている。
その結果、WGLEは100%のオーナシップ検証精度、平均忠実度劣化率0.85%、潜在的攻撃に対するロバスト性、埋め込みオーバーヘッドの低減を実現していることがわかった。
コードはリポジトリから入手可能だ。
関連論文リスト
- GraphBridge: Towards Arbitrary Transfer Learning in GNNs [65.01790632978962]
GraphBridgeは、GNNの異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークである。
予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
これらのシナリオを代表する16以上のデータセットで実施された実証検証では、タスクとドメインに依存しないトランスファー学習のためのフレームワークの能力が確認されている。
論文 参考訳(メタデータ) (2025-02-26T15:57:51Z) - GENIE: Watermarking Graph Neural Networks for Link Prediction [5.1323099412421636]
グラフニューラルネットワーク(GNN)は、グラフベースの機械学習において、貴重な知的特性となっている。
ウォーターマーキングはディープニューラルネットワークにとって有望なODフレームワークであるが、グラフデータの非ユークリッド性のため、既存の手法ではGNNに一般化できない。
本稿では、リンク予測(LP)のためのGNNを透かし出す最初のスキームであるGENIEを提案する。
提案手法はDWT(Dynamic Watermark Thresholding)を搭載し,既存の透かし方式の実践的問題に対処しながら高い検証確率(>99.99%)を確保する。
論文 参考訳(メタデータ) (2024-06-07T10:12:01Z) - OCGEC: One-class Graph Embedding Classification for DNN Backdoor Detection [18.11795712499763]
本研究では,一クラスグラフ埋め込み分類(OCGEC)と呼ばれる新しい一クラス分類フレームワークを提案する。
OCGECは、少量のクリーンデータだけでモデルレベルのバックドア検出にGNNを使用する。
他のベースラインと比較して、AUCのスコアは、多くのタスクで98%以上である。
論文 参考訳(メタデータ) (2023-12-04T02:48:40Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - GrOVe: Ownership Verification of Graph Neural Networks using Embeddings [13.28269672097063]
グラフニューラルネットワーク(GNN)は、大規模グラフ構造化データから推論をモデル化および描画するための最先端のアプローチとして登場した。
以前の研究によると、GNNは抽出攻撃をモデル化する傾向がある。
GrOVeは最先端のGNNモデルフィンガープリント方式である。
論文 参考訳(メタデータ) (2023-04-17T19:06:56Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Watermarking Graph Neural Networks based on Backdoor Attacks [10.844454900508566]
本稿では,グラフ分類タスクとノード分類タスクの両方に対して,グラフニューラルネットワーク(GNN)のための透かしフレームワークを提案する。
我々のフレームワークは、両方のタスクに対して非常に高い確率(約100ドル)でGNNモデルのオーナシップを検証することができる。
論文 参考訳(メタデータ) (2021-10-21T09:59:59Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Alleviating the Inconsistency Problem of Applying Graph Neural Network
to Fraud Detection [78.88163190021798]
不整合問題に対処するために、新しいGNNフレームワークである$mathsfGraphConsis$を導入します。
4つのデータセットの実証分析は、不正検出タスクにおいて不整合の問題が不可欠であることを示唆している。
我々はまた、SOTAモデルを実装したGNNベースの不正検出ツールボックスもリリースした。
論文 参考訳(メタデータ) (2020-05-01T21:43:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。