論文の概要: Transferable Watermarking to Self-supervised Pre-trained Graph Encoders by Trigger Embeddings
- arxiv url: http://arxiv.org/abs/2406.13177v2
- Date: Mon, 07 Oct 2024 02:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:08:27.001971
- Title: Transferable Watermarking to Self-supervised Pre-trained Graph Encoders by Trigger Embeddings
- Title(参考訳): トリガー埋め込みによる自己教師付き事前学習グラフエンコーダへの透かし
- Authors: Xiangyu Zhao, Hanzhou Wu, Xinpeng Zhang,
- Abstract要約: Graph Self-supervised Learning (GSSL)は、基礎グラフエンコーダの事前トレーニングを可能にする。
このようなエンコーダは簡単にプルインできるので、著作権侵害に弱い。
我々はGSSL設定でグラフエンコーダを保護する新しい透かしフレームワークを開発した。
- 参考スコア(独自算出の注目度): 43.067822791795095
- License:
- Abstract: Recent years have witnessed the prosperous development of Graph Self-supervised Learning (GSSL), which enables to pre-train transferable foundation graph encoders. However, the easy-to-plug-in nature of such encoders makes them vulnerable to copyright infringement. To address this issue, we develop a novel watermarking framework to protect graph encoders in GSSL settings. The key idea is to force the encoder to map a set of specially crafted trigger instances into a unique compact cluster in the outputted embedding space during model pre-training. Consequently, when the encoder is stolen and concatenated with any downstream classifiers, the resulting model inherits the `backdoor' of the encoder and predicts the trigger instances to be in a single category with high probability regardless of the ground truth. Experimental results have shown that, the embedded watermark can be transferred to various downstream tasks in black-box settings, including node classification, link prediction and community detection, which forms a reliable watermark verification system for GSSL in reality. This approach also shows satisfactory performance in terms of model fidelity, reliability and robustness.
- Abstract(参考訳): 近年、転送可能な基礎グラフエンコーダの事前訓練を可能にするグラフ自己教師学習(GSSL)の開発が盛んに行われている。
しかし、このようなエンコーダは簡単にプルインできるので、著作権侵害に弱い。
この問題に対処するため,グラフエンコーダをGSSL設定で保護する新しい透かしフレームワークを開発した。
キーとなるアイデアは、エンコーダに、特別に作られたトリガーインスタンスのセットを、モデル事前トレーニング中に出力された埋め込み空間内のユニークなコンパクトクラスタにマッピングするように強制することである。
その結果、エンコーダが盗まれたり、ダウンストリーム分類器と結合されたりすると、結果として得られたモデルは、エンコーダの「バックドア」を継承し、トリガーインスタンスは、基底真理に関係なく高い確率で単一のカテゴリにあると予測する。
実験の結果,組込み透かしは,ノード分類やリンク予測,コミュニティ検出など,ブラックボックス設定の様々な下流タスクに移動可能であることがわかった。
このアプローチはまた、モデルの忠実さ、信頼性、堅牢性という観点で、十分なパフォーマンスを示す。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - PreGIP: Watermarking the Pretraining of Graph Neural Networks for Deep
Intellectual Property Protection [35.7109941139987]
グラフニューラルネットワーク(GNN)の事前トレーニングは、さまざまな下流タスクの促進に大きく貢献している。
敵は、下流のタスクのために訓練済みのGNNモデルを違法にコピーして展開することができる。
本稿では,組込み空間の高品質を維持しつつ,IP保護のためのGNNエンコーダの事前訓練を透かし,PreGIPという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-06T22:13:49Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - Semi-Supervised and Long-Tailed Object Detection with CascadeMatch [91.86787064083012]
そこで我々はCascadeMatchと呼ばれる新しい擬似ラベル型検出器を提案する。
我々の検出器は、プログレッシブな信頼しきい値を持つ多段検出ヘッドを備えたカスケードネットワークアーキテクチャを備えている。
CascadeMatchは、長い尾のオブジェクト検出の処理において、既存の最先端の半教師付きアプローチを超越していることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:09:25Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - AWEncoder: Adversarial Watermarking Pre-trained Encoders in Contrastive
Learning [18.90841192412555]
コントラスト学習において,事前学習したエンコーダをウォーターマークする逆法であるAWEncoderを導入する。
提案した研究は、異なるコントラスト学習アルゴリズムや下流タスクにおいて、極めて優れた有効性と堅牢性を持っている。
論文 参考訳(メタデータ) (2022-08-08T07:23:37Z) - SSLGuard: A Watermarking Scheme for Self-supervised Learning Pre-trained
Encoders [9.070481370120905]
プリトレーニングエンコーダのための最初の透かしアルゴリズムであるSSLGuardを提案する。
SSLGuardはウォーターマーク注入と検証に有効であり、モデル盗難やその他のウォーターマーク除去攻撃に対して堅牢である。
論文 参考訳(メタデータ) (2022-01-27T17:41:54Z) - Watermarking Pre-trained Encoders in Contrastive Learning [9.23485246108653]
事前訓練されたエンコーダは、慎重に保護される必要がある重要な知的財産である。
既存の透かし技法を分類タスクから対照的な学習シナリオに移行することは困難である。
本稿では,エンコーダの裏口をウォーターマークとして効果的に埋め込むタスク非依存の損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-20T15:14:31Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。