論文の概要: Transferable Watermarking to Self-supervised Pre-trained Graph Encoders by Trigger Embeddings
- arxiv url: http://arxiv.org/abs/2406.13177v2
- Date: Mon, 07 Oct 2024 02:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 09:32:33.473166
- Title: Transferable Watermarking to Self-supervised Pre-trained Graph Encoders by Trigger Embeddings
- Title(参考訳): トリガー埋め込みによる自己教師付き事前学習グラフエンコーダへの透かし
- Authors: Xiangyu Zhao, Hanzhou Wu, Xinpeng Zhang,
- Abstract要約: Graph Self-supervised Learning (GSSL)は、基礎グラフエンコーダの事前トレーニングを可能にする。
このようなエンコーダは簡単にプルインできるので、著作権侵害に弱い。
我々はGSSL設定でグラフエンコーダを保護する新しい透かしフレームワークを開発した。
- 参考スコア(独自算出の注目度): 43.067822791795095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the prosperous development of Graph Self-supervised Learning (GSSL), which enables to pre-train transferable foundation graph encoders. However, the easy-to-plug-in nature of such encoders makes them vulnerable to copyright infringement. To address this issue, we develop a novel watermarking framework to protect graph encoders in GSSL settings. The key idea is to force the encoder to map a set of specially crafted trigger instances into a unique compact cluster in the outputted embedding space during model pre-training. Consequently, when the encoder is stolen and concatenated with any downstream classifiers, the resulting model inherits the `backdoor' of the encoder and predicts the trigger instances to be in a single category with high probability regardless of the ground truth. Experimental results have shown that, the embedded watermark can be transferred to various downstream tasks in black-box settings, including node classification, link prediction and community detection, which forms a reliable watermark verification system for GSSL in reality. This approach also shows satisfactory performance in terms of model fidelity, reliability and robustness.
- Abstract(参考訳): 近年、転送可能な基礎グラフエンコーダの事前訓練を可能にするグラフ自己教師学習(GSSL)の開発が盛んに行われている。
しかし、このようなエンコーダは簡単にプルインできるので、著作権侵害に弱い。
この問題に対処するため,グラフエンコーダをGSSL設定で保護する新しい透かしフレームワークを開発した。
キーとなるアイデアは、エンコーダに、特別に作られたトリガーインスタンスのセットを、モデル事前トレーニング中に出力された埋め込み空間内のユニークなコンパクトクラスタにマッピングするように強制することである。
その結果、エンコーダが盗まれたり、ダウンストリーム分類器と結合されたりすると、結果として得られたモデルは、エンコーダの「バックドア」を継承し、トリガーインスタンスは、基底真理に関係なく高い確率で単一のカテゴリにあると予測する。
実験の結果,組込み透かしは,ノード分類やリンク予測,コミュニティ検出など,ブラックボックス設定の様々な下流タスクに移動可能であることがわかった。
このアプローチはまた、モデルの忠実さ、信頼性、堅牢性という観点で、十分なパフォーマンスを示す。
関連論文リスト
- BlackCATT: Black-box Collusion Aware Traitor Tracing in Federated Learning [51.251962154210474]
フェデレートラーニング: BlackCATT におけるブラックボックストレーサトレースのための一般的なコラシオン耐性埋め込み法を提案する。
実験により,異なるアーキテクチャやデータセットにまたがる提案手法の有効性が確認された。
メインタスクの更新不整合に苦しむモデルに対して,提案したBlackCATT+FRには機能正規化が組み込まれている。
論文 参考訳(メタデータ) (2026-02-12T16:26:57Z) - Hybrid Autoencoders for Tabular Data: Leveraging Model-Based Augmentation in Low-Label Settings [13.591018807414484]
本稿では,ニューラルエンコーダと難解なソフト決定木(OSDT)エンコーダを組み合わせたハイブリッドオートエンコーダを提案する。
提案手法は,多種多様なデータセットにまたがる低ラベル分類と回帰において一貫した向上を実現し,深部および木に基づく教師付きベースラインを向上する。
論文 参考訳(メタデータ) (2025-11-10T11:08:39Z) - SSCL-BW: Sample-Specific Clean-Label Backdoor Watermarking for Dataset Ownership Verification [8.045712223215542]
本稿では,サンプル特異的クリーンラベルバックドア透かし(SSCL-BW)を提案する。
U-Netベースの透かしサンプルジェネレータをトレーニングすることにより,サンプル毎に独自の透かしを生成する。
ベンチマークデータセットを用いた実験は,提案手法の有効性と潜在的な透かし除去攻撃に対する頑健性を示す。
論文 参考訳(メタデータ) (2025-10-30T12:13:53Z) - StableGuard: Towards Unified Copyright Protection and Tamper Localization in Latent Diffusion Models [55.05404953041403]
拡散生成プロセスにバイナリ透かしをシームレスに統合する新しいフレームワークを提案する。
画像の忠実さ、透かしの検証、ローカライゼーションの改ざんにおいて、StableGuardは一貫して最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2025-09-22T16:35:19Z) - Graph Signal Generative Diffusion Models [74.75869068073577]
拡散過程を用いたグラフ信号生成のためのU字型エンコーダ-デコーダグラフニューラルネットワーク(U-GNN)を提案する。
アーキテクチャは、エンコーダとデコーダパス間の接続をスキップすることで、異なる解像度でノード機能を学ぶ。
株価の確率予測における拡散モデルの有効性を実証する。
論文 参考訳(メタデータ) (2025-09-21T21:57:27Z) - Towards Robust Red-Green Watermarking for Autoregressive Image Generators [17.784976310663104]
本稿では,自己回帰(AR)画像モデルにおける世代内透かしの利用について検討する。
ARモデルは、視覚トークンのシーケンスを自動回帰予測して画像を生成し、それをピクセルにデコードする。
大規模言語モデルの赤緑色の透かしに着想を得て,次の予測に偏ったトークンレベルの透かし方式を検討した。
類似したトークンを同じ集合に割り当てるために、視覚トークンクラスタリングに依存する2つの新しい透かし手法を提案する。
論文 参考訳(メタデータ) (2025-08-08T19:14:22Z) - Gaussian Shading++: Rethinking the Realistic Deployment Challenge of Performance-Lossless Image Watermark for Diffusion Models [66.54457339638004]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,実世界の展開に適した拡散モデル透かし手法を提案する。
Gaussian Shading++はパフォーマンスのロスレス性を維持するだけでなく、ロバスト性の観点からも既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-04-21T11:18:16Z) - Should we pre-train a decoder in contrastive learning for dense prediction tasks? [0.7237068561453082]
本稿では,エンコーダのみの自己教師付き学習(SSL)を,効率的なエンコーダ・デコーダフレームワークに変換するためのフレームワークに依存しない適応手法を提案する。
まず、デコーダとその対照的な損失に対応するために、既存のアーキテクチャを更新する。
次に、重み付きエンコーダデコーダと非競合目的との対照的な損失を導入し、共同エンコーダデコーダアーキテクチャの事前学習を容易にする。
論文 参考訳(メタデータ) (2025-03-21T20:19:13Z) - Provably Robust and Secure Steganography in Asymmetric Resource Scenario [30.12327233257552]
現在の安全なステガノグラフィーアプローチでは、プライベートメッセージの隠蔽と抽出のためにエンコーダとデコーダのペアが必要となる。
本稿では,非対称な資源設定のための確実かつセキュアなステガノグラフィーフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T13:32:00Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - Semi-Supervised and Long-Tailed Object Detection with CascadeMatch [91.86787064083012]
そこで我々はCascadeMatchと呼ばれる新しい擬似ラベル型検出器を提案する。
我々の検出器は、プログレッシブな信頼しきい値を持つ多段検出ヘッドを備えたカスケードネットワークアーキテクチャを備えている。
CascadeMatchは、長い尾のオブジェクト検出の処理において、既存の最先端の半教師付きアプローチを超越していることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:09:25Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - AWEncoder: Adversarial Watermarking Pre-trained Encoders in Contrastive
Learning [18.90841192412555]
コントラスト学習において,事前学習したエンコーダをウォーターマークする逆法であるAWEncoderを導入する。
提案した研究は、異なるコントラスト学習アルゴリズムや下流タスクにおいて、極めて優れた有効性と堅牢性を持っている。
論文 参考訳(メタデータ) (2022-08-08T07:23:37Z) - SSLGuard: A Watermarking Scheme for Self-supervised Learning Pre-trained
Encoders [9.070481370120905]
プリトレーニングエンコーダのための最初の透かしアルゴリズムであるSSLGuardを提案する。
SSLGuardはウォーターマーク注入と検証に有効であり、モデル盗難やその他のウォーターマーク除去攻撃に対して堅牢である。
論文 参考訳(メタデータ) (2022-01-27T17:41:54Z) - Watermarking Pre-trained Encoders in Contrastive Learning [9.23485246108653]
事前訓練されたエンコーダは、慎重に保護される必要がある重要な知的財産である。
既存の透かし技法を分類タスクから対照的な学習シナリオに移行することは困難である。
本稿では,エンコーダの裏口をウォーターマークとして効果的に埋め込むタスク非依存の損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-20T15:14:31Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。