論文の概要: SSL-Auth: An Authentication Framework by Fragile Watermarking for
Pre-trained Encoders in Self-supervised Learning
- arxiv url: http://arxiv.org/abs/2308.04673v2
- Date: Wed, 16 Aug 2023 09:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 16:14:00.190975
- Title: SSL-Auth: An Authentication Framework by Fragile Watermarking for
Pre-trained Encoders in Self-supervised Learning
- Title(参考訳): SSL-Auth: 自己教師型学習における事前学習エンコーダのためのFragile Watermarkingによる認証フレームワーク
- Authors: Xiaobei Li, Changchun Yin, Liming Fang, Run Wang, Chenhao Lin
- Abstract要約: 我々は、トレーニング済みエンコーダに特化して設計された最初の認証フレームワークであるSSL-Authを提案する。
SSL-Authは、選択されたキーサンプルを透かし情報として使用し、透かし情報を再構築するために検証ネットワークを訓練する。
キーサンプルの復元結果を比較することで、修正エンコーダが元の再構築を模倣しないため、悪意のある修正を検出することができる。
- 参考スコア(独自算出の注目度): 12.952020363163982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL), utilizing unlabeled datasets for training
powerful encoders, has achieved significant success recently. These encoders
serve as feature extractors for downstream tasks, requiring substantial
resources. However, the challenge of protecting the intellectual property of
encoder trainers and ensuring the trustworthiness of deployed encoders remains
a significant gap in SSL. Moreover, recent researches highlight threats to
pre-trained encoders, such as backdoor and adversarial attacks. To address
these gaps, we propose SSL-Auth, the first authentication framework designed
specifically for pre-trained encoders. In particular, SSL-Auth utilizes
selected key samples as watermark information and trains a verification network
to reconstruct the watermark information, thereby verifying the integrity of
the encoder without compromising model performance. By comparing the
reconstruction results of the key samples, malicious alterations can be
detected, as modified encoders won't mimic the original reconstruction.
Comprehensive evaluations on various encoders and diverse downstream tasks
demonstrate the effectiveness and fragility of our proposed SSL-Auth.
- Abstract(参考訳): 強力なエンコーダのトレーニングにラベルのないデータセットを使用する自己教師付き学習(SSL)は、最近大きな成功を収めている。
これらのエンコーダは下流タスクの機能抽出器として機能し、かなりのリソースを必要とする。
しかし、エンコーダトレーナーの知的財産保護と、デプロイされたエンコーダの信頼性を確保するという課題は、SSLにおいて大きなギャップを保っている。
さらに、最近の研究は、バックドアや敵攻撃のような事前訓練されたエンコーダに対する脅威を強調している。
これらのギャップに対処するため,事前にトレーニングされたエンコーダ用に設計された最初の認証フレームワークであるSSL-Authを提案する。
特にSSL-Authは、選択されたキーサンプルを透かし情報として利用し、検証ネットワークをトレーニングして透かし情報を再構築し、モデル性能を損なうことなくエンコーダの整合性を検証する。
キーサンプルの復元結果を比較することで、修正エンコーダが元の再構築を模倣しないため、悪意のある修正を検出することができる。
各種エンコーダおよび下流タスクの総合評価は,提案したSSL-Authの有効性と脆弱性を示す。
関連論文リスト
- DeDe: Detecting Backdoor Samples for SSL Encoders via Decoders [6.698677477097004]
自己教師付き学習(SSL)は、大量のラベルのないデータで高品質な上流エンコーダのトレーニングに広く利用されている。
バックドア攻撃は トレーニングデータの ごく一部を汚染するだけ
本稿では,被害者エンコーダの共起によるバックドアマッピングの活性化を検知し,入力をトリガーする新しい検出機構であるDeDeを提案する。
論文 参考訳(メタデータ) (2024-11-25T07:26:22Z) - Memorization in Self-Supervised Learning Improves Downstream Generalization [49.42010047574022]
自己教師付き学習(SSL)は、ラベルのないデータで純粋に高性能エンコーダを訓練する能力により、最近大きな注目を集めている。
SSL内での暗記を定義するためのフレームワークであるSSLMemを提案する。
論文 参考訳(メタデータ) (2024-01-19T11:32:47Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - AWEncoder: Adversarial Watermarking Pre-trained Encoders in Contrastive
Learning [18.90841192412555]
コントラスト学習において,事前学習したエンコーダをウォーターマークする逆法であるAWEncoderを導入する。
提案した研究は、異なるコントラスト学習アルゴリズムや下流タスクにおいて、極めて優れた有効性と堅牢性を持っている。
論文 参考訳(メタデータ) (2022-08-08T07:23:37Z) - A Survey on Masked Autoencoder for Self-supervised Learning in Vision
and Beyond [64.85076239939336]
視覚における自己教師付き学習(SSL)は、NLPと同様の軌道をとる可能性がある。
マスク付き予測(例えばBERT)による生成前文タスクは、NLPにおけるデファクトスタンダードSSLプラクティスとなっている。
マスク画像モデリングの成功により、マスキングオートエンコーダが復活した。
論文 参考訳(メタデータ) (2022-07-30T09:59:28Z) - Joint Encoder-Decoder Self-Supervised Pre-training for ASR [0.0]
自己教師型学習は、様々な音声関連下流タスクで大きな成功を収めている。
本稿では,自己教師型学習におけるデコーダのパワーを活用した新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-06-09T12:45:29Z) - SSLGuard: A Watermarking Scheme for Self-supervised Learning Pre-trained
Encoders [9.070481370120905]
プリトレーニングエンコーダのための最初の透かしアルゴリズムであるSSLGuardを提案する。
SSLGuardはウォーターマーク注入と検証に有効であり、モデル盗難やその他のウォーターマーク除去攻撃に対して堅牢である。
論文 参考訳(メタデータ) (2022-01-27T17:41:54Z) - StolenEncoder: Stealing Pre-trained Encoders [62.02156378126672]
我々は、事前訓練された画像エンコーダを盗むStolenEncoderと呼ばれる最初の攻撃を提案する。
以上の結果から,StolenEncoderが盗んだエンコーダは,ターゲットエンコーダと同じような機能を持つことがわかった。
論文 参考訳(メタデータ) (2022-01-15T17:04:38Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。