論文の概要: SSL-Auth: An Authentication Framework by Fragile Watermarking for
Pre-trained Encoders in Self-supervised Learning
- arxiv url: http://arxiv.org/abs/2308.04673v3
- Date: Wed, 6 Dec 2023 08:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 18:23:49.532362
- Title: SSL-Auth: An Authentication Framework by Fragile Watermarking for
Pre-trained Encoders in Self-supervised Learning
- Title(参考訳): SSL-Auth: 自己教師型学習における事前学習エンコーダのためのFragile Watermarkingによる認証フレームワーク
- Authors: Xiaobei Li, Changchun Yin, Liyue Zhu, Xiaogang Xu, Liming Fang, Run
Wang, Chenhao Lin
- Abstract要約: 堅牢なエンコーダをトレーニングするためのラベルのないデータセットを活用するパラダイムであるセルフ教師あり学習(SSL)が、先日、大きな成功を収めた。
最近の研究は、バックドアや敵の脅威を含む、訓練済みのエンコーダの脆弱性に光を当てている。
エンコーダトレーナーの知的財産を保護し、デプロイされたエンコーダの信頼性を確保することは、SSLにおいて顕著な課題となる。
SSL-Authは、トレーニング済みエンコーダ用に明示的に設計された最初の認証フレームワークである。
- 参考スコア(独自算出の注目度): 22.64707392046704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL), a paradigm harnessing unlabeled datasets to
train robust encoders, has recently witnessed substantial success. These
encoders serve as pivotal feature extractors for downstream tasks, demanding
significant computational resources. Nevertheless, recent studies have shed
light on vulnerabilities in pre-trained encoders, including backdoor and
adversarial threats. Safeguarding the intellectual property of encoder trainers
and ensuring the trustworthiness of deployed encoders pose notable challenges
in SSL. To bridge these gaps, we introduce SSL-Auth, the first authentication
framework designed explicitly for pre-trained encoders. SSL-Auth leverages
selected key samples and employs a well-trained generative network to
reconstruct watermark information, thus affirming the integrity of the encoder
without compromising its performance. By comparing the reconstruction outcomes
of the key samples, we can identify any malicious alterations. Comprehensive
evaluations conducted on a range of encoders and diverse downstream tasks
demonstrate the effectiveness of our proposed SSL-Auth.
- Abstract(参考訳): ラベルのないデータセットを使って堅牢なエンコーダをトレーニングするセルフ教師付き学習(ssl)は、最近かなりの成功を収めている。
これらのエンコーダは、重要な計算資源を必要とする下流タスクのための重要な特徴抽出器として機能する。
しかし、最近の研究は、バックドアや敵の脅威を含む、訓練済みのエンコーダの脆弱性に光を当てている。
エンコーダトレーナーの知的財産を保護し、デプロイされたエンコーダの信頼性を確保することは、SSLにおいて顕著な課題となる。
これらのギャップを埋めるために、トレーニング済みエンコーダ用に明示的に設計された最初の認証フレームワークであるSSL-Authを導入する。
SSL-Authは選択されたキーサンプルを活用し、よく訓練された生成ネットワークを使用して透かし情報を再構築する。
重要なサンプルの復元結果を比較することで、悪意のある変更を特定できる。
提案するSSL-Authの有効性を実証するため,様々なエンコーダおよび下流タスクの総合評価を行った。
関連論文リスト
- DeDe: Detecting Backdoor Samples for SSL Encoders via Decoders [6.698677477097004]
自己教師付き学習(SSL)は、大量のラベルのないデータで高品質な上流エンコーダのトレーニングに広く利用されている。
バックドア攻撃は トレーニングデータの ごく一部を汚染するだけ
本稿では,被害者エンコーダの共起によるバックドアマッピングの活性化を検知し,入力をトリガーする新しい検出機構であるDeDeを提案する。
論文 参考訳(メタデータ) (2024-11-25T07:26:22Z) - Memorization in Self-Supervised Learning Improves Downstream Generalization [49.42010047574022]
自己教師付き学習(SSL)は、ラベルのないデータで純粋に高性能エンコーダを訓練する能力により、最近大きな注目を集めている。
SSL内での暗記を定義するためのフレームワークであるSSLMemを提案する。
論文 参考訳(メタデータ) (2024-01-19T11:32:47Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - AWEncoder: Adversarial Watermarking Pre-trained Encoders in Contrastive
Learning [18.90841192412555]
コントラスト学習において,事前学習したエンコーダをウォーターマークする逆法であるAWEncoderを導入する。
提案した研究は、異なるコントラスト学習アルゴリズムや下流タスクにおいて、極めて優れた有効性と堅牢性を持っている。
論文 参考訳(メタデータ) (2022-08-08T07:23:37Z) - A Survey on Masked Autoencoder for Self-supervised Learning in Vision
and Beyond [64.85076239939336]
視覚における自己教師付き学習(SSL)は、NLPと同様の軌道をとる可能性がある。
マスク付き予測(例えばBERT)による生成前文タスクは、NLPにおけるデファクトスタンダードSSLプラクティスとなっている。
マスク画像モデリングの成功により、マスキングオートエンコーダが復活した。
論文 参考訳(メタデータ) (2022-07-30T09:59:28Z) - Joint Encoder-Decoder Self-Supervised Pre-training for ASR [0.0]
自己教師型学習は、様々な音声関連下流タスクで大きな成功を収めている。
本稿では,自己教師型学習におけるデコーダのパワーを活用した新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-06-09T12:45:29Z) - SSLGuard: A Watermarking Scheme for Self-supervised Learning Pre-trained
Encoders [9.070481370120905]
プリトレーニングエンコーダのための最初の透かしアルゴリズムであるSSLGuardを提案する。
SSLGuardはウォーターマーク注入と検証に有効であり、モデル盗難やその他のウォーターマーク除去攻撃に対して堅牢である。
論文 参考訳(メタデータ) (2022-01-27T17:41:54Z) - StolenEncoder: Stealing Pre-trained Encoders [62.02156378126672]
我々は、事前訓練された画像エンコーダを盗むStolenEncoderと呼ばれる最初の攻撃を提案する。
以上の結果から,StolenEncoderが盗んだエンコーダは,ターゲットエンコーダと同じような機能を持つことがわかった。
論文 参考訳(メタデータ) (2022-01-15T17:04:38Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。