論文の概要: Black-box Ownership Verification for Dataset Protection via Backdoor
Watermarking
- arxiv url: http://arxiv.org/abs/2209.06015v1
- Date: Thu, 4 Aug 2022 05:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 07:13:53.127793
- Title: Black-box Ownership Verification for Dataset Protection via Backdoor
Watermarking
- Title(参考訳): バックドア透かしによるデータセット保護のためのブラックボックスオーナシップ検証
- Authors: Yiming Li, Mingyan Zhu, Xue Yang, Yong Jiang, Shu-Tao Xia
- Abstract要約: 現在、ほとんどの既存のリリースデータセットは、学術的または教育目的でのみ採用する必要がある。
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
- 参考スコア(独自算出の注目度): 66.73044551708101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning, especially deep neural networks (DNNs), has been widely and
successfully adopted in many critical applications for its high effectiveness
and efficiency. The rapid development of DNNs has benefited from the existence
of some high-quality datasets ($e.g.$, ImageNet), which allow researchers and
developers to easily verify the performance of their methods. Currently, almost
all existing released datasets require that they can only be adopted for
academic or educational purposes rather than commercial purposes without
permission. However, there is still no good way to ensure that. In this paper,
we formulate the protection of released datasets as verifying whether they are
adopted for training a (suspicious) third-party model, where defenders can only
query the model while having no information about its parameters and training
details. Based on this formulation, we propose to embed external patterns via
backdoor watermarking for the ownership verification to protect them. Our
method contains two main parts, including dataset watermarking and dataset
verification. Specifically, we exploit poison-only backdoor attacks ($e.g.$,
BadNets) for dataset watermarking and design a hypothesis-test-guided method
for dataset verification. Experiments on multiple benchmark datasets of
different tasks are conducted, which verify the effectiveness of our method.
The code for reproducing main experiments is available at
\url{https://github.com/THUYimingLi/DVBW}.
- Abstract(参考訳): 深層学習、特に深層ニューラルネットワーク(dnn)は、その高い効率性と効率性のために、多くの重要な応用において広く、かつうまく採用されている。
dnnの急速な発展は、高品質なデータセット(例えば、imagenet)の存在により、研究者や開発者が自分のメソッドのパフォーマンスを簡単に検証できる。
現在、既存のデータセットのほとんどすべてが、許可なく商業目的ではなく、学術目的や教育目的にのみ適用する必要がある。
しかし、それを保証する良い方法はありません。
本稿では,公開データセットの保護を,ディフェンダーがパラメータやトレーニングの詳細に関する情報を持たず,モデルにのみ問い合わせることのできる(幸運な)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
この定式化に基づき,バックドア透かしを介して外部パターンを埋め込み,保護のためのオーナシップ検証を提案する。
提案手法は,データセット透かしとデータセット検証の2つの主要な部分を含む。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
本手法の有効性を検証するために,複数のタスクのベンチマークデータセットの実験を行った。
主な実験を再現するコードは \url{https://github.com/thuyimingli/dvbw} で入手できる。
関連論文リスト
- Data Taggants: Dataset Ownership Verification via Harmless Targeted Data Poisoning [12.80649024603656]
本稿では,非バックドアデータセットのオーナシップ検証技術であるデータタグを新たに導入する。
我々は、VTモデルとResNetモデルと最先端のトレーニングレシピを用いて、ImageNet1kの包括的で現実的な実験を通してアプローチを検証する。
論文 参考訳(メタデータ) (2024-10-09T12:49:23Z) - Domain Watermark: Effective and Harmless Dataset Copyright Protection is
Closed at Hand [96.26251471253823]
バックドアベースのデータセットオーナシップ検証(DOV)は現在、オープンソースデータセットの著作権を保護するための唯一の実現可能なアプローチである。
我々は、(保護されたデータセットでトレーニングされた)ウォーターマークされたモデルを、良質なモデルによって誤って分類されるであろう、いくつかの難しい'サンプルを正しく分類する。
論文 参考訳(メタデータ) (2023-10-09T11:23:05Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Open-sourced Dataset Protection via Backdoor Watermarking [87.15630326131901]
本稿では,オープンソースの画像分類データセットを保護するために,Emphbackdoor Embeddingベースのデータセット透かし手法を提案する。
疑わしい第三者モデルによって生成される後続確率に基づいて,仮説テストガイド法を用いてデータセット検証を行う。
論文 参考訳(メタデータ) (2020-10-12T16:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。