論文の概要: Removing Backdoor-Based Watermarks in Neural Networks with Limited Data
- arxiv url: http://arxiv.org/abs/2008.00407v2
- Date: Sat, 8 Aug 2020 03:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:48:25.200890
- Title: Removing Backdoor-Based Watermarks in Neural Networks with Limited Data
- Title(参考訳): 限られたデータを用いたニューラルネットワークにおけるバックドアベース透かしの除去
- Authors: Xuankai Liu, Fengting Li, Bihan Wen, Qi Li
- Abstract要約: ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.050649487499626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been widely applied and achieved great success in
various fields. As training deep models usually consumes massive data and
computational resources, trading the trained deep models is highly demanded and
lucrative nowadays. Unfortunately, the naive trading schemes typically involves
potential risks related to copyright and trustworthiness issues, e.g., a sold
model can be illegally resold to others without further authorization to reap
huge profits. To tackle this problem, various watermarking techniques are
proposed to protect the model intellectual property, amongst which the
backdoor-based watermarking is the most commonly-used one. However, the
robustness of these watermarking approaches is not well evaluated under
realistic settings, such as limited in-distribution data availability and
agnostic of watermarking patterns. In this paper, we benchmark the robustness
of watermarking, and propose a novel backdoor-based watermark removal framework
using limited data, dubbed WILD. The proposed WILD removes the watermarks of
deep models with only a small portion of training data, and the output model
can perform the same as models trained from scratch without watermarks
injected. In particular, a novel data augmentation method is utilized to mimic
the behavior of watermark triggers. Combining with the distribution alignment
between the normal and perturbed (e.g., occluded) data in the feature space,
our approach generalizes well on all typical types of trigger contents. The
experimental results demonstrate that our approach can effectively remove the
watermarks without compromising the deep model performance for the original
task with the limited access to training data.
- Abstract(参考訳): ディープニューラルネットワークは広く応用され、様々な分野で大きな成功を収めている。
深層モデルのトレーニングは、通常、大量のデータと計算リソースを消費するので、トレーニングされた深層モデルのトレーディングは、現在非常に要求され、利益をもたらす。
残念なことに、ナイーブ取引方式は一般的に著作権や信頼性の問題に関連する潜在的なリスクを伴い、例えば、販売されたモデルは、巨額の利益を得る権限を余儀なく他人に違法に再販売することができる。
この問題に対処するために,バックドアベースの透かしが最も一般的に使用されるモデル知的財産権を保護するため,様々な透かし技術が提案されている。
しかし,これらのウォーターマーキング手法の堅牢性は,データアベイラビリティの制限やウォーターマーキングパターンの非依存など,現実的な設定では十分に評価されていない。
本稿では,透かしの堅牢性をベンチマークし,WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
提案したWILDは,学習データのごく一部で深層モデルの透かしを除去し,出力モデルはスクラッチからトレーニングしたモデルと同等に動作し,透かしを注入しない。
特に,新しいデータ拡張法を用いて透かしトリガーの挙動を模倣する。
特徴空間における正規データと摂動データ(例えばoccludedデータ)の分布アライメントを組み合わせることで、本手法は典型的なトリガーコンテンツの全てのタイプをうまく一般化する。
実験結果から,本手法は,学習データへのアクセスが制限されたオリジナルタスクの深部モデル性能を損なうことなく,効果的に透かしを除去できることが示された。
関連論文リスト
- Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Neural Dehydration: Effective Erasure of Black-box Watermarks from DNNs with Limited Data [23.90041044463682]
我々はtextscNeural Dehydration (textitabbrev. textscDehydra) と呼ばれる透かしに依存しない除去攻撃を提案する。
我々の攻撃パイプラインは、保護されたモデルの内部を利用して、透かしメッセージを復元し、解放する。
盗難されたモデルユーティリティの少なくとも90%を保存し、カバーされたすべての透かしの強い除去効果を達成する。
論文 参考訳(メタデータ) (2023-09-07T03:16:03Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。