論文の概要: Deep Model Intellectual Property Protection via Deep Watermarking
- arxiv url: http://arxiv.org/abs/2103.04980v1
- Date: Mon, 8 Mar 2021 18:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:17:38.026862
- Title: Deep Model Intellectual Property Protection via Deep Watermarking
- Title(参考訳): 深層透かしによる深部モデル知的財産保護
- Authors: Jie Zhang and Dongdong Chen and Jing Liao and Weiming Zhang and Huamin
Feng and Gang Hua and Nenghai Yu
- Abstract要約: ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
- 参考スコア(独自算出の注目度): 122.87871873450014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the tremendous success, deep neural networks are exposed to serious
IP infringement risks. Given a target deep model, if the attacker knows its
full information, it can be easily stolen by fine-tuning. Even if only its
output is accessible, a surrogate model can be trained through student-teacher
learning by generating many input-output training pairs. Therefore, deep model
IP protection is important and necessary. However, it is still seriously
under-researched. In this work, we propose a new model watermarking framework
for protecting deep networks trained for low-level computer vision or image
processing tasks. Specifically, a special task-agnostic barrier is added after
the target model, which embeds a unified and invisible watermark into its
outputs. When the attacker trains one surrogate model by using the input-output
pairs of the barrier target model, the hidden watermark will be learned and
extracted afterwards. To enable watermarks from binary bits to high-resolution
images, a deep invisible watermarking mechanism is designed. By jointly
training the target model and watermark embedding, the extra barrier can even
be absorbed into the target model. Through extensive experiments, we
demonstrate the robustness of the proposed framework, which can resist attacks
with different network structures and objective functions.
- Abstract(参考訳): 巨大な成功にもかかわらず、ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
たとえその出力のみがアクセス可能であっても、多くの入出力トレーニングペアを生成することで、学生-教師学習を通じて代理モデルを訓練することができる。
したがって、深層モデルip保護は重要かつ必要である。
しかし、本格的に研究されている。
本研究では,低レベルのコンピュータビジョンや画像処理タスク用に訓練された深層ネットワークを保護するための新しいモデル透かしフレームワークを提案する。
具体的には、ターゲットモデルが統一され見えない透かしを出力に埋め込むと、特別なタスクに依存しない障壁が追加される。
攻撃者がバリアターゲットモデルの入力出力ペアを使用して1つのサロゲートモデルを訓練すると、隠れた透かしが学習され、その後抽出される。
バイナリビットから高解像度画像への透かしを可能にするため、深い目に見えない透かし機構を設計する。
目標モデルと透かし埋め込みを共同でトレーニングすることで、余分な障壁を目標モデルに吸収することもできる。
大規模な実験を通じて,異なるネットワーク構造と目的関数による攻撃に抵抗できるフレームワークのロバスト性を示す。
関連論文リスト
- Probabilistically Robust Watermarking of Neural Networks [4.332441337407564]
我々は、攻撃を盗む機能に対するレジリエンスを示す新しいトリガーセットベースの透かし手法を導入する。
私たちのアプローチでは、追加のモデルトレーニングは必要とせず、どんなモデルアーキテクチャにも適用できます。
論文 参考訳(メタデータ) (2024-01-16T10:32:13Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - An Automated and Robust Image Watermarking Scheme Based on Deep Neural
Networks [8.765045867163648]
ディープラーニングニューラルネットワークに基づく頑健で盲目な画像透かし方式を提案する。
提案手法の堅牢性は、攻撃の事前の知識や敵の例を必要とせずに達成される。
論文 参考訳(メタデータ) (2020-07-05T22:23:31Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。