論文の概要: Model Watermarking for Image Processing Networks
- arxiv url: http://arxiv.org/abs/2002.11088v1
- Date: Tue, 25 Feb 2020 18:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 22:12:43.107615
- Title: Model Watermarking for Image Processing Networks
- Title(参考訳): 画像処理ネットワークのためのモデル透かし
- Authors: Jie Zhang, Dongdong Chen, Jing Liao, Han Fang, Weiming Zhang, Wenbo
Zhou, Hao Cui, Nenghai Yu
- Abstract要約: 深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
- 参考スコア(独自算出の注目度): 120.918532981871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved tremendous success in numerous industrial
applications. As training a good model often needs massive high-quality data
and computation resources, the learned models often have significant business
values. However, these valuable deep models are exposed to a huge risk of
infringements. For example, if the attacker has the full information of one
target model including the network structure and weights, the model can be
easily finetuned on new datasets. Even if the attacker can only access the
output of the target model, he/she can still train another similar surrogate
model by generating a large scale of input-output training pairs. How to
protect the intellectual property of deep models is a very important but
seriously under-researched problem. There are a few recent attempts at
classification network protection only. In this paper, we propose the first
model watermarking framework for protecting image processing models. To achieve
this goal, we leverage the spatial invisible watermarking mechanism.
Specifically, given a black-box target model, a unified and invisible watermark
is hidden into its outputs, which can be regarded as a special task-agnostic
barrier. In this way, when the attacker trains one surrogate model by using the
input-output pairs of the target model, the hidden watermark will be learned
and extracted afterward. To enable watermarks from binary bits to
high-resolution images, both traditional and deep spatial invisible
watermarking mechanism are considered. Experiments demonstrate the robustness
of the proposed watermarking mechanism, which can resist surrogate models
learned with different network structures and objective functions. Besides deep
models, the proposed method is also easy to be extended to protect data and
traditional image processing algorithms.
- Abstract(参考訳): 深層学習は多くの産業用途で大きな成功を収めた。
優れたモデルのトレーニングは、しばしば大量の高品質のデータと計算資源を必要とするため、学習されたモデルは大きなビジネス価値を持つことが多い。
しかし、これらの貴重な深層モデルは、大きな侵害のリスクにさらされている。
例えば、攻撃者がネットワーク構造や重みを含む1つのターゲットモデルの完全な情報を持っている場合、モデルは新しいデータセットで簡単にカスタマイズできる。
攻撃者がターゲットモデルの出力にしかアクセスできない場合でも、大規模な入出力トレーニングペアを生成して、他の類似のサロゲートモデルをトレーニングすることができる。
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
ネットワーク保護のみを分類するための最近の試みがある。
本稿では,画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
この目的を達成するために、空間的に見えない透かし機構を利用する。
具体的には、ブラックボックスのターゲットモデルが与えられた場合、その出力に統一的で見えない透かしが隠され、特別なタスクに依存しない障壁とみなすことができる。
このようにして、攻撃者が対象モデルの入出力対を用いて1つのサロゲートモデルを訓練すると、後から隠れた透かしが学習され抽出される。
2ビット画像から高解像度画像への透かしを可能にするため、従来と深部空間の透かし機構が検討されている。
実験は,異なるネットワーク構造と目的関数で学習したサロゲートモデルに抵抗できる透かし機構のロバスト性を示す。
深層モデル以外にも,データや従来の画像処理アルゴリズムを保護するために,提案手法を拡張することも容易である。
関連論文リスト
- Stealing Image-to-Image Translation Models With a Single Query [24.819964498441635]
画像と画像のモデルを盗む可能性について検討する。
このようなモデルの多くは、1つの小さなクエリイメージで盗むことができる。
注目すべきは、攻撃を盗む脆弱性は、CNNや注意機構を持つモデルによって共有されていることだ。
論文 参考訳(メタデータ) (2024-06-02T18:30:41Z) - Probabilistically Robust Watermarking of Neural Networks [4.332441337407564]
我々は、攻撃を盗む機能に対するレジリエンスを示す新しいトリガーセットベースの透かし手法を導入する。
私たちのアプローチでは、追加のモデルトレーニングは必要とせず、どんなモデルアーキテクチャにも適用できます。
論文 参考訳(メタデータ) (2024-01-16T10:32:13Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。