論文の概要: Protecting the Intellectual Properties of Deep Neural Networks with an
Additional Class and Steganographic Images
- arxiv url: http://arxiv.org/abs/2104.09203v1
- Date: Mon, 19 Apr 2021 11:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:01:22.417444
- Title: Protecting the Intellectual Properties of Deep Neural Networks with an
Additional Class and Steganographic Images
- Title(参考訳): 追加クラスとステガノグラフィ画像による深層ニューラルネットワークの知的特性の保護
- Authors: Shichang Sun, Mingfu Xue, Jian Wang, Weiqiang Liu
- Abstract要約: 本稿では,Deep Neural Network(DNN)モデルの知的特性を,追加のクラスとステガノグラフィー画像を用いて保護する手法を提案する。
我々は,ウォーターマークキー画像にユーザの指紋を埋め込むために,最下位ビット(lsb)画像ステガノグラフィを採用する。
Fashion-MNISTとCIFAR-10データセットでは,100%透かし精度と100%指紋認証成功率が得られる。
- 参考スコア(独自算出の注目度): 7.234511676697502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the research on protecting the intellectual properties (IP) of deep
neural networks (DNN) has attracted serious concerns. A number of DNN copyright
protection methods have been proposed. However, most of the existing
watermarking methods focus on verifying the copyright of the model, which do
not support the authentication and management of users' fingerprints, thus can
not satisfy the requirements of commercial copyright protection. In addition,
the query modification attack which was proposed recently can invalidate most
of the existing backdoor-based watermarking methods. To address these
challenges, in this paper, we propose a method to protect the intellectual
properties of DNN models by using an additional class and steganographic
images. Specifically, we use a set of watermark key samples to embed an
additional class into the DNN, so that the watermarked DNN will classify the
watermark key sample as the predefined additional class in the copyright
verification stage. We adopt the least significant bit (LSB) image
steganography to embed users' fingerprints into watermark key images. Each user
will be assigned with a unique fingerprint image so that the user's identity
can be authenticated later. Experimental results demonstrate that, the proposed
method can protect the copyright of DNN models effectively. On Fashion-MNIST
and CIFAR-10 datasets, the proposed method can obtain 100% watermark accuracy
and 100% fingerprint authentication success rate. In addition, the proposed
method is demonstrated to be robust to the model fine-tuning attack, model
pruning attack, and the query modification attack. Compared with three existing
watermarking methods (the logo-based, noise-based, and adversarial frontier
stitching watermarking methods), the proposed method has better performance on
watermark accuracy and robustness against the query modification attack.
- Abstract(参考訳): 近年,ディープニューラルネットワーク(DNN)の知的特性(IP)を保護する研究が注目されている。
多くのDNN著作権保護手法が提案されている。
しかし,既存の透かし手法の多くは,ユーザの指紋の認証と管理をサポートしないため,商業的著作権保護の要件を満たすことができない,モデルの著作権の検証に重点を置いている。
さらに、最近提案されたクエリ修正攻撃は、既存のバックドアベースの透かし手法のほとんどを無効にすることができる。
本稿では,これらの課題に対処するために,追加のクラスとステガノグラフィー画像を用いて,dnnモデルの知的特性を保護する手法を提案する。
具体的には、透かしキーのセットを用いて追加のクラスをDNNに埋め込むため、透かしDNNは、著作権検証段階において予め定義された追加のクラスとして、透かしキーのサンプルを分類する。
我々は,ウォーターマークキー画像にユーザの指紋を埋め込むために,最下位ビット(lsb)画像ステガノグラフィを採用する。
各ユーザーごとにユニークな指紋画像が割り当てられ、ユーザーの身元が後で認証される。
実験により,提案手法はDNNモデルの著作権を効果的に保護できることを示した。
Fashion-MNISTとCIFAR-10データセットでは,100%透かし精度と100%指紋認証成功率が得られる。
また,提案手法は,モデルの微調整攻撃,モデルプルーニング攻撃,クエリ変更攻撃に対して頑健であることが示されている。
提案手法は,既存の3つの透かし法(ロゴベース,ノイズベース,敵対的フロンティアスタイピング透かし法)と比較して,クエリ修正攻撃に対する透かし精度とロバスト性が向上した。
関連論文リスト
- DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。