論文の概要: Robust DNN Watermarking via Fixed Embedding Weights with Optimized
Distribution
- arxiv url: http://arxiv.org/abs/2208.10973v1
- Date: Tue, 23 Aug 2022 13:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:49:19.453896
- Title: Robust DNN Watermarking via Fixed Embedding Weights with Optimized
Distribution
- Title(参考訳): 最適分布を有する固定埋め込み重みによるロバストDNN透かし
- Authors: Benedetta Tondi, Andrea Costanzo, Mauro Barni
- Abstract要約: 強靭性を有するホワイトボックス型マルチビット透かしアルゴリズムを提案する。
提案手法は,ネットワークの精度にほとんど影響を与えない高負荷化を実現するために,いくつかの実験を行った。
- 参考スコア(独自算出の注目度): 35.2359746858894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Watermarking has been proposed as a way to protect the Intellectual Property
Rights (IPR) of Deep Neural Networks (DNNs) and track their use. Several
methods have been proposed that embed the watermark into the trainable
parameters of the network (white box watermarking) or into the input-output
mappping implemented by the network in correspondence to specific inputs (black
box watermarking). In both cases, achieving robustness against fine tuning,
model compression and, even more, transfer learning, is one of the most
difficult challenges researchers are trying to face with. In this paper, we
propose a new white-box, multi-bit watermarking algorithm with strong
robustness properties, including retraining for transfer learning. Robustness
is achieved thanks to a new information coding strategy according to which the
watermark message is spread across a number of fixed weights, whose position
depends on a secret key. The weights hosting the watermark are set prior to
training, and are left unchanged throughout the entire training procedure. The
distribution of the weights carrying out the message is theoretically optimised
to make sure that the watermarked weights are indistinguishable from the other
weights, while at the same time keeping their amplitude as large as possible to
improve robustness against retraining. We carried out several experiments
demonstrating the capability of the proposed scheme to provide high payloads
with practically no impact on the network accuracy, at the same time retaining
excellent robustness against network modifications an re-use, including
retraining for transfer learning.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の知的財産権(IPR)を保護し、その使用を追跡する手段として、ウォーターマーキングが提案されている。
ネットワークのトレーニング可能なパラメータ(ホワイトボックスのウォーターマーキング)や、特定の入力(ブラックボックスのウォーターマーキング)に対応してネットワークが実装した入出力マップにウォーターマーキングを埋め込む方法が提案されている。
いずれの場合も、微調整やモデル圧縮、さらにトランスファー学習に対する堅牢性を達成することは、研究者が直面している最も難しい課題の1つです。
本稿では,転送学習のための再訓練を含む,堅牢性特性の強いホワイトボックスマルチビット透かしアルゴリズムを提案する。
新たな情報符号化戦略により、ウォーターマークメッセージがいくつかの固定ウェイトに分散され、その位置は秘密鍵に依存する。
ウォーターマークをホストする重量は、トレーニング前に設定され、トレーニング手順全体を通して変更される。
メッセージを実行する重みの分布は理論的に最適化され、透かしの重みが他の重みと区別できないことを確認すると同時に、その振幅をできるだけ大きく保ち、再訓練に対する堅牢性を向上させる。
提案手法は,ネットワークの精度に実質的に影響を与えず,かつ,転送学習の再訓練を含む再使用に対して優れた堅牢性を保ちながら,提案手法の高負荷化を実証する実験を行った。
関連論文リスト
- An Efficient Watermarking Method for Latent Diffusion Models via Low-Rank Adaptation [21.058231817498115]
低ランク適応(LoRA)に基づく潜在拡散モデル(LDM)の効率的な透かし手法を提案する。
提案手法は,高速な透かし埋め込みを保証し,透かしの非常に低ビット誤り率,生成画像の品質,検証のためのゼロ偽陰率(FNR)を維持できることを示す。
論文 参考訳(メタデータ) (2024-10-26T15:23:49Z) - IWN: Image Watermarking Based on Idempotency [0.0]
本稿では,画像透かし処理におけるイデオロシティの導入の可能性について検討する。
カラー画像透かしの回復品質向上に焦点をあてたモデルでは,イデオロシティを活用し,画像の可逆性を向上する。
論文 参考訳(メタデータ) (2024-09-29T01:29:34Z) - WaterMAS: Sharpness-Aware Maximization for Neural Network Watermarking [11.717546811674884]
WaterMASは、堅牢性、非受容性、計算複雑性の間のトレードオフを改善する、置換型、ホワイトボックスニューラルネットワーク透かし方式である。
強靭性は攻撃の強さを制限することで確保される。
トレーニングプロセス中に透かしを挿入することで、認識不能を確保できる。
論文 参考訳(メタデータ) (2024-09-05T20:22:01Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Watermarking using Diffusion of Logo into Autoencoder Feature
Maps [10.072876983072113]
本稿では,透かしのためのエンドツーエンドネットワークを提案する。
画像の内容に基づいて,畳み込みニューラルネットワーク(CNN)を用いて埋め込み強度を制御する。
異なる画像処理攻撃は、モデルの堅牢性を改善するためにネットワーク層としてシミュレートされる。
論文 参考訳(メタデータ) (2021-05-24T05:18:33Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。