論文の概要: DICTION:DynamIC robusT whIte bOx watermarkiNg scheme for deep neural networks
- arxiv url: http://arxiv.org/abs/2210.15745v2
- Date: Mon, 19 May 2025 11:10:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 17:08:50.739912
- Title: DICTION:DynamIC robusT whIte bOx watermarkiNg scheme for deep neural networks
- Title(参考訳): ディクション:Dynamic robusT whIte bOx watermarkiNg scheme for Deep Neural Network
- Authors: Reda Bellafqira, Gouenou Coatrieux,
- Abstract要約: ディープニューラルネットワーク(DNN)の透かしは、ディープラーニング(DL)モデルのオーナシップを保護するのに適した方法である。
本稿ではまず,ホワイトボックスDNN透かし方式の統一化フレームワークについて述べる。
次に,新しいホワイトボックスの動的ロバスト透かし方式であるDICTIONを紹介する。
- 参考スコア(独自算出の注目度): 2.8648861222787882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network (DNN) watermarking is a suitable method for protecting the ownership of deep learning (DL) models. It secretly embeds an identifier (watermark) within the model, which can be retrieved by the owner to prove ownership. In this paper, we first provide a unified framework for white box DNN watermarking schemes. It includes current state-of-the-art methods outlining their theoretical inter-connections. Next, we introduce DICTION, a new white-box Dynamic Robust watermarking scheme, we derived from this framework. Its main originality stands on a generative adversarial network (GAN) strategy where the watermark extraction function is a DNN trained as a GAN discriminator taking the target model to watermark as a GAN generator with a latent space as the input of the GAN trigger set. DICTION can be seen as a generalization of DeepSigns which, to the best of our knowledge, is the only other Dynamic white-box watermarking scheme from the literature. Experiments conducted on the same model test set as Deepsigns demonstrate that our scheme achieves much better performance. Especially, with DICTION, one can increase the watermark capacity while preserving the target model accuracy at best and simultaneously ensuring strong watermark robustness against a wide range of watermark removal and detection attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の透かしは、ディープラーニング(DL)モデルのオーナシップを保護するのに適した方法である。
モデル内に識別子(透かし)を秘密裏に埋め込む。
本稿ではまず,ホワイトボックスDNN透かし方式の統一化フレームワークについて述べる。
理論的な相互接続を概説する現在の最先端の手法を含んでいる。
次に、このフレームワークから派生した新しいホワイトボックス動的ロバスト透かし方式であるDICTIONを紹介する。
主なオリジナル性は、GANトリガセットの入力として遅延空間を持つGANジェネレータとして、目標モデルをウォーターマークに持っていくGAN判別器として訓練されたDNNである。
ディクションはDeepSignsの一般化と見なすことができ、これは私たちの知る限り、この文献から得られる唯一の動的ホワイトボックスウォーターマーキングスキームである。
Deepsignsと同じモデルテストセットで実施された実験は、我々のスキームがはるかに優れたパフォーマンスを達成することを示す。
特にDICTIONでは、目標モデルの精度を良好に保ちながら透かし容量を増大させ、同時に広範囲の透かし除去・検出攻撃に対して強い透かし堅牢性を確保することができる。
関連論文リスト
- FreeMark: A Non-Invasive White-Box Watermarking for Deep Neural Networks [5.937758152593733]
FreeMarkはディープニューラルネットワーク(DNN)を透かし出す新しいフレームワーク
従来の透かし法とは異なり、FreeMarkは、勾配降下を用いた予め生成された透かしベクトルとホストモデルから秘密鍵を革新的に生成する。
FreeMarkは、高い透かし容量を維持しながら、様々な透かし除去攻撃に効果的に抵抗することを示した。
論文 参考訳(メタデータ) (2024-09-16T05:05:03Z) - Watermarking Recommender Systems [52.207721219147814]
本稿では,レコメンダシステムに特化した新しい手法であるAutoregressive Out-of-Distribution Watermarking (AOW)を紹介する。
提案手法では,初期項目の選択とオラクルモデルによるクエリを行い,その後に予測スコアの小さい項目を選択する。
透かしの有効性を評価するため、このモデルでは、切り捨てられた透かしシーケンスが与えられた後続の項目を予測することを課題とする。
論文 参考訳(メタデータ) (2024-07-17T06:51:24Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。