論文の概要: ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training
- arxiv url: http://arxiv.org/abs/2310.16453v1
- Date: Wed, 25 Oct 2023 08:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 15:58:03.664527
- Title: ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training
- Title(参考訳): ClearMark: トランスポーズモデルトレーニングによる直感的およびロバストなモデル透かし
- Authors: Torsten Krau{\ss} and Jasper Stang and Alexandra Dmitrienko
- Abstract要約: 本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
- 参考スコア(独自算出の注目度): 50.77001916246691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to costly efforts during data acquisition and model training, Deep Neural
Networks (DNNs) belong to the intellectual property of the model creator.
Hence, unauthorized use, theft, or modification may lead to legal
repercussions. Existing DNN watermarking methods for ownership proof are often
non-intuitive, embed human-invisible marks, require trust in algorithmic
assessment that lacks human-understandable attributes, and rely on rigid
thresholds, making it susceptible to failure in cases of partial watermark
erasure.
This paper introduces ClearMark, the first DNN watermarking method designed
for intuitive human assessment. ClearMark embeds visible watermarks, enabling
human decision-making without rigid value thresholds while allowing
technology-assisted evaluations. ClearMark defines a transposed model
architecture allowing to use of the model in a backward fashion to interwove
the watermark with the main task within all model parameters. Compared to
existing watermarking methods, ClearMark produces visual watermarks that are
easy for humans to understand without requiring complex verification algorithms
or strict thresholds. The watermark is embedded within all model parameters and
entangled with the main task, exhibiting superior robustness. It shows an
8,544-bit watermark capacity comparable to the strongest existing work.
Crucially, ClearMark's effectiveness is model and dataset-agnostic, and
resilient against adversarial model manipulations, as demonstrated in a
comprehensive study performed with four datasets and seven architectures.
- Abstract(参考訳): データ取得とモデルトレーニングの費用がかかるため、Deep Neural Networks (DNN) はモデル作成者の知的財産権に属する。
したがって、不正な使用、盗難、または修正は、法的影響をもたらす可能性がある。
既存のDNN透かし法は、しばしば直感的ではなく、人間の目に見えないマークを埋め込んで、人間の理解できない属性を欠いているアルゴリズム的な評価を信頼し、厳格な閾値に依存し、部分的な透かし消去の場合には失敗に陥る。
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
clearmarkは目に見えるウォーターマークを埋め込み、厳格な値しきい値なしで人間の意思決定を可能にし、技術支援の評価を可能にする。
ClearMarkはトランスポーズされたモデルアーキテクチャを定義しており、すべてのモデルパラメータでウォーターマークとメインタスクを織り込むために、モデルを後方に使用することができる。
既存の透かし法と比較して、clearmarkは複雑な検証アルゴリズムや厳格なしきい値を必要とすることなく、人間が容易に理解できる視覚透かしを生成する。
透かしはすべてのモデルパラメータに埋め込まれ、メインタスクと絡み合っており、優れた堅牢性を示している。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
重要なのは、ClearMarkの有効性はモデルとデータセット非依存であり、4つのデータセットと7つのアーキテクチャで実施された包括的な研究で示されているように、敵モデル操作に対する耐性である。
関連論文リスト
- CLUE-MARK: Watermarking Diffusion Models using CLWE [13.010337595004708]
本稿では,拡散モデルに対する最初の検出不能な透かし方式であるCLUE-Markを紹介する。
CLUE-Markは、ウォーターマークされたモデルの変更を一切必要とせず、計算効率が良く、モデル出力の品質に影響を与えないことが保証されている。
CLUE-Markは、最近のステガノグラフィー攻撃では検出や除去ができない。
論文 参考訳(メタデータ) (2024-11-18T10:03:01Z) - Beyond Dataset Watermarking: Model-Level Copyright Protection for Code Summarization Models [37.817691840557984]
CSMは、許可されていないユーザによる搾取のリスクに直面します。
伝統的な透かし法はトリガーと透かしの特徴を別々に設計する必要がある。
モデルレベルの新しい電子透かし埋め込み方式であるModMarkを提案する。
論文 参考訳(メタデータ) (2024-10-18T00:48:00Z) - FreeMark: A Non-Invasive White-Box Watermarking for Deep Neural Networks [5.937758152593733]
FreeMarkはディープニューラルネットワーク(DNN)を透かし出す新しいフレームワーク
従来の透かし法とは異なり、FreeMarkは、勾配降下を用いた予め生成された透かしベクトルとホストモデルから秘密鍵を革新的に生成する。
FreeMarkは、高い透かし容量を維持しながら、様々な透かし除去攻撃に効果的に抵抗することを示した。
論文 参考訳(メタデータ) (2024-09-16T05:05:03Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。