論文の概要: FreeMark: A Non-Invasive White-Box Watermarking for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2409.09996v1
- Date: Mon, 16 Sep 2024 05:05:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 16:30:58.894357
- Title: FreeMark: A Non-Invasive White-Box Watermarking for Deep Neural Networks
- Title(参考訳): FreeMark: ディープニューラルネットワークのための非侵襲的なホワイトボックス透かし
- Authors: Yuzhang Chen, Jiangnan Zhu, Yujie Gu, Minoru Kuribayashi, Kouichi Sakurai,
- Abstract要約: FreeMarkはディープニューラルネットワーク(DNN)を透かし出す新しいフレームワーク
従来の透かし法とは異なり、FreeMarkは、勾配降下を用いた予め生成された透かしベクトルとホストモデルから秘密鍵を革新的に生成する。
FreeMarkは、高い透かし容量を維持しながら、様々な透かし除去攻撃に効果的に抵抗することを示した。
- 参考スコア(独自算出の注目度): 5.937758152593733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have achieved significant success in real-world applications. However, safeguarding their intellectual property (IP) remains extremely challenging. Existing DNN watermarking for IP protection often require modifying DNN models, which reduces model performance and limits their practicality. This paper introduces FreeMark, a novel DNN watermarking framework that leverages cryptographic principles without altering the original host DNN model, thereby avoiding any reduction in model performance. Unlike traditional DNN watermarking methods, FreeMark innovatively generates secret keys from a pre-generated watermark vector and the host model using gradient descent. These secret keys, used to extract watermark from the model's activation values, are securely stored with a trusted third party, enabling reliable watermark extraction from suspect models. Extensive experiments demonstrate that FreeMark effectively resists various watermark removal attacks while maintaining high watermark capacity.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、現実世界のアプリケーションで大きな成功を収めています。
しかし、知的財産権(IP)の保護は依然として極めて困難である。
IP保護のための既存のDNN透かしは、しばしばDNNモデルの変更を必要とし、モデルの性能を低下させ、実用性を制限する。
本稿では,元のホストDNNモデルを変更することなく,暗号原理を活用する新しいDNN透かしフレームワークであるFreeMarkを紹介し,モデル性能の低下を回避する。
従来のDNNの透かし法とは異なり、FreeMarkは、勾配降下を用いた予め生成された透かしベクトルとホストモデルから秘密鍵を革新的な方法で生成する。
これらの秘密鍵は、モデルのアクティベーション値から透かしを抽出するために使用され、信頼できる第三者に確実に保管され、疑似モデルから信頼できる透かしを抽出することができる。
大規模な実験では、FreeMarkは高い透かし容量を維持しながら、様々な透かし除去攻撃に効果的に抵抗することを示した。
関連論文リスト
- DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Immunization of Pruning Attack in DNN Watermarking Using Constant Weight
Code [9.577509224534323]
一定重み付き符号を用いてプルーニング攻撃の効果を免疫する新しい符号化手法を提案する。
我々の知る限りでは、これはDNN透かしの符号化技術を導入し、プルーニング攻撃に対して堅牢にするための最初の研究である。
論文 参考訳(メタデータ) (2021-07-07T00:50:27Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。