論文の概要: TATTOOED: A Robust Deep Neural Network Watermarking Scheme based on
Spread-Spectrum Channel Coding
- arxiv url: http://arxiv.org/abs/2202.06091v1
- Date: Sat, 12 Feb 2022 16:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 11:50:30.445402
- Title: TATTOOED: A Robust Deep Neural Network Watermarking Scheme based on
Spread-Spectrum Channel Coding
- Title(参考訳): TATTOOED:拡散スペクトルチャネル符号化に基づくロバストなディープニューラルネットワーク透かし方式
- Authors: Giulio Pagnotta, Dorjan Hitaj, Briland Hitaj, Fernando Perez-Cruz,
Luigi V. Mancini
- Abstract要約: 本稿では,拡散スペクトルチャネル符号化に基づく,堅牢で効率的なDNN透かし技術であるTATTOOEDを提案する。
DNNから透かしを除去するために用いられるいくつかの最先端メカニズムに対して,TATTOOEDを広範囲に評価した。
以上の結果から,TATTOOEDは極端なシナリオにおいても,このような除去手法に対して堅牢であることがわかった。
- 参考スコア(独自算出の注目度): 56.376997104843355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of deep learning applications in several areas has led to
the rapid adoption of such solutions from an ever-growing number of
institutions and companies. The deep neural network (DNN) models developed by
these entities are often trained on proprietary data. They require powerful
computational resources, with the resulting DNN models being incorporated in
the company's work pipeline or provided as a service. Being trained on
proprietary information, these models provide a competitive edge for the owner
company. At the same time, these models can be attractive to competitors (or
malicious entities), which can employ state-of-the-art security attacks to
steal and use these models for their benefit. As these attacks are hard to
prevent, it becomes imperative to have mechanisms that enable an affected
entity to verify the ownership of a DNN with high confidence.
This paper presents TATTOOED, a robust and efficient DNN watermarking
technique based on spread-spectrum channel coding. TATTOOED has a negligible
effect on the performance of the DNN model and requires as little as one
iteration to watermark a DNN model. We extensively evaluate TATTOOED against
several state-of-the-art mechanisms used to remove watermarks from DNNs. Our
results show that TATTOOED is robust to such removal techniques even in extreme
scenarios. For example, if the removal techniques such as fine-tuning and
parameter pruning change as much as 99\% of the model parameters, the TATTOOED
watermark is still present in full in the DNN model, and ensures ownership
verification.
- Abstract(参考訳): いくつかの分野でディープラーニングの応用が急増し、成長を続ける多くの機関や企業からそのようなソリューションが急速に採用されるようになった。
これらのエンティティによって開発されたディープニューラルネットワーク(DNN)モデルは、プロプライエタリなデータに基づいてトレーニングされることが多い。
それらは強力な計算資源を必要とし、その結果のDNNモデルは会社のワークパイプラインに組み込まれるか、サービスとして提供される。
プロプライエタリな情報に基づいてトレーニングされたこれらのモデルは、オーナー企業にとって競争力のあるエッジを提供する。
同時に、これらのモデルは競争相手(または悪意あるエンティティ)にとって魅力的であり、最先端のセキュリティ攻撃を使ってこれらのモデルを盗み、利用することができる。
これらの攻撃は予防が難しいため、影響を受けるエンティティがDNNのオーナシップを高い信頼性で検証できるメカニズムを持つことが義務づけられる。
本稿では,拡散スペクトルチャネル符号化に基づく堅牢かつ効率的なDNN透かし技術であるTATTOOEDを提案する。
TATTOOEDはDNNモデルの性能に無視できる効果があり、DNNモデルを透かし出すのに1回しか必要としない。
DNNから透かしを除去するために用いられるいくつかの最先端メカニズムに対して,TATTOOEDを広範囲に評価した。
以上の結果から,TATTOOEDは極端なシナリオにおいても,このような除去手法に対して堅牢であることがわかった。
例えば、微調整やパラメータの刈り取りといった除去手法がモデルパラメータの99%まで変化した場合、TATTOOEDの透かしはDNNモデルに完全に存在するため、オーナシップの検証が保証される。
関連論文リスト
- DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。