論文の概要: TATTOOED: A Robust Deep Neural Network Watermarking Scheme based on
Spread-Spectrum Channel Coding
- arxiv url: http://arxiv.org/abs/2202.06091v1
- Date: Sat, 12 Feb 2022 16:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 11:50:30.445402
- Title: TATTOOED: A Robust Deep Neural Network Watermarking Scheme based on
Spread-Spectrum Channel Coding
- Title(参考訳): TATTOOED:拡散スペクトルチャネル符号化に基づくロバストなディープニューラルネットワーク透かし方式
- Authors: Giulio Pagnotta, Dorjan Hitaj, Briland Hitaj, Fernando Perez-Cruz,
Luigi V. Mancini
- Abstract要約: 本稿では,拡散スペクトルチャネル符号化に基づく,堅牢で効率的なDNN透かし技術であるTATTOOEDを提案する。
DNNから透かしを除去するために用いられるいくつかの最先端メカニズムに対して,TATTOOEDを広範囲に評価した。
以上の結果から,TATTOOEDは極端なシナリオにおいても,このような除去手法に対して堅牢であることがわかった。
- 参考スコア(独自算出の注目度): 56.376997104843355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of deep learning applications in several areas has led to
the rapid adoption of such solutions from an ever-growing number of
institutions and companies. The deep neural network (DNN) models developed by
these entities are often trained on proprietary data. They require powerful
computational resources, with the resulting DNN models being incorporated in
the company's work pipeline or provided as a service. Being trained on
proprietary information, these models provide a competitive edge for the owner
company. At the same time, these models can be attractive to competitors (or
malicious entities), which can employ state-of-the-art security attacks to
steal and use these models for their benefit. As these attacks are hard to
prevent, it becomes imperative to have mechanisms that enable an affected
entity to verify the ownership of a DNN with high confidence.
This paper presents TATTOOED, a robust and efficient DNN watermarking
technique based on spread-spectrum channel coding. TATTOOED has a negligible
effect on the performance of the DNN model and requires as little as one
iteration to watermark a DNN model. We extensively evaluate TATTOOED against
several state-of-the-art mechanisms used to remove watermarks from DNNs. Our
results show that TATTOOED is robust to such removal techniques even in extreme
scenarios. For example, if the removal techniques such as fine-tuning and
parameter pruning change as much as 99\% of the model parameters, the TATTOOED
watermark is still present in full in the DNN model, and ensures ownership
verification.
- Abstract(参考訳): いくつかの分野でディープラーニングの応用が急増し、成長を続ける多くの機関や企業からそのようなソリューションが急速に採用されるようになった。
これらのエンティティによって開発されたディープニューラルネットワーク(DNN)モデルは、プロプライエタリなデータに基づいてトレーニングされることが多い。
それらは強力な計算資源を必要とし、その結果のDNNモデルは会社のワークパイプラインに組み込まれるか、サービスとして提供される。
プロプライエタリな情報に基づいてトレーニングされたこれらのモデルは、オーナー企業にとって競争力のあるエッジを提供する。
同時に、これらのモデルは競争相手(または悪意あるエンティティ)にとって魅力的であり、最先端のセキュリティ攻撃を使ってこれらのモデルを盗み、利用することができる。
これらの攻撃は予防が難しいため、影響を受けるエンティティがDNNのオーナシップを高い信頼性で検証できるメカニズムを持つことが義務づけられる。
本稿では,拡散スペクトルチャネル符号化に基づく堅牢かつ効率的なDNN透かし技術であるTATTOOEDを提案する。
TATTOOEDはDNNモデルの性能に無視できる効果があり、DNNモデルを透かし出すのに1回しか必要としない。
DNNから透かしを除去するために用いられるいくつかの最先端メカニズムに対して,TATTOOEDを広範囲に評価した。
以上の結果から,TATTOOEDは極端なシナリオにおいても,このような除去手法に対して堅牢であることがわかった。
例えば、微調整やパラメータの刈り取りといった除去手法がモデルパラメータの99%まで変化した場合、TATTOOEDの透かしはDNNモデルに完全に存在するため、オーナシップの検証が保証される。
関連論文リスト
- Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。