論文の概要: ROSE: A RObust and SEcure DNN Watermarking
- arxiv url: http://arxiv.org/abs/2206.11024v1
- Date: Wed, 22 Jun 2022 12:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:48:03.099326
- Title: ROSE: A RObust and SEcure DNN Watermarking
- Title(参考訳): rose: 堅牢でセキュアなdnnウォーターマーク
- Authors: Kassem Kallas and Teddy Furon
- Abstract要約: 本稿では,軽量で堅牢でセキュアなDNN透かしプロトコルを提案する。
トレーニングプロセス中に、暗号化の一方向関数と、タスク内のキーとラベルのペアの注入を利用する。
- 参考スコア(独自算出の注目度): 14.2215880080698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protecting the Intellectual Property rights of DNN models is of primary
importance prior to their deployment. So far, the proposed methods either
necessitate changes to internal model parameters or the machine learning
pipeline, or they fail to meet both the security and robustness requirements.
This paper proposes a lightweight, robust, and secure black-box DNN
watermarking protocol that takes advantage of cryptographic one-way functions
as well as the injection of in-task key image-label pairs during the training
process. These pairs are later used to prove DNN model ownership during
testing. The main feature is that the value of the proof and its security are
measurable. The extensive experiments watermarking image classification models
for various datasets as well as exposing them to a variety of attacks, show
that it provides protection while maintaining an adequate level of security and
robustness.
- Abstract(参考訳): DNNモデルの知的財産権を保護することは、その展開前に最も重要なことである。
これまでのところ、提案手法は内部モデルパラメータや機械学習パイプラインの変更を必要とするか、セキュリティ要件と堅牢性要件の両方を満たすことができない。
本稿では,暗号化の一方向関数の活用と,トレーニング中にタスク内のキーとラベルのペアを注入する,軽量で堅牢でセキュアなDNN透かしプロトコルを提案する。
これらのペアは後にテスト中にdnnモデルの所有権を証明するために使用される。
主な特徴は、証明の値とそのセキュリティが測定可能であることである。
さまざまなデータセットのイメージ分類モデルを透かし、さまざまなアタックに公開することにより、適切なレベルのセキュリティと堅牢性を維持しながら保護を提供することを示す。
関連論文リスト
- DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Mixer: DNN Watermarking using Image Mixup [14.2215880080698]
本稿では,これら2つのタスク間の強い関係を確立するために,軽量で信頼性が高く,セキュアなDNN透かしを提案する。
ウォーターマークタスクをトリガーするサンプルは、トレーニングまたはテストサンプルからイメージミックスアップを使用して生成される。
論文 参考訳(メタデータ) (2022-12-06T08:09:53Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。