論文の概要: Mixer: DNN Watermarking using Image Mixup
- arxiv url: http://arxiv.org/abs/2212.02814v1
- Date: Tue, 6 Dec 2022 08:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 18:12:56.783736
- Title: Mixer: DNN Watermarking using Image Mixup
- Title(参考訳): Mixer: Image Mixupを用いたDNN透かし
- Authors: Kassem Kallas and Teddy Furon
- Abstract要約: 本稿では,これら2つのタスク間の強い関係を確立するために,軽量で信頼性が高く,セキュアなDNN透かしを提案する。
ウォーターマークタスクをトリガーするサンプルは、トレーニングまたはテストサンプルからイメージミックスアップを使用して生成される。
- 参考スコア(独自算出の注目度): 14.2215880080698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is crucial to protect the intellectual property rights of DNN models prior
to their deployment. The DNN should perform two main tasks: its primary task
and watermarking task. This paper proposes a lightweight, reliable, and secure
DNN watermarking that attempts to establish strong ties between these two
tasks. The samples triggering the watermarking task are generated using image
Mixup either from training or testing samples. This means that there is an
infinity of triggers not limited to the samples used to embed the watermark in
the model at training. The extensive experiments on image classification models
for different datasets as well as exposing them to a variety of attacks, show
that the proposed watermarking provides protection with an adequate level of
security and robustness.
- Abstract(参考訳): 展開前にDNNモデルの知的財産権を保護することが重要である。
DNNはメインタスクとウォーターマーキングタスクの2つの主要なタスクを実行する必要がある。
本稿では,これら2つのタスク間の強い結び付きを確立するために,軽量で信頼性が高くセキュアなdnn透かしを提案する。
ウォーターマークタスクをトリガーするサンプルは、トレーニングまたはテストサンプルからイメージミックスアップを使用して生成される。
これは、トレーニング時にモデルに透かしを埋め込むのに使われるサンプルに限らないトリガーの無限大が存在することを意味する。
異なるデータセットに対する画像分類モデルに関する広範囲な実験と、それらを様々な攻撃に晒すことは、提案されたウォーターマーキングが適切なレベルのセキュリティと堅牢性を提供することを示している。
関連論文リスト
- A self-supervised CNN for image watermark removal [102.94929746450902]
画像透かし除去(SWCNN)における自己教師型畳み込みニューラルネットワーク(CNN)を提案する。
SWCNNは、透かし分布に従って、ペアのトレーニングサンプルではなく、基準透かし画像を構築するために、自己教師付き方式を使用している。
テクスチャ情報を考慮すると、画像透かし除去の視覚効果を改善するために混合損失を利用する。
論文 参考訳(メタデータ) (2024-03-09T05:59:48Z) - MEA-Defender: A Robust Watermark against Model Extraction Attack [19.421741149364017]
本稿では,DNNモデルのIPをモデル抽出から保護するための新しい透かし,MEA-Defenderを提案する。
我々は,教師付き学習アルゴリズムと自己教師型学習アルゴリズムに基づいて訓練された5つのデータセットと6つのモデルを用いて,4つのモデル抽出攻撃に関する広範な実験を行った。
実験結果から,MEA-Defenderは様々なモデル抽出攻撃に対して高い堅牢性を示し,様々な透かし除去・検出手法が得られた。
論文 参考訳(メタデータ) (2024-01-26T23:12:53Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - ROSE: A RObust and SEcure DNN Watermarking [14.2215880080698]
本稿では,軽量で堅牢でセキュアなDNN透かしプロトコルを提案する。
トレーニングプロセス中に、暗号化の一方向関数と、タスク内のキーとラベルのペアの注入を利用する。
論文 参考訳(メタデータ) (2022-06-22T12:46:14Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。