論文の概要: Knowledge-Free Black-Box Watermark and Ownership Proof for Image
Classification Neural Networks
- arxiv url: http://arxiv.org/abs/2204.04522v1
- Date: Sat, 9 Apr 2022 18:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 02:02:20.855978
- Title: Knowledge-Free Black-Box Watermark and Ownership Proof for Image
Classification Neural Networks
- Title(参考訳): 画像分類ニューラルネットワークのための知識フリーブラックボックス透かしと所有権証明
- Authors: Fangqi Li and Shilin Wang
- Abstract要約: 画像分類ニューラルネットワークのための知識のないブラックボックス透かし方式を提案する。
繊細なエンコーディングと検証のプロトコルは、スキームの敵に対する未知のセキュリティを確保するために設計されている。
実験により,提案した透かし方式の機能保存能力と安全性が実証された。
- 参考スコア(独自算出の注目度): 9.117248639119529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Watermarking has become a plausible candidate for ownership verification and
intellectual property protection of deep neural networks. Regarding image
classification neural networks, current watermarking schemes uniformly resort
to backdoor triggers. However, injecting a backdoor into a neural network
requires knowledge of the training dataset, which is usually unavailable in the
real-world commercialization. Meanwhile, established watermarking schemes
oversight the potential damage of exposed evidence during ownership
verification and the watermarking algorithms themselves. Those concerns decline
current watermarking schemes from industrial applications. To confront these
challenges, we propose a knowledge-free black-box watermarking scheme for image
classification neural networks. The image generator obtained from a data-free
distillation process is leveraged to stabilize the network's performance during
the backdoor injection. A delicate encoding and verification protocol is
designed to ensure the scheme's security against knowledgable adversaries. We
also give a pioneering analysis of the capacity of the watermarking scheme.
Experiment results proved the functionality-preserving capability and security
of the proposed watermarking scheme.
- Abstract(参考訳): ウォーターマーキングは、ディープニューラルネットワークの所有権検証と知的財産保護の有力な候補となっている。
画像分類ニューラルネットワークでは、現在の透かしスキームはバックドアトリガーに一様に頼っている。
しかしながら、ニューラルネットワークにバックドアを注入するには、トレーニングデータセットに関する知識が必要になる。
一方、確立された透かし方式は、オーナシップ検証と透かしアルゴリズム自体が暴露された証拠の潜在的な損傷を監督する。
これらの懸念は、産業用途からの現在の透かしスキームを減少させる。
これらの課題に対処すべく,画像分類ニューラルネットワークのための知識のないブラックボックス透かし方式を提案する。
データフリー蒸留工程から得られた画像生成装置を利用してバックドア注入時のネットワークの性能を安定化する。
微妙なエンコーディングと検証プロトコルは、このスキームが既知の敵に対して安全であることを保証するように設計されている。
また,透かし方式の能力に関する先駆的な分析を行った。
実験の結果,提案する透かし方式の機能維持能力と安全性が実証された。
関連論文リスト
- DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - OVLA: Neural Network Ownership Verification using Latent Watermarks [7.661766773170363]
本稿では,潜伏した透かしに基づくニューラルネットワークのオーナシップ検証のための新しい手法を提案する。
提案手法は,バックドア検出,バックドア除去,サロゲートモデル攻撃に対する強力な防御効果を示す。
論文 参考訳(メタデータ) (2023-06-15T17:45:03Z) - Anti-Neuron Watermarking: Protecting Personal Data Against Unauthorized
Neural Model Training [50.308254937851814]
個人データ(画像など)は、許可なくディープニューラルネットワークモデルをトレーニングするために不適切に利用することができる。
特殊な線形色変換を使用して透かしシグネチャをユーザイメージに埋め込むことで、ニューラルモデルはそのようなシグネチャでインプリントされる。
これは、ニューラルネットワークトレーニングにおいて、ユーザの個人情報を不正使用から保護する最初の作業である。
論文 参考訳(メタデータ) (2021-09-18T22:10:37Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - An Automated and Robust Image Watermarking Scheme Based on Deep Neural
Networks [8.765045867163648]
ディープラーニングニューラルネットワークに基づく頑健で盲目な画像透かし方式を提案する。
提案手法の堅牢性は、攻撃の事前の知識や敵の例を必要とせずに達成される。
論文 参考訳(メタデータ) (2020-07-05T22:23:31Z) - Neural Network Laundering: Removing Black-Box Backdoor Watermarks from
Deep Neural Networks [17.720400846604907]
ニューラルネットワークからブラックボックスバックドアの透かしを除去する「洗浄」アルゴリズムを提案する。
本論文では,すべてのバックドア透かし法について,透かしの頑健さが当初の主張よりも著しく弱いことが確認された。
論文 参考訳(メタデータ) (2020-04-22T19:02:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。