論文の概要: Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication
- arxiv url: http://arxiv.org/abs/2104.04268v1
- Date: Fri, 9 Apr 2021 09:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 13:56:44.774939
- Title: Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication
- Title(参考訳): 深層畳み込みニューラルネットワークの完全性認証のための可逆的透かし
- Authors: Xiquan Guan, Huamin Feng, Weiming Zhang, Hang Zhou, Jie Zhang, and
Nenghai Yu
- Abstract要約: 整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
- 参考スコア(独自算出の注目度): 78.165255859254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks have made outstanding contributions in
many fields such as computer vision in the past few years and many researchers
published well-trained network for downloading. But recent studies have shown
serious concerns about integrity due to model-reuse attacks and backdoor
attacks. In order to protect these open-source networks, many algorithms have
been proposed such as watermarking. However, these existing algorithms modify
the contents of the network permanently and are not suitable for integrity
authentication. In this paper, we propose a reversible watermarking algorithm
for integrity authentication. Specifically, we present the reversible
watermarking problem of deep convolutional neural networks and utilize the
pruning theory of model compression technology to construct a host sequence
used for embedding watermarking information by histogram shift. As shown in the
experiments, the influence of embedding reversible watermarking on the
classification performance is less than 0.5% and the parameters of the model
can be fully recovered after extracting the watermarking. At the same time, the
integrity of the model can be verified by applying the reversible watermarking:
if the model is modified illegally, the authentication information generated by
original model will be absolutely different from the extracted watermarking
information.
- Abstract(参考訳): 深層畳み込みニューラルネットワークは過去数年間、コンピュータビジョンなど多くの分野で優れた貢献をしており、多くの研究者がよく訓練されたダウンロードネットワークを公開している。
しかし最近の研究では、モデル再利用攻撃とバックドア攻撃による整合性に関する深刻な懸念が示されている。
これらのオープンソースネットワークを保護するため、透かしなど多くのアルゴリズムが提案されている。
しかし、これらの既存のアルゴリズムは、ネットワークの内容を恒久的に修正し、整合性認証には適さない。
本稿では,整合性認証のための可逆な透かしアルゴリズムを提案する。
具体的には,深層畳み込みニューラルネットワークの可逆的透かし問題を示し,モデル圧縮技術のプルーニング理論を用いて,ヒストグラムシフトによる透かし情報の埋め込みに用いるホストシーケンスを構築する。
実験で示されるように, 可逆的透かしが分類性能に及ぼす影響は0.5%以下であり, 透かし抽出後, モデルのパラメータを完全に復元できる。
同時に、可逆な透かしを適用してモデルの完全性を検証することができ、モデルが違法に修正された場合、元のモデルによって生成された認証情報は抽出された透かし情報とは全く異なる。
関連論文リスト
- Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Knowledge-Free Black-Box Watermark and Ownership Proof for Image
Classification Neural Networks [9.117248639119529]
画像分類ニューラルネットワークのための知識のないブラックボックス透かし方式を提案する。
繊細なエンコーディングと検証のプロトコルは、スキームの敵に対する未知のセキュリティを確保するために設計されている。
実験により,提案した透かし方式の機能保存能力と安全性が実証された。
論文 参考訳(メタデータ) (2022-04-09T18:09:02Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。