論文の概要: FedReverse: Multiparty Reversible Deep Neural Network Watermarking
- arxiv url: http://arxiv.org/abs/2312.05738v1
- Date: Sun, 10 Dec 2023 03:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 19:02:13.591635
- Title: FedReverse: Multiparty Reversible Deep Neural Network Watermarking
- Title(参考訳): fedreverse: 多人数可逆ディープニューラルネットワークのウォーターマーキング
- Authors: Junlong Mao, Huiyi Tang, Yi Zhang, Fengxia Liu, Zhiyong Zheng and
Shanxiang Lyu
- Abstract要約: FedReverseは、堅牢な著作権保護のための新しい多党可逆的な透かしアプローチである。
FedReverseは可逆であり、全クライアントの同意を得て完全な透かしを除去できる。
本稿では,MNISTデータセットに基づいて学習した多層パーセプトロン(MLP)と畳み込みニューラルネットワーク(CNN)の総合シミュレーションにより,FedReverseをさらに評価する。
- 参考スコア(独自算出の注目度): 9.284907705838453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of Deep Neural Networks (DNN) in commercial applications is
expanding rapidly. Simultaneously, the increasing complexity and cost of
training DNN models have intensified the urgency surrounding the protection of
intellectual property associated with these trained models. In this regard, DNN
watermarking has emerged as a crucial safeguarding technique. This paper
presents FedReverse, a novel multiparty reversible watermarking approach for
robust copyright protection while minimizing performance impact. Unlike
existing methods, FedReverse enables collaborative watermark embedding from
multiple parties after model training, ensuring individual copyright claims. In
addition, FedReverse is reversible, enabling complete watermark removal with
unanimous client consent. FedReverse demonstrates perfect covering, ensuring
that observations of watermarked content do not reveal any information about
the hidden watermark. Additionally, it showcases resistance against Known
Original Attacks (KOA), making it highly challenging for attackers to forge
watermarks or infer the key. This paper further evaluates FedReverse through
comprehensive simulations involving Multi-layer Perceptron (MLP) and
Convolutional Neural Networks (CNN) trained on the MNIST dataset. The
simulations demonstrate FedReverse's robustness, reversibility, and minimal
impact on model accuracy across varying embedding parameters and multiple
client scenarios.
- Abstract(参考訳): 商用アプリケーションにおけるディープニューラルネットワーク(DNN)の普及は急速に進んでいる。
同時に、DNNモデルの複雑化とコストの増大により、これらの訓練されたモデルに関連する知的財産の保護を取り巻く緊急性が高まっている。
この点において、DNNの透かしは重要な保護技術として現れている。
本稿では,性能への影響を最小限に抑えつつ,堅牢な著作権保護のための多元的可逆的透かし手法であるfeedreverseを提案する。
既存の方法とは異なり、feedreverseはモデルトレーニング後に複数のパーティから共同ウォーターマークを埋め込み、個々の著作権クレームを保証できる。
さらに、FedReverseは可逆であり、全クライアントの同意を得て完全な透かしを削除することができる。
FedReverseは完璧なカバーを示し、透かしのある内容の観察が隠された透かしに関する情報を明かさないようにする。
さらに、既知のオリジナル攻撃(koa)に対する抵抗を示し、攻撃者がウォーターマークを偽造したり、鍵を推測したりするのは非常に困難である。
本稿では,MNISTデータセットに基づいて学習した多層パーセプトロン(MLP)と畳み込みニューラルネットワーク(CNN)の総合シミュレーションを通じてFedReverseを評価する。
シミュレーションは、FedReverseの堅牢性、可逆性、および様々な埋め込みパラメータと複数のクライアントシナリオにわたるモデルの精度に最小限の影響を示す。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Protecting the Intellectual Properties of Deep Neural Networks with an
Additional Class and Steganographic Images [7.234511676697502]
本稿では,Deep Neural Network(DNN)モデルの知的特性を,追加のクラスとステガノグラフィー画像を用いて保護する手法を提案する。
我々は,ウォーターマークキー画像にユーザの指紋を埋め込むために,最下位ビット(lsb)画像ステガノグラフィを採用する。
Fashion-MNISTとCIFAR-10データセットでは,100%透かし精度と100%指紋認証成功率が得られる。
論文 参考訳(メタデータ) (2021-04-19T11:03:53Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。