論文の概要: Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking
- arxiv url: http://arxiv.org/abs/2305.17879v2
- Date: Tue, 27 Jun 2023 15:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 16:38:34.308001
- Title: Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking
- Title(参考訳): 静的ニューラルネットワーク透かしのための可逆量子化指数変調
- Authors: Junren Qin, Shanxiang Lyu, Fan Yang, Jiarui Deng, Zhihua Xia, Xiaochun
Cao
- Abstract要約: 可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
- 参考スコア(独自算出の注目度): 57.96787187733302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Static deep neural network (DNN) watermarking techniques typically employ
irreversible methods to embed watermarks into the DNN model weights. However,
this approach causes permanent damage to the watermarked model and fails to
meet the requirements of integrity authentication. Reversible data hiding (RDH)
methods offer a potential solution, but existing approaches suffer from
weaknesses in terms of usability, capacity, and fidelity, hindering their
practical adoption. In this paper, we propose a novel RDH-based static DNN
watermarking scheme using quantization index modulation (QIM). Our scheme
incorporates a novel approach based on a one-dimensional quantizer for
watermark embedding. Furthermore, we design two schemes to address the
challenges of integrity protection and legitimate authentication for DNNs.
Through simulation results on training loss and classification accuracy, we
demonstrate the feasibility and effectiveness of our proposed schemes,
highlighting their superior adaptability compared to existing methods.
- Abstract(参考訳): 静的ディープニューラルネットワーク(DNN)の透かし技術は通常、透かしをDNNモデル重みに埋め込む不可逆的な手法を用いる。
しかし、このアプローチは透かし付きモデルに恒久的なダメージを与え、完全性認証の要件を満たさない。
reversible data hide (rdh) メソッドは潜在的な解決策を提供するが、既存のアプローチではユーザビリティ、キャパシティ、忠実性といった面で弱点があり、実用的採用を妨げる。
本稿では,量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
本手法は,透かし埋め込みのための一次元量子化器に基づく新しい手法を取り入れている。
さらに,DNNの正当性保護と正当性認証の課題に対処する2つのスキームを設計する。
学習損失と分類精度のシミュレーション結果を通じて,提案手法の有効性と有効性を示し,既存手法と比較して優れた適応性を示す。
関連論文リスト
- ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Verifying Integrity of Deep Ensemble Models by Lossless Black-box
Watermarking with Sensitive Samples [17.881686153284267]
深層アンサンブルモデル(DEM)のための新しいブラックボックス透かし法を提案する。
提案手法では,実世界のDEM攻撃を模倣して,一定数の機密サンプルを慎重に選択する。
これらの細心の注意深いサンプルからターゲットDEMの予測結果を解析することにより、ターゲットDEMの完全性を検証することができる。
論文 参考訳(メタデータ) (2022-05-09T09:40:20Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Spread-Transform Dither Modulation Watermarking of Deep Neural Network [33.63490683496175]
本稿では,サイド情報パラダイムによる透かしを利用した新しいDNN透かしアルゴリズムを提案し,透かしの難易度を低減し,ペイロードを増加させる。
特に,ST-DM(Spread Transform Dither Modulation)による電子透かし方式は,従来のSSに基づく最近提案されたアルゴリズムの性能向上に寄与する。
論文 参考訳(メタデータ) (2020-12-28T10:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。