論文の概要: WaterMAS: Sharpness-Aware Maximization for Neural Network Watermarking
- arxiv url: http://arxiv.org/abs/2409.03902v1
- Date: Thu, 5 Sep 2024 20:22:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 17:20:24.154670
- Title: WaterMAS: Sharpness-Aware Maximization for Neural Network Watermarking
- Title(参考訳): WaterMAS: ニューラルネットワークによるウォーターマーキングのためのシャープネス認識の最大化
- Authors: Carl De Sousa Trias, Mihai Mitrea, Attilio Fiandrotti, Marco Cagnazzo, Sumanta Chaudhuri, Enzo Tartaglione,
- Abstract要約: WaterMASは、堅牢性、非受容性、計算複雑性の間のトレードオフを改善する、置換型、ホワイトボックスニューラルネットワーク透かし方式である。
強靭性は攻撃の強さを制限することで確保される。
トレーニングプロセス中に透かしを挿入することで、認識不能を確保できる。
- 参考スコア(独自算出の注目度): 11.717546811674884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, deep neural networks are used for solving complex tasks in several critical applications and protecting both their integrity and intellectual property rights (IPR) has become of utmost importance. To this end, we advance WaterMAS, a substitutive, white-box neural network watermarking method that improves the trade-off among robustness, imperceptibility, and computational complexity, while making provisions for increased data payload and security. WasterMAS insertion keeps unchanged the watermarked weights while sharpening their underlying gradient space. The robustness is thus ensured by limiting the attack's strength: even small alterations of the watermarked weights would impact the model's performance. The imperceptibility is ensured by inserting the watermark during the training process. The relationship among the WaterMAS data payload, imperceptibility, and robustness properties is discussed. The secret key is represented by the positions of the weights conveying the watermark, randomly chosen through multiple layers of the model. The security is evaluated by investigating the case in which an attacker would intercept the key. The experimental validations consider 5 models and 2 tasks (VGG16, ResNet18, MobileNetV3, SwinT for CIFAR10 image classification, and DeepLabV3 for Cityscapes image segmentation) as well as 4 types of attacks (Gaussian noise addition, pruning, fine-tuning, and quantization). The code will be released open-source upon acceptance of the article.
- Abstract(参考訳): 今日では、ディープニューラルネットワークは、いくつかの重要なアプリケーションにおける複雑なタスクの解決や、その完全性と知的財産権(IPR)の保護に利用されています。
この目的のために我々は、データペイロードとセキュリティの強化を図りながら、ロバスト性、不受容性、計算複雑性のトレードオフを改善する置換型ホワイトボックスニューラルネットワーク透かし法であるWaterMASを推進した。
WasterMASの挿入は、下層の勾配空間を研ぎながら、透かしの重みを変え続ける。
したがって、ロバスト性は攻撃の強さを制限することで確保され、水面にマークされた重量の小さな変更でもモデルの性能に影響を及ぼす。
トレーニングプロセス中に透かしを挿入することで、認識不能を確保できる。
本稿では,WaterMASデータペイロード間の関係,非受容性,ロバスト性について論じる。
秘密鍵は、透かしを伝達する重みの位置で表され、モデルの複数の層を通してランダムに選択される。
セキュリティは、攻撃者が鍵を傍受するケースを調査して評価される。
実験的な検証では、5つのモデルと2つのタスク(VGG16、ResNet18、MobileNetV3、CIFAR10イメージ分類のためのSwinT、CityscapesイメージセグメンテーションのためのDeepLabV3)と4種類の攻撃(ガウスノイズの追加、プルーニング、微調整、量子化)が検討されている。
コードは、記事の受理後、オープンソースとして公開される。
関連論文リスト
- Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Robust and Large-Payload DNN Watermarking via Fixed,
Distribution-Optimized, Weights [20.114672756850307]
ネットワーク変更に対して非常に大きなペイロードと強力なロバスト性を実現するために,ホワイトボックスのマルチビット透かし方式を提案する。
提案手法は,ネットワーク修正に対するロバスト性,再学習,転送学習など,ネットワーク精度に大きな影響を与えることなく,優れた性能を実現することができる。
論文 参考訳(メタデータ) (2022-08-23T13:45:15Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。