論文の概要: Hashed Watermark as a Filter: Defeating Forging and Overwriting Attacks in Weight-based Neural Network Watermarking
- arxiv url: http://arxiv.org/abs/2507.11137v1
- Date: Tue, 15 Jul 2025 09:38:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.059257
- Title: Hashed Watermark as a Filter: Defeating Forging and Overwriting Attacks in Weight-based Neural Network Watermarking
- Title(参考訳): Hashed Watermark as a Filter: Defeating forging and Overwriting Attacks in Weight-based Neural Network Watermarking (特集:情報ネットワーク)
- Authors: Yuan Yao, Jin Song, Jian Jin,
- Abstract要約: NeuralMarkはハッシュされたウォーターマークフィルタを中心に構築された堅牢なメソッドである。
これは、鍛造攻撃と上書き攻撃の両方に対して堅牢な防御を提供する。
さまざまなニューラルネットワークアーキテクチャにシームレスに統合することができる。
- 参考スコア(独自算出の注目度): 8.475609885922006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As valuable digital assets, deep neural networks necessitate robust ownership protection, positioning neural network watermarking (NNW) as a promising solution. Among various NNW approaches, weight-based methods are favored for their simplicity and practicality; however, they remain vulnerable to forging and overwriting attacks. To address those challenges, we propose NeuralMark, a robust method built around a hashed watermark filter. Specifically, we utilize a hash function to generate an irreversible binary watermark from a secret key, which is then used as a filter to select the model parameters for embedding. This design cleverly intertwines the embedding parameters with the hashed watermark, providing a robust defense against both forging and overwriting attacks. An average pooling is also incorporated to resist fine-tuning and pruning attacks. Furthermore, it can be seamlessly integrated into various neural network architectures, ensuring broad applicability. Theoretically, we analyze its security boundary. Empirically, we verify its effectiveness and robustness across 13 distinct Convolutional and Transformer architectures, covering five image classification tasks and one text generation task. The source codes are available at https://github.com/AIResearch-Group/NeuralMark.
- Abstract(参考訳): 価値あるデジタル資産として、ディープニューラルネットワークは、堅牢なオーナシップ保護を必要とし、ニューラルネットワーク透かし(NNW)を有望なソリューションとして位置付ける。
NNWアプローチの中でも、ウェイトベースの手法はその単純さと実用性に好まれるが、これらは鍛造攻撃や上書き攻撃に弱いままである。
これらの課題に対処するために,ハッシュウォーターマークフィルタを中心に構築された堅牢な方法であるNeuralMarkを提案する。
具体的には、ハッシュ関数を用いて秘密鍵から不可逆なバイナリ透かしを生成し、それをフィルタとして使用して埋め込みのためのモデルパラメータを選択する。
この設計は、埋め込みパラメータをハッシュされた透かしで巧みに介入し、鍛造と上書きの両方に対する堅牢な防御を提供する。
平均的なプーリングも、微調整やプルーニング攻撃に抵抗するために組み込まれている。
さらに、様々なニューラルネットワークアーキテクチャにシームレスに統合することができ、幅広い適用性を確保することができる。
理論的には、セキュリティ境界を解析する。
実験により,13の異なるConvolutionalおよびTransformerアーキテクチャにおいて,5つの画像分類タスクと1つのテキスト生成タスクを対象として,その有効性と堅牢性を検証した。
ソースコードはhttps://github.com/AIResearch-Group/NeuralMarkで入手できる。
関連論文リスト
- BlockDoor: Blocking Backdoor Based Watermarks in Deep Neural Networks [3.1858340237924776]
BlockDoorは、トレーニングされたニューラルネットワークに透かしをバックドアとして埋め込む手段として、文学で使用される3種類のトリガーサンプルをすべてブロックするラッパーである。
Triggerの透かし検証の精度を最大98%まで下げることができる。
論文 参考訳(メタデータ) (2024-12-14T06:38:01Z) - DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。