論文の概要: Protecting Deep Neural Network Intellectual Property with Chaos-Based White-Box Watermarking
- arxiv url: http://arxiv.org/abs/2512.16658v1
- Date: Thu, 18 Dec 2025 15:26:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.125944
- Title: Protecting Deep Neural Network Intellectual Property with Chaos-Based White-Box Watermarking
- Title(参考訳): カオスベースのホワイトボックス透かしによるディープニューラルネットワークの知的特性の保護
- Authors: Sangeeth B, Serena Nicolazzo, Deepa K., Vinod P,
- Abstract要約: ディープニューラルネットワーク(DNN)の急速な普及により、知的財産権(IP)保護とモデル誤用に関する懸念が高まっている。
DNNの内部パラメータにオーナシップ情報を埋め込む,効率的でレジリエントなホワイトボックス透かしフレームワークを提案する。
提案手法は,ホワイトボックス設定にモデルオーナシップを組み込んで検証するための,フレキシブルでスケーラブルなソリューションを提供する。
- 参考スコア(独自算出の注目度): 2.667401221288548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of deep neural networks (DNNs) across several domains has led to increasing concerns regarding intellectual property (IP) protection and model misuse. Trained DNNs represent valuable assets, often developed through significant investments. However, the ease with which models can be copied, redistributed, or repurposed highlights the urgent need for effective mechanisms to assert and verify model ownership. In this work, we propose an efficient and resilient white-box watermarking framework that embeds ownership information into the internal parameters of a DNN using chaotic sequences. The watermark is generated using a logistic map, a well-known chaotic function, producing a sequence that is sensitive to its initialization parameters. This sequence is injected into the weights of a chosen intermediate layer without requiring structural modifications to the model or degradation in predictive performance. To validate ownership, we introduce a verification process based on a genetic algorithm that recovers the original chaotic parameters by optimizing the similarity between the extracted and regenerated sequences. The effectiveness of the proposed approach is demonstrated through extensive experiments on image classification tasks using MNIST and CIFAR-10 datasets. The results show that the embedded watermark remains detectable after fine-tuning, with negligible loss in model accuracy. In addition to numerical recovery of the watermark, we perform visual analyses using weight density plots and construct activation-based classifiers to distinguish between original, watermarked, and tampered models. Overall, the proposed method offers a flexible and scalable solution for embedding and verifying model ownership in white-box settings well-suited for real-world scenarios where IP protection is critical.
- Abstract(参考訳): 複数のドメインにわたるディープニューラルネットワーク(DNN)の急速な普及により、知的財産権(IP)保護とモデル誤用に関する懸念が高まっている。
訓練されたDNNは貴重な資産であり、しばしばかなりの投資を通じて発展した。
しかし、モデルがコピー、再配布、あるいは再利用できる容易さは、モデルのオーナシップを主張、検証するための効果的なメカニズムが緊急に必要であることを示している。
本研究では,カオスシーケンスを用いたDNNの内部パラメータにオーナシップ情報を埋め込む,効率的でレジリエントなホワイトボックス透かしフレームワークを提案する。
透かしは、よく知られたカオス関数であるロジスティックマップを用いて生成され、初期化パラメータに敏感なシーケンスを生成する。
この配列は、モデルの構造変更や予測性能の劣化を必要とせず、選択した中間層の重みに注入される。
オーナシップを検証するために、抽出された配列と再生されたシーケンスとの類似性を最適化し、元のカオスパラメータを復元する遺伝的アルゴリズムに基づく検証プロセスを導入する。
提案手法の有効性は,MNISTとCIFAR-10データセットを用いた画像分類タスクの広範な実験により実証された。
その結果, 組込み透かしは微調整後に検出可能であり, モデル精度は無視できないことがわかった。
透かしの数値的な復元に加えて,重量密度プロットを用いて視覚解析を行い,アクティベーションに基づく分類器を構築し,オリジナルモデルと透かしモデルと改ざんモデルとを区別する。
提案手法は,IP保護が重要となる現実のシナリオに適したホワイトボックス設定にモデルオーナシップを組み込んで検証するための,フレキシブルでスケーラブルなソリューションを提供する。
関連論文リスト
- Lightweight CNN Model Hashing with Higher-Order Statistics and Chaotic Mapping for Piracy Detection and Tamper Localization [9.859893936091813]
知覚的ハッシュは、海賊モデルを特定する効果的なアプローチとして現れている。
本稿では,高次統計量(HOS)とカオスマッピング機構を組み合わせた軽量CNNモデルハッシュ手法を提案する。
論文 参考訳(メタデータ) (2025-10-31T03:04:10Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Towards Efficient General Feature Prediction in Masked Skeleton Modeling [59.46799426434277]
マスクスケルトンモデリングのための新しい汎用特徴予測フレームワーク(GFP)を提案する。
我々の重要な革新は、局所的な動きパターンからグローバルな意味表現にまたがる、従来の低レベルな再構築を高レベルな特徴予測に置き換えることです。
論文 参考訳(メタデータ) (2025-09-03T18:05:02Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - TSFool: Crafting Highly-Imperceptible Adversarial Time Series through Multi-Objective Attack [6.243453526766042]
TSFoolと呼ばれる効率的な手法を提案する。
中心となる考え方は、「カモフラージュ係数」(Camouflage Coefficient)と呼ばれる新しい大域的な最適化目標であり、クラス分布から反対サンプルの非受容性を捉えるものである。
11のUCRデータセットとUEAデータセットの実験では、TSFoolは6つのホワイトボックスと3つのブラックボックスベンチマークアタックを著しく上回っている。
論文 参考訳(メタデータ) (2022-09-14T03:02:22Z) - Neural network fragile watermarking with no model performance
degradation [28.68910526223425]
モデル性能の劣化を伴わない新しいニューラルネットワーク脆弱な透かしを提案する。
実験の結果,提案手法はモデル性能劣化を伴わずに,悪質な微調整を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2022-08-16T07:55:20Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。