論文の概要: An Information Asymmetry Game for Trigger-based DNN Model Watermarking
- arxiv url: http://arxiv.org/abs/2510.14218v1
- Date: Thu, 16 Oct 2025 01:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.674088
- Title: An Information Asymmetry Game for Trigger-based DNN Model Watermarking
- Title(参考訳): トリガーベースDNNモデル透かしのための情報非対称性ゲーム
- Authors: Chaoyue Huang, Gejian Zhao, Hanzhou Wu, Zhihua Xia, Asad Malik,
- Abstract要約: トリガーベースの透かし方式は、ホストDNNにトリガーを埋め込むことで著作権保護を実現する。
我々は、この相互作用を情報非対称性の条件下でゲームとしてモデル化する。つまり、ディフェンダーは秘密の透かしをプライベートな知識で埋め込むが、攻撃者は透かしモデルにアクセスして除去を求めることができる。
実験により, 透かしモデルの有効性が示され, 疎透かしは, 無視できる精度の損失で除去に抵抗できることが示唆された。
- 参考スコア(独自算出の注目度): 17.283528230785393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a valuable digital product, deep neural networks (DNNs) face increasingly severe threats to the intellectual property, making it necessary to develop effective technical measures to protect them. Trigger-based watermarking methods achieve copyright protection by embedding triggers into the host DNNs. However, the attacker may remove the watermark by pruning or fine-tuning. We model this interaction as a game under conditions of information asymmetry, namely, the defender embeds a secret watermark with private knowledge, while the attacker can only access the watermarked model and seek removal. We define strategies, costs, and utilities for both players, derive the attacker's optimal pruning budget, and establish an exponential lower bound on the accuracy of watermark detection after attack. Experimental results demonstrate the feasibility of the watermarked model, and indicate that sparse watermarking can resist removal with negligible accuracy loss. This study highlights the effectiveness of game-theoretic analysis in guiding the design of robust watermarking schemes for model copyright protection.
- Abstract(参考訳): 価値あるデジタル製品として、ディープニューラルネットワーク(DNN)は、知的財産に対する深刻な脅威に直面しており、それらを保護する効果的な技術的手段を開発する必要がある。
トリガーベースの透かし方式は、ホストDNNにトリガーを埋め込むことで著作権保護を実現する。
しかし、攻撃者はプルーニングや微調整によって透かしを除去することができる。
我々は、この相互作用を情報非対称性の条件下でゲームとしてモデル化する。つまり、ディフェンダーは秘密の透かしをプライベートな知識で埋め込む一方で、攻撃者は透かしモデルにアクセスして除去を求めることができる。
我々は、両プレイヤーの戦略、コスト、ユーティリティを定義し、攻撃者の最適な刈り取り予算を導出し、攻撃後の透かし検出の精度を指数的に低く設定する。
実験により, 透かしモデルの有効性が示され, 疎透かしは, 無視できる精度の損失で除去に抵抗できることが示唆された。
本研究では, モデル著作権保護のためのロバストな透かし方式の設計を導く上で, ゲーム理論解析の有効性を強調した。
関連論文リスト
- Character-Level Perturbations Disrupt LLM Watermarks [64.60090923837701]
我々は,Large Language Model (LLM)ウォーターマーキングのためのシステムモデルを定式化する。
我々は、透かし検出器への限られたアクセスに制約された2つの現実的な脅威モデルの特徴付けを行う。
我々は,最も制限的な脅威モデルの下で,キャラクタレベルの摂動が透かし除去に著しく有効であることを実証した。
現実的な制約下での透かし除去における文字レベルの摂動の優位性と遺伝的アルゴリズム(GA)の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2025-09-11T02:50:07Z) - Robustness of Watermarking on Text-to-Image Diffusion Models [9.277492743469235]
本稿では,透かし埋め込みとテキスト・ツー・イメージ・ジェネレーション処理を統合することで生成する透かしの堅牢性について検討する。
生成型透かし法は, 識別器による攻撃やエッジ予測に基づく攻撃のエッジ情報に基づく操作など, 直接回避攻撃に対して堅牢であるが, 悪意のある微調整には脆弱であることがわかった。
論文 参考訳(メタデータ) (2024-08-04T13:59:09Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Protecting the Intellectual Properties of Deep Neural Networks with an
Additional Class and Steganographic Images [7.234511676697502]
本稿では,Deep Neural Network(DNN)モデルの知的特性を,追加のクラスとステガノグラフィー画像を用いて保護する手法を提案する。
我々は,ウォーターマークキー画像にユーザの指紋を埋め込むために,最下位ビット(lsb)画像ステガノグラフィを採用する。
Fashion-MNISTとCIFAR-10データセットでは,100%透かし精度と100%指紋認証成功率が得られる。
論文 参考訳(メタデータ) (2021-04-19T11:03:53Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。