論文の概要: Lossless Copyright Protection via Intrinsic Model Fingerprinting
- arxiv url: http://arxiv.org/abs/2601.21252v1
- Date: Thu, 29 Jan 2026 04:18:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.570784
- Title: Lossless Copyright Protection via Intrinsic Model Fingerprinting
- Title(参考訳): 固有モデルフィンガープリントによる無害な著作権保護
- Authors: Lingxiao Chen, Liqin Wang, Wei Lu, Xiangyang Luo,
- Abstract要約: 既存の保護手法では、モデルを変更して透かしを埋め込むことでパフォーマンスを損なう。
そこで我々はTrajPrintを提案する。TrajPrintは、ユニークな多様体の指紋を抽出することによって、モデル著作権を検証する、完全に損失のない、トレーニング不要なフレームワークである。
- 参考スコア(独自算出の注目度): 21.898748690761874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exceptional performance of diffusion models establishes them as high-value intellectual property but exposes them to unauthorized replication. Existing protection methods either modify the model to embed watermarks, which impairs performance, or extract model fingerprints by manipulating the denoising process, rendering them incompatible with black-box APIs. In this paper, we propose TrajPrint, a completely lossless and training-free framework that verifies model copyright by extracting unique manifold fingerprints formed during deterministic generation. Specifically, we first utilize a watermarked image as an anchor and exactly trace the path back to its trajectory origin, effectively locking the model fingerprint mapped by this path. Subsequently, we implement a joint optimization strategy that employs dual-end anchoring to synthesize a specific fingerprint noise, which strictly adheres to the target manifold for robust watermark recovery. As input, it enables the protected target model to recover the watermarked image, while failing on non-target models. Finally, we achieved verification via atomic inference and statistical hypothesis testing. Extensive experiments demonstrate that TrajPrint achieves lossless verification in black-box API scenarios with superior robustness against model modifications.
- Abstract(参考訳): 拡散モデルの例外的な性能は、それらを高価値な知的特性として確立するが、それらを無許可の複製に公開する。
既存の保護方法は、パフォーマンスを損なう透かしを埋め込むためにモデルを変更するか、デノナイジングプロセスを操作することによってモデル指紋を抽出し、ブラックボックスAPIと互換性のないものにするかのどちらかである。
本稿では,決定論的生成時に生成した一意な多様体指紋を抽出することにより,モデル著作権を検証可能な,完全に損失のない,トレーニング不要なフレームワークであるTrajPrintを提案する。
具体的には、まず透かしをアンカーとして使用し、その軌跡を正確に追跡し、この経路でマッピングされたモデル指紋を効果的にロックする。
その後、両端アンカーを用いて特定の指紋ノイズを合成し、頑健な透かし回復のためにターゲット多様体に厳密に固執する共同最適化戦略を実装した。
入力として、非ターゲットモデルで失敗しながら、保護対象モデルが透かし画像の復元を可能にする。
最後に,原子推定と統計的仮説による検証を行った。
大規模な実験により、TrajPrintはブラックボックスAPIのシナリオにおいて、モデル修正に対する堅牢性に優れたロスレス検証を実現している。
関連論文リスト
- Adapter Shield: A Unified Framework with Built-in Authentication for Preventing Unauthorized Zero-Shot Image-to-Image Generation [74.5813283875938]
ゼロショット画像・画像生成は知的財産権侵害に重大なリスクをもたらす。
この研究は、個人イメージを誤用から守ることを目的とした、最初の普遍的および認証統合ソリューションであるAdapter Shieldを提示する。
提案手法は, ゼロショット画像合成の不正化において, 最先端の防御を克服する。
論文 参考訳(メタデータ) (2025-11-25T04:49:16Z) - Towards Dataset Copyright Evasion Attack against Personalized Text-to-Image Diffusion Models [52.877452505561706]
データセットのオーナシップ検証(DOV)を損なうよう特別に設計された最初の著作権回避攻撃を提案する。
CEAT2Iは, 試料検出, トリガー同定, 効率的な透かし除去の3段階からなる。
実験の結果,CEAT2I はモデル性能を保ちながら DOV 機構を効果的に回避できることがわかった。
論文 参考訳(メタデータ) (2025-05-05T17:51:55Z) - AGATE: Stealthy Black-box Watermarking for Multimodal Model Copyright Protection [26.066755429896926]
バックドアの透かしとしてOoD(Out-of-Distribution)データを選択し、著作権保護のためにオリジナルのモデルを再訓練する。
既存の方法は、敵による悪意のある検出と偽造を受けやすいため、透かしの回避につながる。
マルチモーダルモデル著作権保護におけるステルスネスとロバストネスの課題に対処するために,モデル-アンダーラインに依存しないブラックボックスのバックドアWunderlineatermarking Framework (AGATE)を提案する。
論文 参考訳(メタデータ) (2025-04-28T14:52:01Z) - Gaussian Shading++: Rethinking the Realistic Deployment Challenge of Performance-Lossless Image Watermark for Diffusion Models [66.54457339638004]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,実世界の展開に適した拡散モデル透かし手法を提案する。
Gaussian Shading++はパフォーマンスのロスレス性を維持するだけでなく、ロバスト性の観点からも既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-04-21T11:18:16Z) - FIT-Print: Towards False-claim-resistant Model Ownership Verification via Targeted Fingerprint [22.398234847594242]
モデルフィンガープリントは、オープンソースモデルの知的財産権を保護するために広く採用されているアプローチである。
本稿では, 相手が第三者モデルの所有権を誤って主張する, 虚偽のクレーム攻撃に対して脆弱であることを明らかにする。
これらの知見に触発され,疑似クレーム攻撃に対処するための指紋認証パラダイム(FIT-Print)を提案する。
論文 参考訳(メタデータ) (2025-01-26T13:00:58Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。